Archiv verlassen und diese Seite im Standarddesign anzeigen : HL2 benchmarks von anand (kleiner vorgeschmack)
Razor
2003-09-14, 15:06:21
Original geschrieben von gRoUnD
Was interessieren denn alle anderen User was für Probleme nVidia wieder mal hat Razor? Ist mir egal was es diesmal wieder für ne Ausrede gibt, nVidia ist den Usern vernünftige Treiber schuldig.
Ist der 45.23 denn nicht vernünftig ?
Was läuft denn damit nicht ?
Und alles andere interessiert mich nicht, bis ich mal selber Hand anlegen kann, um gewisse Ding nachzuvollziehen. Soll Valve offiziell 'ne Demo, oder auch meinetwegen 'nen Bench vom Stapel lassen und nVidia auch offizielle Treiber.
Das, was da derzeit abgeht, ist schon nicht mehr witzig.
REINES Marketing !
Einzig bei AM3 schaut's offensichtlich ein bissel besser aus. Auch wenn hier nVidia wohl noch 'nen Prob' im Vertex-Shader hat, was bei einem (nicht mal erhältlichem) Beta-Treiber auch verzeihlich ist.
Alle tapsen sie hier im Dunklen und ziehen Schlüsse ohne Basis.
Sorry, aber das ist echter Humbug !
Razor
Razor
2003-09-14, 15:08:25
Original geschrieben von Gast
genauso wie 3drealms, idsoft, legend und wie sie alle heissen...?!
Jup.
Mir geht das langsam richtig auf den Sack !
Sollen die doch alle machen, was sie wollen... ICH mache mir erst wieder um 'neue' oder gar 'revolutionäre' Games gedanekn, wenn ich sie selbst ausprobieren kann. Vorher geht mir das am Ar... vorbei.
Razor
Sphinx
2003-09-14, 15:11:29
Original geschrieben von Winter[Raven]
Und es wird den Nvidia Fans angedreht die würden nicht den Tatsachen ins Auge blicken.
Ein Tipp, denk doch bitte erstmal nach bevor du sowas postest, den Beweise für NVIDIA Treiber Schneller = Cheats/ herabsetzung der BQ sehe ich nicht.
Ganz interessanter Artikel :
Quelle : http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/001.htm
--------------------------------------------------------------------------------
Update 09/09: Even the folks at Gas Powered Games have chimed in regarding this issue. Here's a quote from James Loe head-tech-pimp-daddy over at GPG:
“Precision has a pretty big impact on the current nVidia chips, so it’s important to use half precision data types and the nVidia specific 2.0a HLSL compiler when running on NV3X hardware. Keeping those limitations in mind, it hasn’t been too difficult for us to maintain an acceptable level of performance.”
James Loe
--------------------------------------------------------------------------------
Update 09/06: We also emailed Gabe Newell from Valve Software about his experience with Pixel Shader Performance:
GD: We've started some initial DX9 Shader tests, and have seen, so far that NVIDIA NV3x hardware has a hard time.. Will it'll be similar w/ the HL2 Benchmark?
"Yep."
Gabe Newell
--------------------------------------------------------------------------------
Update 09/05: We emailed id Software guru, John Carmack about his experience with NV3x hardware on Pixel Shading performance, and this was his reply:
GD: John, we've found that NVIDIA hardware seems to come to a crawl whenever Pixel Shader's are involved, namely PS 2.0..
Have you witnessed any of this while testing under the Doom3 environment?
"Yes. NV30 class hardware can run the ARB2 path that uses ARB_fragment_program, but it is very slow, which is why I have a separate NV30 back end that uses NV_fragment_program to specify most of the operations as 12 or 16 bit instead of 32 bit."
John Carmack
--------------------------------------------------------------------------------
We asked ATI about how their cards do so well, and this was our reply:
"The R300 architecture was built from the ground up for performance in DirectX 9. DX9 instructions map naturally to our hardware, without any tweaking or driver optimizations. This is important, because the vast majority of games out there won't have the benefit of driver optimizations from anyone (unlike certain game benchmarks), because no-one has the engineering resources to spare. Whether you look at brute force (our 8 pipes versus the competitor's 4) or elegance (we can run many shader operations in parallel that our competitor can't) we have a fundamental advantage with our hardware. With more and more DirectX 9 games coming onto the market, the battle will be all about who can run shaders faster and more efficiently. And our shader performance is hugely better. ShaderMark and other tests show shader performance that is three to six times better on ATI's hardware than Nvidia's. This architectural advantage is evident in shipping games like Tomb Raider: Angel of Darkness. You will also see this in Half-Life 2 and every DX9 game coming out before the holiday season."
nagus
2003-09-14, 15:12:38
Original geschrieben von LovesuckZ
Ist HL2 schon draußen? Noe.
Als ATi gesagt hat, sie werden optimierte Treiber beim erscheinen von Doom3 haben, hat da jemand geschrieen, sie sollten jez welche bringen?
Der 45.23 laeuft erste Sahne, bis auf die 2 PS2 Spiele.
ähm... vielleicht hast dus noch nicht gecheckt, aber die NV3X architektur läuft einfach nicht schneller/besser bei PS2.0 apps. daran ändern auch neue treiber nix. das problem liegt an der architektur. wer auf neue wunder-treiber für die NV3x serie wartet, der kann lange warten. sowas wirds lämlich NIE geben. der nächste technoligiesprung steht kurz bevor. und wenn die NV40 anfang 2Q2004 vielleicht raus kommt, gibts garantiert keine super-dupa-PS2.0 treiber für NV3x-chips weils dann auch nix mehr hilft. es ist vorbei mit der NV3x technik. nvidia hat das kapitel NV3X schon längst bei seite geschoben. die müssen schaun, dass sie mit der NV40 was vernünftiges zu stande bringen, sonst sind sie entgültig weg vom fenster. der ganze rummel um die 50er detos ist alles nur hinhaltetaktik. wann kappierst du das endlich? lass dich nicht länger verarschen!
Die gelbe Eule
2003-09-14, 15:19:40
wenn man den compiler etwas optimieren würde, das auch der ps 2.0+ was machen kann, denke ich das da vieles mehr zu holen ist.
neue unabhängige benches lassen nv wieder vorne stehen. der geldkoffer von ati war natürlich auf so einer pressekonferenz immer im blickwinkel.
valve möchte sein produkt bestmöglich verkaufen und für ein paar $$ kann man da auch schon mal den einen oder anderen etwas weiter vorne platzieren.
wenn nun hl2 erst im feb 2004 kommt wie alle sagen, dann wird die 9800xt ja auch erst dann erscheinen, was zum einen zu spät ist, da der nv38 früher kommt und weil zu dem zeitpunkt der R420er angepeilt ist.
es wirbeln alle gerüchte rum, nur weil nv schlecht da stand. da werden einiges seiten bald keinen support mehr von nv haben, dessen bons vielleicht sie jetzt noch besitzen.
[dzp]Viper
2003-09-14, 15:20:21
Original geschrieben von nagus
ähm... vielleicht hast dus noch nicht gecheckt, aber die NV3X architektur läuft einfach nicht schneller/besser bei PS2.0 apps. daran ändern auch neue treiber nix. das problem liegt an der architektur. wer auf neue wunder-treiber für die NV3x serie wartet, der kann lange warten. sowas wirds lämlich NIE geben. der nächste technoligiesprung steht kurz bevor. und wenn die NV40 anfang 2Q2004 vielleicht raus kommt, gibts garantiert keine super-dupa-PS2.0 treiber für NV3x-chips weils dann auch nix mehr hilft. es ist vorbei mit der NV3x technik. nvidia hat das kapitel NV3X schon längst bei seite geschoben. die müssen schaun, dass sie mit der NV40 was vernünftiges zu stande bringen, sonst sind sie entgültig weg vom fenster. der ganze rummel um die 50er detos ist alles nur hinhaltetaktik. wann kappierst du das endlich? lass dich nicht länger verarschen!
auch wenn unser nagi ein fanATIker durch und durch ist, HIER muss ich mal rechtgeben ...
und 90 % der leute haben es jetzt verstanden .. aber es gibt immernoch welche, die sich an NV und den wunderdeto hängen, wie als wäre es der letzte ast vor dem tode ...
Razor
2003-09-14, 15:20:47
Original geschrieben von LovesuckZ
Der 45.23 laeuft erste Sahne, bis auf die 2 PS2 Spiele.
Jup.
Ich hab' allerdings noch die 45.33 drauf', weil ich keinen Unterschied zu den offiziellen 45.23 feststellen konnte (wurden nur ein bissel wärmer und 'Blinky' blinkt nicht mehr ;-).
Razor
[dzp]Viper
2003-09-14, 15:21:25
Original geschrieben von die elektrische eule
wenn nun hl2 erst im feb 2004 kommt wie alle sagen, dann wird die 9800xt ja auch erst dann erscheinen, was zum einen zu spät ist, da der nv38 früher kommt und da und weil zu dem zeitpunkt der R420er angepeilt ist.
alle ? heise.de = alle ????
;D;D;D
Die gelbe Eule
2003-09-14, 15:23:47
es gibt noch so einige händler mehr die da den 02.02.2004 angegeben haben.
die nun alle als bestätigung rauszusuchen ist schwachsinn.
heise.de ist sehr vorschnell und hat eine zu spitze unobjektive zunge ...
LovesuckZ
2003-09-14, 15:23:54
Original geschrieben von [dzp]Viper
auch wenn unser nagi ein fanATIker durch und durch ist, HIER muss ich mal rechtgeben ...
tuerlich musst du zustimen, bist du doch in der Treiberentwicklung von Nvidia taetig und kennst die Leute, die fürn Shadercompiler zustaendig sind.
Nagus nicht vergessen, er ist ja der Kopf bei Nvidia.
Vielleicht sollte man weniger zu stimmen und mehr Artikel lesen.
[dzp]Viper
2003-09-14, 15:25:23
Original geschrieben von LovesuckZ
tuerlich musst du zustimen, bist du doch in der Treiberentwicklung von Nvidia taetig und kennst die Leute, die fürn Shadercompiler zustaendig sind.
Nagus nicht vergessen, er ist ja der Kopf bei Nvidia.
Vielleicht sollte man weniger zu stimmen und mehr Artikel lesen. [/SIZE]
vielleicht solltest du mal deine nv brille abnehmen - die geschwindigkeitsschübe gab es bei den tests der 51.75 nur bei AF ...unter PS2.0 gabs kaum geschwindigkeitsschübe ..
P.S. du bist aber natürlichin der treiberentwicklung .. und weisst auch, dass der treiber die doppelte performance aus HL2 rauskitzeln wird ...
menno lovesuck ... ich schreibe hier nix mehr .. is eh sinnlos ;)
Die gelbe Eule
2003-09-14, 15:26:19
fakt ist, das ati wohl schiß hat, die millionen umsonst verbraten zu haben, wenn am ende nv besser performt.
die große ati fangemeinde gibts doch nur weil sich mal die 9500er modden lassen konnte, ohne dem würde der anteil deutlich niedriger sein.
jetzt glauben so manche das man jede ati modden könnte. märchen gibts auch bei ati ...
Sphinx
2003-09-14, 15:26:27
@ Nagus : ich kann dir da nur beisteuern...
Ich habe
1# - Nicht nötig einem FX5xxx Besitzer zu erklären warum sie die "benachteiligten" sind und sein werden wenn es hier um Technologische Standards geht...
perforierer
2003-09-14, 15:27:31
Original geschrieben von Razor
Wenn das mit Anfang 2004 stimmt, dann kann Vlave gleich ganz einpacken...
Warum eigentlich. Warum sollte Valve einpacken können, wenn das Spiel später kommt? Glaubst Du, deshalb verkaufen sie eine Packung weniger? Alle Welt wartet auf das Spiel!
Und bis dahin mhaben auch mehr Gamer ne Graka , auf denen HL optimal läuft. Fakt ist, die wollen HL2 gerne über Steam verkaufen. Und das hat extreme Macken und ist wohl noch nicht bereit...
[dzp]Viper
2003-09-14, 15:27:56
Original geschrieben von die elektrische eule
fakt ist, das ati wohl schiß hat, die millionen umsonst verbraten zu haben, wenn am ende nv besser performt.
die große ati fangemeinde gibts doch nur weil sich mal die 9500er modden lassen konnte, ohne dem würde der anteil deutlich niedriger sein.
jetzt glauben so manche das man jede ati modden könnte. märchen gibts auch bei ati ...
MUAH
:lolaway: :lolaway: :lolaway:
fakt ist ?? WO .. FAKTEN BITTE ... :lolaway:
P.S. das war mein letzter post hier in diesem thread .. wenn ich sowas lese .. hilfe
Die gelbe Eule
2003-09-14, 15:27:59
gut das hier auch jeder 350€+ für ne karte ausgeben kann ...
BlackBirdSR
2003-09-14, 15:28:23
Original geschrieben von LovesuckZ
tuerlich musst du zustimen, bist du doch in der Treiberentwicklung von Nvidia taetig und kennst die Leute, die fürn Shadercompiler zustaendig sind.
Nagus nicht vergessen, er ist ja der Kopf bei Nvidia.
Vielleicht sollte man weniger zu stimmen und mehr Artikel lesen. [/SIZE]
wir brauchen ein Kindergarten Forum.
Dann können die Kinder auch solche Attacken posten, oder noch besser;
"Mein Papi kann deinen Papi verhauen!"
Wisst ihr wie schwer ihr es für jemanden macht, der nur Informationen will, und nicht eure Charaktereigenschaften?
Denkt mal drüber nach
LovesuckZ
2003-09-14, 15:28:38
Original geschrieben von Sphinx
Ich habe
1# - Nicht nötig einem FX5xxx Besitzer zu erklären warum sie die "benachteiligten" sind und sein werden wenn es hier um Technologische Standards geht...
"Technologische Standards"? Hoe...
Aus technischer Sicht sind wohl FX und r3x0 auf dem selben Level. Vorteile da, Nachteile hier.
Die gelbe Eule
2003-09-14, 15:31:00
Original geschrieben von [dzp]Viper
MUAH
:lolaway: :lolaway: :lolaway:
fakt ist ?? WO .. FAKTEN BITTE ... :lolaway:
schau dir ebay an ... da haste fakten genug. mit dem hype will jeder kohle machen.
oder siehst du wen bei nv karten der schreibt: wundertreiber bietet beste performance !!!
edit:
kleiner auszug von ebay ...
High-End Grafikkarte ATI Radeon 9800 Pro von ATI
Die ATI Radeon 9800 Pro ist die High-End-Grafikkarte in Sachen Performance und Bildqualität. Sie investieren hier in eine Karte, die nicht so schnell von den Applikationen sei es Anwendung oder Spiele ausgereizt werden kann.
dann müßten ja 200 fps drin sein hl2 oder? weil wird ja nicht ausgereizt ... =)
LovesuckZ
2003-09-14, 15:31:11
Original geschrieben von [dzp]Viper
vielleicht solltest du mal deine nv brille abnehmen - die geschwindigkeitsschübe gab es bei den tests der 51.75 nur bei AF ...unter PS2.0 gabs kaum geschwindigkeitsschübe ..
Guck in den Aquamark3 Thread.
Und mit PS2.0: Ich will's sehen: TR6, Halo, die syntic Benches like Rightmark3d. Dann koennen wir weiter reden.
P.S. du bist aber natürlichin der treiberentwicklung .. und weisst auch, dass der treiber die doppelte performance aus HL2 rauskitzeln wird ...
Leider werden wir das erst Ende September erfahren, da Valve ja den 51.75 nicht zu ließ.
StefanV
2003-09-14, 15:32:33
Original geschrieben von die elektrische eule
wenn man den compiler etwas optimieren würde, das auch der ps 2.0+ was machen kann, denke ich das da vieles mehr zu holen ist.
neue unabhängige benches lassen nv wieder vorne stehen. der geldkoffer von ati war natürlich auf so einer pressekonferenz immer im blickwinkel.
valve möchte sein produkt bestmöglich verkaufen und für ein paar $$ kann man da auch schon mal den einen oder anderen etwas weiter vorne platzieren.
wenn nun hl2 erst im feb 2004 kommt wie alle sagen, dann wird die 9800xt ja auch erst dann erscheinen, was zum einen zu spät ist, da der nv38 früher kommt und da und weil zu dem zeitpunkt der R420er angepeilt ist.
es wirbeln alle gerüchte rum, nur weil nv schlecht da stand. da werden einiges seiten bald keinen support mehr von nv haben, dessen bons vielleicht sie jetzt noch besitzen.
1. was soll man denn noch alles optimieren??
Schon auf dem Papier wird klar, daß ein RV350 Chip leistungsfähiger ist, als ein NV30, leider...
Nur das der NV30 2 TMUs/Pipe hat und auch etwas mehr Bandbreite...
2. neue Benches werden nix an dem bekannten ändern.
Wenn viele >1.3 Shader zum Einsatz kommen, dann versagt die NV3x Architektur völlig, da nV sich zu sicher geglaubt hat und ATI völlig unterschätzt hat...
Valve müsste also die meisten Shader durch PS1.1 und PS1.3 Shader ersetzen, damit NV schneller wird...
3. Quark!!
Wenn man das als Spieleentwickler macht, dann hat man meist ein Problem (außer man heißt EA).
Vernünftige Spieleentwickler bemühen sich, daß das Spiel möglichst gut auf ALLEN Chips läuft.
Denn wenn sie es nicht machen würden, dann hätten sie ein gewaltiges Problem.
Den Aussagen von Gabe ist auch zu entnehmen, daß sie alles versucht haben, damit HL2 möglichst gut auf nV3x HW läuft, was aber alles nicht wirklich was gebracht hat.
Ich entnehme den Statements, die ich gelesen hab, daß Gabe von den nV3xen sehr enttäuscht ist, was die Leistung betrifft...
Daß die ATI Chips so dermaßen schneller sind, das war sicher nicht von den Entwicklern geplant...
4. DAS ist aber ein Gerücht, das von Heise in die Welt gesetzt wurde, was ich aber nicht wirklich glaube, daß man ein Spiel so kurz vor dem geplanten Gold Termin verschiebt (würde wohl diverse Probleme/diversen Ärger mit diversen Institutionen geben).
Persönlich würd ich nicht drauf hoffen, daß man HL2 verschiebt.
Nur was wäre, wenn HL2 pünktlich auf dem Markt ist und der Abstand von ATI HW noch größer wird bzw bestehen bleibt??
5. ???
Was kann Valve dafür, daß die Performance der NV3x Shader so unterirdisch ist??
Jemand meinte, daß HL2 HDR Rendering und overbright Lightning an jeder Ecke böte...
Ergo: das erse 'echte DX9 Game mit Fallback bis DX7' ist!!
Ich muss mich leider nagus Statement anschließen und fürchte daß er völlig Recht mit seiner Aussage hat...
NV versucht nur seine 'Anhänger' hinzuhalten und zu vertrösten, was ich persönlich ziemlich scheiße finde.
Die sollen endlich mal mit offenen Karten spielen...
perforierer
2003-09-14, 15:34:43
Original geschrieben von die elektrische eule
fakt ist, das ati wohl schiß hat, die millionen umsonst verbraten zu haben, wenn am ende nv besser performt.
die große ati fangemeinde gibts doch nur weil sich mal die 9500er modden lassen konnte, ohne dem würde der anteil deutlich niedriger sein.
jetzt glauben so manche das man jede ati modden könnte. märchen gibts auch bei ati ...
Stimmt. Auch bei Postings in diesem Thread ;D
Ernsthaft: Sollten wir tatsächlich auf diesem Niveau diskutieren?
Razor
2003-09-14, 15:36:09
Original geschrieben von perforierer
Stimmt. Auch bei Postings in diesem Thread ;D
Ernsthaft: Sollten wir tatsächlich auf diesem Niveau diskutieren?
Schau Dir doch einfach des Nivau hier an !
Hier WIRD auf unterstem Nivau gespammt und jeder hat offensichtlich 'ne Glaskugel...
"Wenn's Schö macht !"
:D
Razor
StefanV
2003-09-14, 15:36:36
Original geschrieben von die elektrische eule
fakt ist, das ati wohl schiß hat, die millionen umsonst verbraten zu haben, wenn am ende nv besser performt.
die große ati fangemeinde gibts doch nur weil sich mal die 9500er modden lassen konnte, ohne dem würde der anteil deutlich niedriger sein.
jetzt glauben so manche das man jede ati modden könnte. märchen gibts auch bei ati ...
1. :rofl:
Sorry, ich kann nicht mehr...
Die Hoffnung stirbt zuletzt, was??
Mehr muss ich dazu nicht sagen...
2. Quark mit Sauce!!
Die ATI Fangemeinde gibts 'nur', weil ATI mal alles, was sie bisher hatten (die Rage Serie) in den Papierkorb befördert haben und mal einen 'Neustart' versucht haben, ohne andauernd irgendwelche Designeinschränkungen mitzuschleppen...
ATI hat alles versucht, um besser zu sein als nV, was man schon mit der R100 sehen konnte...
3. tja, diese Märchen gibts doch überall, nicht wahr??
nV mit ihren absolut unfehlbaren Treibern, Intel mit ihren absolut stabilsten Chipsätzen, VIA mit ihren Bugs usw...
Micron
2003-09-14, 15:36:52
Nvidia hat richtig scheiße gebaut mit der FX serie. Das ist er letzte Müll , glaubt mir , und das soll kein Flamm Posting sein sondern die reine wahrheit und meine meinung
Die gelbe Eule
2003-09-14, 15:37:39
sind wir schon auf unterstem NiVeau ???
=)
dildo4u
2003-09-14, 15:38:57
Original geschrieben von LovesuckZ
Guck in den Aquamark3 Thread.
Und mit PS2.0: Ich will's sehen: TR6, Halo, die syntic Benches like Rightmark3d. Dann koennen wir weiter reden.
Leider werden wir das erst Ende September erfahren, da Valve ja den 51.75 nicht zu ließ. [/SIZE]
Natürlich wurde er nicht zugelassen du hast doch selber eingesehen das die Bild Quali schlechter ist siehe AM3 kann ja sein das die PS2.0 performance besser ist aber deshalb muss man ja nich die gesammte IQ verschlechtern die ATI karten wurde auch nur mit WHQL treibern gebencht warum sollte das bei NV anders sein?
Razor
2003-09-14, 15:39:24
@ die elektrische eule
Original geschrieben von Micron
Nvidia hat richtig scheiße gebaut mit der FX serie. Das ist er letzte Müll , glaubt mir , und das soll kein Flamm Posting sein sondern die reine wahrheit und meine meinung
Was könnte denn jetzt noch weiter runter gehen ?
???
Postings solcherart sind "der letzte Müll" !
Und hoffentlich bin ich mit dieser Meinung nicht allein...
Razor
Die gelbe Eule
2003-09-14, 15:40:08
Original geschrieben von Stefan Payne
1. :rofl:
Sorry, ich kann nicht mehr...
Die Hoffnung stirbt zuletzt, was??
Mehr muss ich dazu nicht sagen...
2. Quark mit Sauce!!
Die ATI Fangemeinde gibts 'nur', weil ATI mal alles, was sie bisher hatten (die Rage Serie) in den Papierkorb befördert haben und mal einen 'Neustart' versucht haben, ohne andauernd irgendwelche Designeinschränkungen mitzuschleppen...
ATI hat alles versucht, um besser zu sein als nV, was man schon mit der R100 sehen konnte...
3. tja, diese Märchen gibts doch überall, nicht wahr??
nV mit ihren absolut unfehlbaren Treibern, Intel mit ihren absolut stabilsten Chipsätzen, VIA mit ihren Bugs usw...
tut mir leid habe keine 400€ für ne 5900u oder 370€ für ne 9800pro ...
fühlen sich jetzt auch die 5200 und 5600er besitzer betrogen?
was machen denn die 8500er und 9500/9700er ? sidn die jetzt auch am arsch ... ?
Sphinx
2003-09-14, 15:40:11
Original geschrieben von LovesuckZ
"Technologische Standards"? Hoe...
Aus technischer Sicht sind wohl FX und r3x0 auf dem selben Level. Vorteile da, Nachteile hier.
^^
Wie du es sagst : PS2.0 ist definiert - Nvidia hat hier Nachteile und Ati halt ihre Vorteile.
Falsch :
Aus technischer Sicht sind die FX und R3x0 auf demselben Level...
FX haben einen PS2.0+ <------
Ati hat hier ein PS2.0 <---- "ohne +"
Halt Nvidia hat und wird mit ihrer NV3x Series das Nachsehen haben... -> Das einzige was Nvidia bleibt ist die Standards manuell durch die Treiber und oder durch die Entwickler nach unten zu Schrauben... damit ihre achso halogenic Hardware im Rahmen des vernüftig Spielbaren bleibt...
PS: SEE -> HL2-Bench, SEE -> Aquamark3Previews (ein schelm wer denkt das da viel PS2.0 dabei ist...also mehr DX7,8,8.1 Benchmark), See DOOM3 Comments von John Carmak
Hiermal ein Statement von AQ3 - Massive :
But nevertheless we try to create the same screen content with every technique, we face minor differences which arise from the internal accuracy which is smaller when we select a multi-pass technique instead of a multi-texture technique. The fallback mechanisms are optimized as heavily as possible, so we can ensure that the way to achieve the defined result is a near optimal way for all ps/vs versions. For that reason, the AM3 score is comparable, because the only fact that counts is the users benefit (ignoring image quality losses, which are negligible in AM3).
StefanV
2003-09-14, 15:40:50
Original geschrieben von Razor
@ die elektrische eule
Was könnte denn jetzt noch weiter runter gehen ?
???
Razor
Geht doch garnicht, wir sind doch schon auf allerunterstem Niveau, noch tiefer gehts nimmer mehr ;D ;D
LovesuckZ
2003-09-14, 15:43:04
Original geschrieben von dildo4u
Natürlich wurde er nicht zugelassen du hast doch selber eingesehen das die Bild Quali schlechter ist siehe AM3 kann ja sein das die PS2.0 performance besser ist aber deshalb muss man ja nich die gesammte IQ verschlechtern die ATI karten wurde auch nur mit WHQL treibern gebancht warum sollte das bei NV anders sein?
Das ganze mit dem verfügbaren Treibern beim HL2 Bench ist wohl das duemmste, was ich je bei einem Preview gehoert habe.
Der Bench ist nicht erhaeltlich, er ist noch im Beta Stadium (AA Probleme etc.) und dann solle kein Beta Treiber verwendet werden, der nur für die selbe Zielgruppe erhaelt ist, wie der Bench?
Zu AM3: Da Aquamark 4AF im Defaulmodus verwendet, ist es schwer, ob die Geschwindigkeit ohne AF auch gesteigert wurde. Ich warte bis zum Montag und hoffentlich erste 51.75 Reviews.
perforierer
2003-09-14, 15:43:16
Eigentlich sollten wir ja froh sein, dass es die Komnkurrenz nVidia und ATI gibt. Seit 3dfx den Bach runtergegangen ist, hatte nVidia einfach zu wenig Konkurrenz. Nun haben sie eben wieder stärkeren gegenwind. Daran müssen sie sich einfach gewöhnen. Die haben sich ein wenig zu sehr auf den Lorbeeren ausgeruht. Das Desaster mit den ersten FX hat das deutlich gezeigt.
Aber eigentlich sollte dieser Thread doch nicht in eine Grundsatzdiskussion über ATI und nVidia abgleiten, oder?
Eigentlich ging es um die Benchmarkergebnisse. Ich bin selbst gespant auf die Ergebnisse mit dem 5xer Deto und auf die Bildquali.
Die Ergebnisse von anand an sich aber zeigen für mich schon, dass die FX rein vom Praxiswert als DX9 Karte aus MOMENTANER Sicht problematisch ist.
nders gesagt: Müsste ich morgen eine neue Graka kaufen (ich habe bisher nur nVidia), dann würde ich ne ATI nehmen.
Oder wer sieht das momentan anders? Würde mich mal interessieren, auch mit Begründung. :)
Original geschrieben von Stefan Payne
Geht doch garnicht, wir sind doch schon auf allerunterstem Niveau, noch tiefer gehts nimmer mehr ;D ;D Ja genau, davon wird das Niveau wieder angehoben! Die restlichen 2 Seiten, werden von den ober Spamorn mal wieder für ihren privaten kleinkrieg genutzt!
StefanV
2003-09-14, 15:45:31
Original geschrieben von die elektrische eule
tut mir leid habe keine 400€ für ne 5900u oder 370€ für ne 9800pro ...
fühlen sich jetzt auch die 5200 und 5600er besitzer betrogen?
was machen denn die 8500er und 9500/9700er ? sidn die jetzt auch am arsch ... ?
1. der Sinn deiner Aussage verschließt sich leider :|
Man braucht keine 500€ bzw eine 9800 PRO, eine 'kleine' 9700 langt doch völlig bzw eine 9800...
Erstere kann man auch prima für ~200€ gebraucht erstehen...
2. tja, kommt drauf an, was sie erwartet haben...
Wenn sie eine tolle DX9 Performance erwarteten, dann werden sie sicher enttäuscht sein...
3. kommt drauf an :)
Die 8500/9100 Besitzer überlegen sich ev. auf eine 9700/9800 upzugraden, die 9500 Besitzer freuen sich über ihre tolle Karte, die 9700 Besitzer freuen sich noch mehr, zumal sie solangsam anfangen zu denken, daß ihre Karte eine sehr gute Inverstition für die Zukunft gewesen sein könnte...
LovesuckZ
2003-09-14, 15:45:36
Original geschrieben von Sphinx
Wie du es sagst : PS2.0 ist definiert - Nvidia hat hier Nachteile und Ati halt ihre Vorteile.
Welche "Standards" erfüllt Nvidia in bezug von DX9 nicht?
Nicht alles nachreden, was ein Fanboy irgendwo mal erzaehlte.
Die gelbe Eule
2003-09-14, 15:47:53
würde es morgen 20 dx9 launch titel geben die das genre des gaming revolutionieren, dann kaufe ich mir auch ne ati9800pro für 370 € und alle spiele für 1200 €, weil ich habs ja =) wie hier alle anderen auch ...
man sollte es anders sehen
gk sind wie autos ...
miese karte bringen dich von a nach b aber langsam
gute karten sollte dir auch was bieten und mehr geben als nur von a nach b zu kommen. das heißt der unetrschied sollte gewaltig sein.
bei den miesen karten ist das alles noch im rahmen. doch für das 5 fache an geld bekommt man nicht das 5fache an leistung.
Razor
2003-09-14, 15:48:03
Original geschrieben von perforierer
Oder wer sieht das momentan anders? Würde mich mal interessieren, auch mit Begründung. :)
Ich !
;)
Warum ?
Weil hier momentan NUR und AUSSCHLIESSLICH Marketing am Werke ist. Halbwahrheiten und IHV-Geplänkel reichen sich hier die Hand. Offensichtlich gibt es Krieg im GraKa-Sektor und in einer solchen Situation mit Fakten konfrontiert zu werden, ist wohl ein Ding der Unmöglichkeit.
Ich werde abwarten, bis ICH selber Probleme oder Unterschiede ausmachen darf. Das, was einem derzeit von den 'Medien' geboten wird, ist echt ein Hammer und sollte eigentlich mit Nicht-Beachtung gestraft werden...
Razor
mapel110
2003-09-14, 15:49:52
Original geschrieben von Razor
Das, was einem derzeit von den 'Medien' geboten wird, ist echt ein Hammer und sollte eigentlich mit Nicht-Beachtung gestraft werden...
Razor
natürlich nur von nvidia anhängern, gelle :D
Die gelbe Eule
2003-09-14, 15:50:56
Original geschrieben von Stefan Payne
1. der Sinn deiner Aussage verschließt sich leider :|
Man braucht keine 500€ bzw eine 9800 PRO, eine 'kleine' 9700 langt doch völlig bzw eine 9800...
Erstere kann man auch prima für ~200€ gebraucht erstehen...
2. tja, kommt drauf an, was sie erwartet haben...
Wenn sie eine tolle DX9 Performance erwarteten, dann werden sie sicher enttäuscht sein...
3. kommt drauf an :)
Die 8500/9100 Besitzer überlegen sich ev. auf eine 9700/9800 upzugraden, die 9500 Besitzer freuen sich über ihre tolle Karte, die 9700 Besitzer freuen sich noch mehr, zumal sie solangsam anfangen zu denken, daß ihre Karte eine sehr gute Inverstition für die Zukunft gewesen sein könnte...
habe 370 € geschrieben nicht 500€. wenn schon quotest, das heißt zitierst, dann dreht nicht alles um. das ist dann nur spammen mehr nicht.
der sinn deines quotes verschließt sich ins ungewisse ...
zu 2. du denkst wohl das alle die nv kaufen völlig verblödet sind und sich wegen dx9 ne karte kaufen.
kauf du mal ne neue dx8 karte in einem normalen laden oder bietet dir vw auch nen golf4 als neuwagen an wenn der golf 5 schon daneben steht?
Razor
2003-09-14, 15:52:08
Original geschrieben von mapel110
natürlich nur von nvidia anhängern, gelle :D
Nö, gilt generell...
Oder findest Du es witzig, hier von Valve vorgeführt zu werden ?
Interessiert es Dich denn nicht, wie nVidia mit anderen Treibern dagestanden hätte ?
(ein Bildvergleich wär dann genauso zwingend notwendig ;-)
Oder reicht es Dir einfach, wenn jemand sagt: "Du glaubst jetzt, dass... !"
???
Ich sach' nur eins: "Määäääääähhhhhhhhhh.... !"
;D
Razor
Exxtreme
2003-09-14, 15:53:42
Leute,
bitte beruhigt euch jetzt langsam. :)
Ich weiss, flamen kann Spass machen aber... naja, viel sinn hat es z.Zt. nicht. =)
Die gelbe Eule
2003-09-14, 15:55:43
flame mit begründung ohne auf ne spezielle karte nen pin zu bekommen, das ist ok.
aber mit ner 9800pro im rücken ist man gerne etwas abgehoben von der normalen grafikkarten gesellschaft udn alles was darunter ist wird dann eh shice sein ...
mapel110
2003-09-14, 15:57:09
Original geschrieben von Razor
Nö, gilt generell...
Oder findest Du es witzig, hier von Valve vorgeführt zu werden ?
Interessiert es Dich denn nicht, wie nVidia mit anderen Treibern dagestanden hätte ?
(ein Bildvergleich wär dann genauso zwingend notwendig ;-)
Oder reicht es Dir einfach, wenn jemand sagt: "Du glaubst jetzt, dass... !"
???
Ich sach' nur eins: "Määäääääähhhhhhhhhh.... !"
;D
Razor
razor, wenn ich sehe, dass von deto 45 auf deto 51 nur unter AA/AF leistung gewonnen wird, dann ist mir klar, woher der deto51 seine "performance" hat. nämlich von weiteren AF"optimierungen".
aber vielleicht gelingts ja nv, mit deto55 nochmehr AFtweaking zu betreiben, damit die performance konkurrenzfähig ist.
achja, wenn der deto55 auch nicht viel performance bringt, wird sich wieder damit rausgeredet, dass ja noch in dx dieser ominöse nv30 ps2.0 pfad fehlt :stareup: euer vertrauen in eure fav. firma möcht ich haben...
dildo4u
2003-09-14, 15:57:37
Original geschrieben von Razor
Nö, gilt generell...
Oder findest Du es witzig, hier von Valve vorgeführt zu werden ?
Interessiert es Dich denn nicht, wie nVidia mit anderen Treibern dagestanden hätte ?
(ein Bildvergleich wär dann genauso zwingend notwendig ;-)
Oder reicht es Dir einfach, wenn jemand sagt: "Du glaubst jetzt, dass... !"
???
Ich sach' nur eins: "Määäääääähhhhhhhhhh.... !"
;D
Razor
Nochmal warum sollen Beta treiber zugelassen werden? ATI hat auch keinen superdupa sondern HL2 treiber gebracht oder hätte die das dürfen wenn das nv auch hätte machen dürfen aber wo zu das die ATI karte dann 3 mal so schnell ist?Mir persönlich reichen auch 2mal so schnell ;-)
StefanV
2003-09-14, 15:57:57
Original geschrieben von die elektrische eule
würde es morgen 20 dx9 launch titel geben die das genre des gaming revolutionieren, dann kaufe ich mir auch ne ati9800pro für 370 € und alle spiele für 1200 €, weil ich habs ja =) wie hier alle anderen auch ...
man sollte es anders sehen
gk sind wie autos ...
miese karte bringen dich von a nach b aber langsam
gute karten sollte dir auch was bieten und mehr geben als nur von a nach b zu kommen. das heißt der unetrschied sollte gewaltig sein.
bei den miesen karten ist das alles noch im rahmen. doch für das 5 fache an geld bekommt man nicht das 5fache an leistung.
Du weichst aus!!
Du musst dir auch keine 9800 PRO kaufen, da es eine 9800 np auch tut, welche mit unter 300€ deutlich günstiger ist!!!
GKs mit Autos zu vergleichen triffts irgendwie nicht ganz...
Aber beim Autokauf gilt auch: Augen auf, beim Autokauf und vorher schön brav informieren!!
Denn dann kann man eine Menge Geld sparen, wenn man sich ein recht zuverlässiges KFZ käuft anstatt des vorher geplanten Werkstatthüters...
LovesuckZ
2003-09-14, 15:59:31
Original geschrieben von mapel110
razor, wenn ich sehe, dass von deto 45 auf deto 51 nur unter AA/AF leistung gewonnen wird, dann ist mir klar, woher der deto51 seine "performance" hat. nämlich von weiteren AF"optimierungen".
aber vielleicht gelingts ja nv, mit deto55 nochmehr AFtweaking zu betreiben, damit die performance konkurrenzfähig ist.
Schon die neuen Bilder (im Aquamark3 Thread) von Guru3d.com gesehen? Auch das verschlechterte AF sieht noch deutlich besser aus als das, was ATi anbietet.
LovesuckZ
2003-09-14, 16:01:36
Original geschrieben von dildo4u
ATI hat auch keinen superdupa sondern HL2 treiber gebracht oder hätte die das dürfen wenn das nv auch hätte machen dürfen aber wo zu das die ATI karte dann 3 mal so schnell ist?Mir persönlich reichen auch 2mal so schnell ;-)
Hm wie war es bei Doom3: "Wir [ATI] hatten keine Chance einen optimierten Treiber zu veröffentlichen, da wir von diesen Test nicht's wussten".
Tja, Nvidia wusste es und hat mit Valve am 5x.xx gemeinsam gearbeitet. Und warum nun diesen Treiber nicht zu lassen?
/edit: Für eine Erklaerung waere ich dankbar und bitte kein: Der Treiber sei nicht öffentlich zugaenglich, der Bench war es auch nicht.
perforierer
2003-09-14, 16:03:36
Original geschrieben von Razor
Weil hier momentan NUR und AUSSCHLIESSLICH Marketing am Werke ist.
Ganz klar ist das alles sehr stark vom Marketing abhängig, geb ich Dir absolut recht. ATI und Valve als Technology Partner haben natürlich beide ein Interesse daran, dass der jeweils andere gut dasteht.
Andererseits glaube ich nicht, dass sich Valve das Verhältnis zu nVidia komplett versauen will. Dagegen spricht übrigens alleine schon die Tatsache, dass Valve mit dem Mixed Mode nen eigenen Renderpfad für die FX gebaut hat...
[B]
Ich werde abwarten, bis ICH selber Probleme oder Unterschiede ausmachen darf. Das, was einem derzeit von den 'Medien' geboten wird, ist echt ein Hammer und sollte eigentlich mit Nicht-Beachtung gestraft werden...
Razor
Das wäre natürlich das beste, aber halt auch langweilig. :) Imerhin haben wir alle den Weg in den Thread gefunden. Ein gewisser Unterhaltungsfaktor ist ja nicht abzustreiten.
Original geschrieben von Razor
Halbwahrheiten und IHV-Geplänkel reichen sich hier die Hand. Offensichtlich gibt es Krieg im GraKa-Sektor und in einer solchen Situation mit Fakten konfrontiert zu werden, ist wohl ein Ding der Unmöglichkeit.
Razor
Andererseits ist die schwache 2.0 Shaderleistung unter voller Präzision ja nun nichts neues. Das hat ja schon J.C. angedeutet, und auch andere Entwickler. Die Benches bestätigen das halt irgendwie, egal, ob sie im einzelnen kkorrekt zustande gekommen sind oder nicht. Daher eben auch der Aufruhr. Dafür, dass das alles so unglaubwürdig sein soll reagieren einige hier aber ganz erstaunlich emotional (ich meine nicht Dich). Dafür, dass man das nicht ernst nehmen sollte, weil es von nem Marketingevent kam, haben es einige aber schon sehr ernst genommen... :)
Die gelbe Eule
2003-09-14, 16:04:56
Original geschrieben von LovesuckZ
Hm wie war es bei Doom3: "Wir [ATI] hatten keine Chance einen optimierten Treiber zu veröffentlichen, da wir von diesen Test nicht's wussten".
Tja, Nvidia wusste es und hat mit Valve am 5x.xx gemeinsam gearbeitet. Und warum nun diesen Treiber nicht zu lassen?
/edit: Für eine Erklaerung waere ich dankbar und bitte kein: Der Treiber sei nicht öffentlich zugaenglich, der Bench war es auch nicht.
der treiber ist ja noch beta, also in arbeit. warum sollte man ein unfertiges produkt gegen ein fertiges antreten lassen?
mapel110
2003-09-14, 16:04:56
Original geschrieben von LovesuckZ
Schon die neuen Bilder (im Aquamark3 Thread) von Guru3d.com gesehen? Auch das verschlechterte AF sieht noch deutlich besser aus als das, was ATi anbietet.
wayne?
ich erwarte vom deto >50 mehr ps2.0/ps1.4 performance
aber wo ist die?
LovesuckZ
2003-09-14, 16:06:37
Original geschrieben von mapel110
wayne?
Das die Geschwindigkeit nicht ausschließlich durch das schlechtere Filtern zu stande kam.
ich erwarte vom deto >50 mehr ps2.0/ps1.4 performance
aber wo ist die?
Ich hab noch keine Reviews gesehen. :)
LovesuckZ
2003-09-14, 16:07:53
Original geschrieben von die elektrische eule
der treiber ist ja noch beta, also in arbeit. warum sollte man ein unfertiges produkt gegen ein fertiges antreten lassen?
Die Engine scheint auch noch nicht fertig zu sein, wenn man sich die ergebnisse anguckt.
Jedenfalls ist es kein Beinbruch, Werte mit dem 51.75 anzubieten. Als normaler Mench kommt man an beides nicht an.
Demirug
2003-09-14, 16:10:41
Original geschrieben von dildo4u
Nochmal warum sollen Beta treiber zugelassen werden? ATI hat auch keinen superdupa sondern HL2 treiber gebracht oder hätte die das dürfen wenn das nv auch hätte machen dürfen aber wo zu das die ATI karte dann 3 mal so schnell ist?Mir persönlich reichen auch 2mal so schnell ;-)
Die überlegung enthält einen kleinen Denkfehler. Als Technologie Partner sollte ATI immer über den aktuellen Build der Engine/Spiel verfügen. Zudem wird ja wohl primär auf ATI-Hardwareentwickelt wodurch Probleme schneller erkannt und gemeldet werden. Dadurch fliessen optimierungen viel schneller in den normalen Treiber mit ein.
Bei DOOM III dürfte nVidia aber den gleichen Vorteil haben weil JC primär mit nVidia Hardware arbeitet und so probleme dort schneller erkennt.
Razor
2003-09-14, 16:12:26
Original geschrieben von mapel110
razor, wenn ich sehe, dass von deto 45 auf deto 51 nur unter AA/AF leistung gewonnen wird, dann ist mir klar, woher der deto51 seine "performance" hat. nämlich von weiteren AF"optimierungen".
aber vielleicht gelingts ja nv, mit deto55 nochmehr AFtweaking zu betreiben, damit die performance konkurrenzfähig ist.
Du 'siehst' ?
Oder 'siehst' Du nur das, was Du sehen sollst ?
Ist der Treiber verfügbar ?
Kann man das selber 'sehen' ?
Nein ?
Ah ja...
Original geschrieben von mapel110
achja, wenn der deto55 auch nicht viel performance bringt, wird sich wieder damit rausgeredet, dass ja noch in dx dieser ominöse nv30 ps2.0 pfad fehlt :stareup: euer vertrauen in eure fav. firma möcht ich haben...
Also AFAIK gibt's nur 'nen 45.23... sonst nix !
Oder gibt's da etwa schon was Neues, was mal sich ziehen kann ?
???
Razor
Die gelbe Eule
2003-09-14, 16:13:16
würden alle nv besitzer sagen, was so mies ist die performance in hl2, dann würden sie nicht anfangen ne ati zu kaufen sondern eher das spiel im regal lassen.
valve muss mit nv enger kooperieren, damit es früchte trägt. nv wird seine karten auch für andere spiele gut verkaufen können.
edit:
was wenn die berühmt berüchtigten ati bildfehler in hl2 auftauchen ???
dann ist die kacke am dampfen ...
Razor
2003-09-14, 16:14:06
Original geschrieben von dildo4u
Nochmal warum sollen Beta treiber zugelassen werden? ATI hat auch keinen superdupa sondern HL2 treiber gebracht oder hätte die das dürfen wenn das nv auch hätte machen dürfen aber wo zu das die ATI karte dann 3 mal so schnell ist?Mir persönlich reichen auch 2mal so schnell ;-)
Na ja... aufgrund der 'engen' Zusammenarbeit mit Valve kann man davon ausgehen, dass ATI schon läääängst ein wenig "Hand angelegt" hat. Gibt's eigentlich mal Benchies mit älteren Cat's ? Nein ? Ah ja...
Razor
Exxtreme
2003-09-14, 16:16:41
Original geschrieben von die elektrische eule
würden alle nv besitzer sagen, was so mies ist die performance in hl2, dann würden sie nicht anfangen ne ati zu kaufen sondern eher das spiel im regal lassen.
valve muss mit nv enger kooperieren, damit es früchte trägt. nv wird seine karten auch für andere spiele gut verkaufen können.
Ich fürchte nur, daß die NV3X-Serie nicht viel schneller sein KANN. Valve kann nicht mehr aus der rausholen als drin ist.
Das Einzige, was sie machen können ist die PS2.0-Effekte komplett entfernen, sodaß die Besitzer der ATi-Karten keinen Vorteil haben. Aber ich glaube nicht, daß Valve das tun wird.
LovesuckZ
2003-09-14, 16:18:11
Original geschrieben von Exxtreme
Ich fürchte nur, daß die NV3X-Serie nicht viel schneller sein KANN. Valve kann nicht mehr aus der rausholen als drin ist.
Hm, dann haette Valve den 51.75 zu gelassen. :)
Exxtreme
2003-09-14, 16:19:57
Original geschrieben von LovesuckZ
Hm, dann haette Valve den 51.75 zu gelassen. :)
Nicht wenn er absichtlich oder unabsichtlich die BQ senkt. Und AM3 zeigt eindeutig, daß da irgendwas mit der Beleuchtung nicht stimmt.
dildo4u
2003-09-14, 16:20:24
Original geschrieben von Exxtreme
Ich fürchte nur, daß die NV3X-Serie nicht viel schneller sein KANN. Valve kann nicht mehr aus der rausholen als drin ist.
Das Einzige, was sie machen können ist die PS2.0-Effekte komplett entfernen, sodaß die Besitzer der ATi-Karten keinen Vorteil haben. Aber ich glaube nicht, daß Valve das tun wird.
jo ich seh auch nicht ein warum ich als ATI User auf DX9 verzichten soll würde gerne noch ein DX9 game diese jahr zocken mich juckt das eigentlich weniger das das auf den NV karten nicht mit der gewünschten geschwindigkeit funzt
warum soll ich mich wegen NV einschränken?
Die gelbe Eule
2003-09-14, 16:20:55
es gibt halt noch keinen spieziellen treiber für die ps 2.0 der was bringt.
ps 1.4 ging auch erst spät mit dem 44.67 los.
man weiß auch nciht wer wo am meisten investiert. ob nun ati schneller als nv mit der karte selbst ist oder ob nv mit dem treiber schneller als ati ist.
Razor
2003-09-14, 16:22:22
Original geschrieben von perforierer
Ganz klar ist das alles sehr stark vom Marketing abhängig, geb ich Dir absolut recht. ATI und Valve als Technology Partner haben natürlich beide ein Interesse daran, dass der jeweils andere gut dasteht.
Andererseits glaube ich nicht, dass sich Valve das Verhältnis zu nVidia komplett versauen will. Dagegen spricht übrigens alleine schon die Tatsache, dass Valve mit dem Mixed Mode nen eigenen Renderpfad für die FX gebaut hat...
Mixed Mode mit ATI-optimierten Shadern ?
Na klasse...
Original geschrieben von perforierer
Das wäre natürlich das beste, aber halt auch langweilig. :) Imerhin haben wir alle den Weg in den Thread gefunden. Ein gewisser Unterhaltungsfaktor ist ja nicht abzustreiten.
Na ja...
Wenn Leichenteile fliegen, kann's auch unterhaltsam sein.
Original geschrieben von perforierer
Andererseits ist die schwache 2.0 Shaderleistung unter voller Präzision ja nun nichts neues. Das hat ja schon J.C. angedeutet, und auch andere Entwickler. Die Benches bestätigen das halt irgendwie, egal, ob sie im einzelnen kkorrekt zustande gekommen sind oder nicht. Daher eben auch der Aufruhr. Dafür, dass das alles so unglaubwürdig sein soll reagieren einige hier aber ganz erstaunlich emotional (ich meine nicht Dich). Dafür, dass man das nicht ernst nehmen sollte, weil es von nem Marketingevent kam, haben es einige aber schon sehr ernst genommen... :)
Die Ursache für die derzeit schwachen PS2.0-Shader ist aber noch lange nicht klar...
Und solange das nicht geklärt ist und nVidia noch keine Chance hatte, die Treiber auf ein Optimum an Performance zu trimmen, wie dies derzeit bei ATI der Fall ist (die sogar global beim AF gecheatet haben, auch wenn man das natürlich anders sehen kann), sollte man sich mit endgültigen Urteilen besser zurück halten.
Das, was hier allerdings abgeht, ist echt absolut unterste Gosse !
Razor
Razor
2003-09-14, 16:24:19
Original geschrieben von mapel110
wayne?
ich erwarte vom deto >50 mehr ps2.0/ps1.4 performance
aber wo ist die?
Und ich erwarte von ATI einen Schalter, der den globalen AF-Cheat abstellt !
(wie auch nVidia den unfug bei UT2003 abstellen sollte)
Irgendwie ist das alles nur Murks, was da derzeit oben fabriziert wird...
Razor
Original geschrieben von mapel110
wayne?
ich erwarte vom deto >50 mehr ps2.0/ps1.4 performance
aber wo ist die?
Links zu deto >50 benches mit PS1.4/2.0?
perforierer
2003-09-14, 16:27:59
Weil die Diskussion sich immer mehr um den angeblichen Wunderdeto 5x dreht, möchte ich dazu mal noch nen kleinen Einwurf machen.
Es ist ja legitim, das nVidia gerne den Treiber im Test hätte, der die beste Performance bringt. Andererseits muss sich nVidia auch fragen lassen, warum dieser Treiber nicht längst draussen ist.
Ich meine, wie lange ist denn die FX Serie nun schon im Verkauf?
Letztlich hat man an die Kunden ein Produkt mit mangelhafter Treiberunerstützung für viel Geld verkauft.
Klar kann man sagen: "Bisher gabs kein Spiel mit 2.0 Shadern, also warum sollte es der Treiber perfekt unterstützen?"
Aber bitte, gerade die DX9 Kompatibilität war doch DAS Verkaufsargument für die FX Serie, oder nicht?
Angeblich arbeitet man "seit Monaten" an dem Treiber.
Ja, warum hat man dann nicht mal eine Treiberrevision rausgebracht zwischendurch? Ich finde, diese ganze Geschichte ist typisch für eine Firma, die einige Jahre quasi eine Monopolstellung im gehobenen Grakasegment hatte.
Auch wenn das Marketingevent mit seinen benches unfair sein mag, hat sich nVidia die aktuelle Lage auch ein mit selbst zuzuschreiben, wegen schlicht fehlerhafter Produktunterstützung.
Und das sage ich, obwohl ich es natürlich sehr gerne hätte, wenn die FX 5600 in meinem Notebook nen Performancschub bekommen würde.
Original geschrieben von Exxtreme
Nicht wenn er absichtlich oder unabsichtlich die BQ senkt. Und AM3 zeigt eindeutig, daß da irgendwas mit der Beleuchtung nicht stimmt.
Muss das deiner Meinung nach dann zwangsweise auf andere Applikationen auch zutreffen?
mapel110
2003-09-14, 16:28:21
Original geschrieben von ow
Links zu deto >50 benches mit PS1.4/2.0?
derzeit ist halt bekannt, dass die tombraider6 performance laut CT messungen nur um ca 6 % zugenommen hat.
und dann gibts halt noch die aquamark3 benches.
Die gelbe Eule
2003-09-14, 16:28:50
war der bench eigentlich opengl oder d3d?
mapel110
2003-09-14, 16:30:01
Original geschrieben von die elektrische eule
war der bench eigentlich opengl oder d3d?
hl2 und aquamark sind D3D
perforierer
2003-09-14, 16:30:23
Original geschrieben von Razor
Mixed Mode mit ATI-optimierten Shadern ?
Na klasse...
Ja, klar, ist problematisch. Andererseits: Wer wollte sich denn nicht an die M$ Konventionen beim Bau der eigenen Architektur halten? Das war doch wohl nVidia, oder seh ich das falsch?
dildo4u
2003-09-14, 16:30:49
Original geschrieben von die elektrische eule
war der bench eigentlich opengl oder d3d?
AUA
perforierer
2003-09-14, 16:31:59
Original geschrieben von dildo4u
AUA
Man muss ja nicht alles wissen :)
Leute, bleibt mal locker :)
StefanV
2003-09-14, 16:32:48
Original geschrieben von Razor
Mixed Mode mit ATI-optimierten Shadern ?
Na klasse...
Schau mal in 'nen anderen Thread, da hat tb mit 'ner FX seinem Shadermark einmal mit 2.0 und 2.0_A compilieren lassen und hats mit der FX durchgebencht.
Die Unterschiede waren UNGLAUBLICH und WEIT unter 10%!!!...
Demirug
2003-09-14, 16:33:13
Original geschrieben von mapel110
derzeit ist halt bekannt, dass die tombraider6 performance laut CT messungen nur um ca 6 % zugenommen hat.
und dann gibts halt noch die aquamark3 benches.
Nur unter welchen Randbedingungen? Bei TR gibt es ja Einstellungen ohne Ende.
dildo4u
2003-09-14, 16:33:25
Original geschrieben von perforierer
Man muss ja nicht alles wissen :)
Leute, bleibt mal locker :)
naja mitleierweile sollte man doch mit bekommen haben das HL2 das erste DX9 game ist sonst würde es darum ja auch nicht so eine aufregung geben ;-)
Exxtreme
2003-09-14, 16:33:31
Original geschrieben von perforierer
Ja, klar, ist problematisch. Andererseits: Wer wollte sich denn nicht an die M$ Konventionen beim Bau der eigenen Architektur halten? Das war doch wohl nVidia, oder seh ich das falsch?
Von M$ gibt es keinerlei Konventionen zur HW. :)
DX9 ist nur ein API und keine HW-Bauanleitung.
Razor
2003-09-14, 16:34:45
Original geschrieben von Exxtreme
Ich fürchte nur, daß die NV3X-Serie nicht viel schneller sein KANN. Valve kann nicht mehr aus der rausholen als drin ist.
Dann 'erleuchte' uns doch mal mit Hintergrund...
Valva hat pp benutzt... und das auch mit einem nVidia-spezifischen HLSL-Compiler ?
Sie haben also als erstes einen noch nicht von M$ frei gegebenen Compiler benutzt ?
???
Und klar, einen etsprechend optimierten Treiber haben sie auch nicht zugelassen...
Stimmt, sie haben wirklich alles getan, was in ihrer Macht stand !
"Bravo Valve !"
:D
Original geschrieben von Exxtreme
Das Einzige, was sie machen können ist die PS2.0-Effekte komplett entfernen, sodaß die Besitzer der ATi-Karten keinen Vorteil haben. Aber ich glaube nicht, daß Valve das tun wird.
So sollte eine Menge mehr machen...
Aber...
Was solls.
Razor
mapel110
2003-09-14, 16:35:06
Original geschrieben von Demirug
Nur unter welchen Randbedingungen? Bei TR gibt es ja Einstellungen ohne Ende.
tja, das weiss man halt nicht. genausowenig weiss man, dass die bildqualität nicht auch dort mit deto>50 abgenommen hat.
StefanV
2003-09-14, 16:35:28
Original geschrieben von Demirug
Bei TR gibt es ja Einstellungen ohne Ende.
Warum wohl?? *eg*
Demirug
2003-09-14, 16:35:32
Original geschrieben von perforierer
Ja, klar, ist problematisch. Andererseits: Wer wollte sich denn nicht an die M$ Konventionen beim Bau der eigenen Architektur halten? Das war doch wohl nVidia, oder seh ich das falsch?
Es gibt keine MS Konventionen bezüglich der Anordnung und Verwendung von Befehlen. Zudem wurden die PS erst von MS genormt als ATI und nV schon beide mit dem Design fertig waren.
LovesuckZ
2003-09-14, 16:35:51
Original geschrieben von dildo4u
naja mitleierweile sollte man doch mit bekommen haben das HL2 das erste DX9 game ist sonst würde es darum ja auch nicht so eine aufregung geben ;-)
nana.
Das erste DX9 Game (wenn man es so nennen moechte) waere gunMetal. Dann kommt TR6 und irgendwann mal HL2.
Das die Spiele eigentlich keine DX9 Games sind, liegt dadran, dass man sie selbst mitner DX6 Karte zocken kann.
Die gelbe Eule
2003-09-14, 16:36:49
wer spielt bitteschön hl in d3d?
ist doch klar das die frameraten so mies sind und AA hier besser aussieht ...
vegleiche hl mit hl2.
StefanV
2003-09-14, 16:37:49
Original geschrieben von LovesuckZ
nana.
Das erste DX9 Game (wenn man es so nennen moechte) waere gunMetal. Dann kommt TR6 und irgendwann mal HL2.
Das die Spiele eigentlich keine DX9 Games sind, liegt dadran, dass man sie selbst mitner DX6 Karte zocken kann.
Tja, HL2 ist aber in meinen Augen ein 'echtes' DX9 Game, da die 2.0 Shader als Eye Candys genutzt werden und man mit 'ner DX7 Karte a la GF4 MX auf einige Effekte verzichten 'darf'.
Demirug
2003-09-14, 16:38:15
Original geschrieben von Stefan Payne
Schau mal in 'nen anderen Thread, da hat tb mit 'ner FX seinem Shadermark einmal mit 2.0 und 2.0_A compilieren lassen und hats mit der FX durchgebencht.
Die Unterschiede waren UNGLAUBLICH und WEIT unter 10%!!!...
PS 2.A + deto 4X.XX = Tonne. (frei nach Sim Dietrich)
mapel110
2003-09-14, 16:38:23
Original geschrieben von LovesuckZ
nana.
Das erste DX9 Game (wenn man es so nennen moechte) waere gunMetal. Dann kommt TR6 und irgendwann mal HL2.
Das die Spiele eigentlich keine DX9 Games sind, liegt dadran, dass man sie selbst mitner DX6 Karte zocken kann.
aquanox2 nutzt auch dx9. kam wohl eindeutig vor tr6 raus :)
LovesuckZ
2003-09-14, 16:38:24
Original geschrieben von Stefan Payne
Tja, HL2 ist aber in meinen Augen ein 'echtes' DX9 Game, da die 2.0 Shader als Eye Candys genutzt werden und man mit 'ner DX7 Karte a la GF4 MX auf einige Effekte verzichten 'darf'.
Leider benutzt TR6 die PS2.0 auch schon für "Eye Candys".
dildo4u
2003-09-14, 16:38:27
Original geschrieben von LovesuckZ
nana.
Das erste DX9 Game (wenn man es so nennen moechte) waere gunMetal. Dann kommt TR6 und irgendwann mal HL2.
Das die Spiele eigentlich keine DX9 Games sind, liegt dadran, dass man sie selbst mitner DX6 Karte zocken kann.
Naja ich denk mal da man TR oder Gumetal auch mit na DX7 karte zocken kann klar das es jetzt noch keine DX9 only spiele geben kann
StefanV
2003-09-14, 16:38:59
Original geschrieben von die elektrische eule
wer spielt bitteschön hl in d3d?
ist doch klar das die frameraten so mies sind und AA hier besser aussieht ...
vegleiche hl mit hl2.
:rofl:
Dir ist aber schon klar, daß HL auf einer OGL Engine basiert, während HL2 auf einer D3D Engine basiert??
bzw daß die UT Engine eine Multiapi Engine ist??
LovesuckZ
2003-09-14, 16:39:12
Original geschrieben von mapel110
aquanox2 nutzt auch dx9. kam wohl eindeutig vor tr6 raus :)
Stimmt. Vergessen. Man dann ist HL2 das, aeh, 4 DX9 Game...
Razor
2003-09-14, 16:39:20
Original geschrieben von mapel110
derzeit ist halt bekannt, dass die tombraider6 performance laut CT messungen nur um ca 6 % zugenommen hat.
und dann gibts halt noch die aquamark3 benches.
Und die AM2-Benches, bei denen man mit AA und AF zwischen 37% und 41% zulegen konnte...
Aber auch darauf gebe ich derzeit nix !
Razor
LovesuckZ
2003-09-14, 16:39:54
Original geschrieben von dildo4u
Naja ich denk mal da man TR oder Gumetal auch mit na DX7 karte zocken kann klar das es jetzt noch keine DX9 only spiele geben kann
HL2 ist auch kein DX9 only Game.
perforierer
2003-09-14, 16:40:24
Original geschrieben von dildo4u
naja mitleierweile sollte man doch mit bekommen haben das HL2 das erste DX9 game ist sonst würde es darum ja auch nicht so eine aufregung geben ;-)
Ich hatte seine Frage in Richtung Aquamark verstanden. Und die Shaderprobleme treten unter OpenGL ja laut JC auch auf.
StefanV
2003-09-14, 16:41:00
Original geschrieben von LovesuckZ
Stimmt. Vergessen. Man dann ist HL2 das, aeh, 4 DX9 Game...
Nur wieviele davon benutzen die PS2.0 zur Passreduktion?!
Die gelbe Eule
2003-09-14, 16:41:17
Original geschrieben von Stefan Payne
Tja, HL2 ist aber in meinen Augen ein 'echtes' DX9 Game, da die 2.0 Shader als Eye Candys genutzt werden und man mit 'ner DX7 Karte a la GF4 MX auf einige Effekte verzichten 'darf'.
aber auch nur in deinen augen ...
eye candys sind dreingaben aber nicht basis des spieles. da valve schon immer für alle programmiert hat, wird es wohl oder übel ein dx6 game sein mit optimierungen für dx7/8/9.
wie so viele andere spiel auch. es ist nicht vorraussetzung eine dx9 karte zu haben um es zu spielen, also ist es kein echtes dx9 spiel. so einfach kann man das erklären.
StefanV
2003-09-14, 16:41:50
Original geschrieben von LovesuckZ
HL2 ist auch kein DX9 only Game.
Nein, aber wenn du da diverse Shader deaktivierst, dann musst du auf Funktionen des Games verzichten...
Exxtreme
2003-09-14, 16:41:51
Original geschrieben von Razor
Dann 'erleuchte' uns doch mal mit Hintergrund...
http://www.3dcenter.org/artikel/cinefx/
Original geschrieben von Razor
Valva hat pp benutzt... und das auch mit einem nVidia-spezifischen HLSL-Compiler ?
Sie haben also als erstes einen noch nicht von M$ frei gegebenen Compiler benutzt ?
???
Schau mal ins Technologie-Forum. Thomas von www.tommti-systems.de hat einige Benchmarks des kommenden Aquamark veröffentlicht. Er hat auch das neue PS2_A-Profil benutzt. Gebracht hat das ganze 0,5%. :)
Ausserdem ist das neue SDK bereits RC0, sprich da ändert sich wohl nicht mehr. Einige Bugfixes hier und da.
Original geschrieben von Razor
Und klar, einen etsprechend optimierten Treiber haben sie auch nicht zugelassen...
Stimmt, sie haben wirklich alles getan, was in ihrer Macht stand !
"Bravo Valve !"
:D
Wer sagt denn, daß der Deto 51.75 optimiert ist? Nvidia? Ich bitte dich.
Die labern viel wenn der Tag lang ist. ;)
Original geschrieben von Razor
So sollte eine Menge mehr machen...
Aber...
Was solls.
Razor
Ob's was bringt, wird man in Kürze sehen. Ich glaube aber nicht, daß der neue Deto in HL2 mehr als 30% bringt.
Razor
2003-09-14, 16:43:09
Original geschrieben von perforierer
Ja, klar, ist problematisch. Andererseits: Wer wollte sich denn nicht an die M$ Konventionen beim Bau der eigenen Architektur halten? Das war doch wohl nVidia, oder seh ich das falsch?
Ja, sogar völlig falsch !
Nich DX9 ist optimiert, sonder der Compiler, der das Assembler-Format der Shader erzeugt. Dieser Compiler erzeugt nur Code, der auf den ATI-Zeilpfad ausgelegt ist. Und das damit eine Karte von nVidia nich sonderlich zurecht kommt, ist mehr als verständlich. Zumal wir mit dem 45.23 erst den allerersten Treiber haben, der den NV35 unterstützt (der 43.45 vorher unterstützte zumindest schon alle Chips vor NV35).
Und nVidia muss sich halt jetzt eine Möglichkeit 'überlegen', was man aus dieser Situation macht. Ist aber alles alter Kaffee und wahrlich keine neue Erkenntnis...
Razor
LovesuckZ
2003-09-14, 16:43:30
Original geschrieben von Stefan Payne
Nein, aber wenn du da diverse Shader deaktivierst, dann musst du auf Funktionen des Games verzichten...
Dann ist üblich, wenn die Karte nicht über die spezielle Hardware verfügt...
Die gelbe Eule
2003-09-14, 16:44:22
Original geschrieben von LovesuckZ
Dann ist üblich, wenn die Karte nicht über die spezielle Hardware verfügt...
da bekam ich ein =) gesicht beim dem post ...
StefanV
2003-09-14, 16:44:39
Original geschrieben von die elektrische eule
aber auch nur in deinen augen ...
eye candys sind dreingaben aber nicht basis des spieles. da valve schon immer für alle programmiert hat, wird es wohl oder übel ein dx6 game sein mit optimierungen für dx7/8/9.
wie so viele andere spiel auch. es ist nicht vorraussetzung eine dx9 karte zu haben um es zu spielen, also ist es kein echtes dx9 spiel. so einfach kann man das erklären.
1. hm, nee, nicht wirklich *anchatmitbekanntemerinner*
2. nö, HL2 ist ein DX9 Spiel mit Fallback bis DX7 (oder 6??)...
3. nein, aber es ist vorraussetzung, eine DX9 Karte zu haben, um alle Features bzw Effekte des Spieles sehen zu können!!
Razor
2003-09-14, 16:44:42
Original geschrieben von Stefan Payne
Schau mal in 'nen anderen Thread, da hat tb mit 'ner FX seinem Shadermark einmal mit 2.0 und 2.0_A compilieren lassen und hats mit der FX durchgebencht.
"Shadermark" ?
Das war doch das Teil, welches man aus einem ATI-Demo bastelete, oder ?
:lol:
Razor
P.S.: Nur falls Du es nicht blicken solltest... man kann auch Shader so schreiben, dass sie auch durch spezifische Optimierungen nicht mehr vernünftig auf 'ner anderen Harware, als die, für die sie geschrieben wurden, laufen...
dildo4u
2003-09-14, 16:45:19
Original geschrieben von LovesuckZ
HL2 ist auch kein DX9 only Game.
nein das meinte ich nicht ich meinte das es jetzt noch keine reinen DX9 games geben kann
Die gelbe Eule
2003-09-14, 16:46:21
Original geschrieben von Stefan Payne
3. nein, aber es ist vorraussetzung, eine DX9 Karte zu haben, um alle Features bzw Effekte des Spieles sehen zu können!!
ja wo die frameraten noch bein im schnitt augenunfreundlichen 60 fps liegen ... klasse karte, klasse spiel ...
Demirug
2003-09-14, 16:46:22
Original geschrieben von Exxtreme
Ausserdem ist das neue SDK bereits RC0, sprich da ändert sich wohl nicht mehr. Einige Bugfixes hier und da.
Nö, der Compiler soll ständig verbessert werden. Der im RC0 ist jetzt nur erstmals in der Lage alle Features der PS des NV30 zu nutzten. Bringt nur bei vielen aktuellen Shadern nichts weil diese überhaupt nicht den HLSL Code haben der aus diesen Features Vorteile ziehen kann.
Razor
2003-09-14, 16:47:44
Original geschrieben von Exxtreme
Von M$ gibt es keinerlei Konventionen zur HW. :)
DX9 ist nur ein API und keine HW-Bauanleitung.
Der Compiler des DX-SDK's hat keine Affinität zu ATI-Hardware ?
???
Oh mann...
Razor
perforierer
2003-09-14, 16:47:48
@Razor, Demirug, Exxtreme:
Äh, mein Posting wurde glaube ich dezent falsch verstanden. Natürlich hat M$ keine Konventionen bezüglich der hardware rausgegeben. Aber was bitte hat nVidia daran gehindert, die Architektur des 3x so auszulegen, dass die Architektur mit dem vom Compiler ausgegebenen Code zurecht kommt? ATI hat es ja auch geschafft?
Demirug
2003-09-14, 16:49:14
Original geschrieben von Stefan Payne
2. nö, HL2 ist ein DX9 Spiel mit Fallback bis DX7 (oder 6??)...
3. nein, aber es ist vorraussetzung, eine DX9 Karte zu haben, um alle Features bzw Effekte des Spieles sehen zu können!!
Solche Sprüche darfst du aber nicht bei einem Publischer bringen. Der setzt dich vor die Tür.
Exxtreme
2003-09-14, 16:53:59
Original geschrieben von Razor
Der Compiler des DX-SDK's hat keine Affinität zu ATI-Hardware ?
???
Oh mann...
Razor
Was hat das damit zu tun?
Die Spiele-Programmierer sind gar nicht angewiesen auf den M$-Compiler.
Und nochmal, DXx ist ein API (Application Programming Interface), sprich eine Schnittstelle. Der Shader-Compiler ist ein eigenständiges Produkt.
Die gelbe Eule
2003-09-14, 16:54:41
1. es ist vorraussetzung 18+ zu sein um das spiel in der original version zu spielen.
2. es ist vorraussetzung ziemlich viel geld zu haben, alle dx9 features im guten rahmen spielen zu können.
3. es ist vorraussetzung ein gutes system zu haben, das die graka nicht ausbremst.
na was denkt ihr wieviele Leute das sind, die genau auf das Profil passen?
es gibt mittlerweile über 4,6 mio wonids und alle werden wohl highend user sein ... ;D
edit:
hl2 wird von seinen mods leben und der community. da sollte man schauen wer was an system nutzt und wo da stärken und schwächen liegen. nur der single player wird nichts reißen.
Razor
2003-09-14, 16:55:16
Original geschrieben von Exxtreme
http://www.3dcenter.org/artikel/cinefx/
Kenn' ich... und ?
???
Original geschrieben von Exxtreme
Schau mal ins Technologie-Forum. Thomas von www.tommti-systems.de hat einige Benchmarks des kommenden Aquamark veröffentlicht. Er hat auch das neue PS2_A-Profil benutzt. Gebracht hat das ganze 0,5%. :)
"Shadermark" ?
Siehe oben...
Und übrigens noch mit den 45'ern...
Original geschrieben von Exxtreme
Ausserdem ist das neue SDK bereits RC0, sprich da ändert sich wohl nicht mehr. Einige Bugfixes hier und da.
Nochmal (frei nach Demirug): PS2a + Deto4x.xx = "Tonne"
Shadermark = ATI-Techdemo
Ergo: NIX Aussagewert !
:)
Original geschrieben von Exxtreme
Wer sagt denn, daß der Deto 51.75 optimiert ist? Nvidia? Ich bitte dich.
Die labern viel wenn der Tag lang ist.
Und Du hast hoffentlich nicht vergessen, was Valve in letzter Zeit abgelassen hat...
Original geschrieben von Exxtreme
Ob's was bringt, wird man in Kürze sehen. Ich glaube aber nicht, daß der neue Deto in HL2 mehr als 30% bringt.
Aufgrund welcher Basis ?
Ich weiß überhaupt nicht, was der neue Deto bringen wird...
Woher auch ?
Ich will den Bench und auch 'nen Deto in den Fingern.
Alles andere ist absoluter Dummfug !
Razor
Razor
2003-09-14, 16:56:34
Original geschrieben von Stefan Payne
2. nö, HL2 ist ein DX9 Spiel mit Fallback bis DX7 (oder 6??)...
Nö.
HL2 ist ein DX7-Game mit Fall-Back zu DX6 und "Eye candy" für DX8 und DX9 !
Razor
Die gelbe Eule
2003-09-14, 16:58:29
valve sollte erstmal steam in den griff bekommen, die platform wo man das game billiger beziehen können wird.
alleine damit stehen sie sehr unter zeitdruck.
Razor
2003-09-14, 17:00:36
Original geschrieben von perforierer
@Razor, Demirug, Exxtreme:
Äh, mein Posting wurde glaube ich dezent falsch verstanden. Natürlich hat M$ keine Konventionen bezüglich der hardware rausgegeben. Aber was bitte hat nVidia daran gehindert, die Architektur des 3x so auszulegen, dass die Architektur mit dem vom Compiler ausgegebenen Code zurecht kommt? ATI hat es ja auch geschafft?
Leider scheinst Du es falsch verstanden zu haben...
DX9 (=HLSL =Shader Hochsprache) sagt nur, was möglich ist und mit welchen Befehlen man arbeiten kann. Die Hardware kann aber nur Assembler-Code ausführen (= nix HLSL !). Ergo muss ein Compiler her, der Hardware-spezifischen Code erzeugt (=Assembler). Dieser erzeugt aber derzeit nur Code für ATI-Hardware... warum also sollte nVidia jetzt die interne Hardware-Architektur umstellen, nur weil ATI es schaffte den ersten Zeilpfad zu belegen (derer er derzeit zumindest 3 gibt !) ?
Razor
Demirug
2003-09-14, 17:00:50
Original geschrieben von perforierer
@Razor, Demirug, Exxtreme:
Äh, mein Posting wurde glaube ich dezent falsch verstanden. Natürlich hat M$ keine Konventionen bezüglich der hardware rausgegeben. Aber was bitte hat nVidia daran gehindert, die Architektur des 3x so auszulegen, dass die Architektur mit dem vom Compiler ausgegebenen Code zurecht kommt? ATI hat es ja auch geschafft?
Die Timeline.
Nv hat mit dem NV30 laut eigenen Angaben im 2Q 2001 angefangen. Die DX9 Beta 1 gab es Ende der 2Q 2002. Und wer glaubt das MS schon über 12 Monate vor einer ersten Beta im Detail weiss wie ein DX aussehen soll kennt MS schlecht. Die PS 2.X und 3.0 haben sie ja auch erst nachträglich noch reingeschoben und der Compiler wurde auch so um den Dreh rum vorgestellt.
Das ATI so gut mit den 2.0 Shadern harmoniert liegt daran das sie die technologisch schwächste DX9-Hardware haben und deswegen den Basis-level festlegen konnten.
nVidia hatte das Pech das ihere Idee mit den 3 Datenformante bei MS keine Gnade gefunden hat. Dummerweise passiert das ganze CineFX Konzept aber auf diesen 3 Datenformaten.
Razor
2003-09-14, 17:03:03
Original geschrieben von Exxtreme
Was hat das damit zu tun?
Ne Menge...
Original geschrieben von Exxtreme
Die Spiele-Programmierer sind gar nicht angewiesen auf den M$-Compiler.
Dann nenne mir bitte nur einen, der das bisher nicht getan hat !
Original geschrieben von Exxtreme
Und nochmal, DXx ist ein API (Application Programming Interface), sprich eine Schnittstelle. Der Shader-Compiler ist ein eigenständiges Produkt.
Die API ist NICHTS ohne das SDK.
Und der (ATI-)Compiler ist Bestandteil des SDK'S...
(und ein MUSS, wenn HLSL benutzt werden soll)
Stell Dich also bitte nicht blöd !
Razor
perforierer
2003-09-14, 17:07:24
@Razor: Doch, doch, das hab ich schon verstanden.
@Demirug: Ok, das ist nachvollziehbar.
Exxtreme
2003-09-14, 17:10:05
Original geschrieben von Razor
Dann nenne mir bitte nur einen, der das bisher nicht getan hat !
Spielt keine Rolle. Man ist auf den Compiler aus'm SDK nicht angewiesen. Der Compiler im SDK und das API selbst sind eigenständige Produkte ob's dir passt oder nicht.
Original geschrieben von Razor
Die API ist NICHTS ohne das SDK.
Und der (ATI-)Compiler ist Bestandteil des SDK'S...
(und ein MUSS, wenn HLSL benutzt werden soll)
Stell Dich also bitte nicht blöd !
Razor
Erstens ist das kein ATi-Compiler sondern ein MS-Compiler und dieser ist auch kein Muss wenn man HLSL nutzen will. Man kann auch den CG-Compiler nehmen... achso, ich vergaß, dieser taugt viel weniger als der MS-Compiler.
API und SDK sind komplett eigenständige Dinge.
Demirug
2003-09-14, 17:16:03
Original geschrieben von Exxtreme
Spielt keine Rolle. Man ist auf den Compiler aus'm SDK nicht angewiesen. Der Compiler im SDK und das API selbst sind eigenständige Produkte ob's dir passt oder nicht.
Nicht ganz.
Es gibt in der API noch D3DX und dort ist der Compiler die einzige Alternative für eine Shaderhochsprache.
Man muss aber D3DX nicht zwingend einsetzen soweit stimmt es dann schon.
Ich glaube Razor ist sauer dass er ne 5200 hat :grübel:
Die gelbe Eule
2003-09-14, 17:21:56
vielleicht braucht er nur ein anständiges bild auf dem monitor? =)
mapel110
2003-09-14, 17:38:48
Original geschrieben von thop
Ich glaube Razor ist sauer dass er ne 5200 hat :grübel:
er hat doch schon auf ne 5900er "aufgerüstet". *eg*
nggalai
2003-09-14, 17:57:45
Hola Razor,
Original geschrieben von Razor
Dann nenne mir bitte nur einen, der das bisher nicht getan hat !Massive--die PS2.0-Unterstützung für Aquanox2 (Patch) wurde meines Wissens nach ohne M$-Compiler gebastelt.
Und dieses Metal Solid Dingsda (oder wie's auch heissen mag) setzte AFAIK auf Cg, nicht auf den M$-Compiler.
93,
-Sascha.rb
Liszca
2003-09-14, 18:02:14
ich glaube nicht dass die valve programmierer nicht programmieren koennen, sondern dass nvidia einfach einen fehlwurf mit der nv3x gemacht hat, und wieder dachte das holen wir mit dem treiber wieder auf....
und dadurch würde der programmieraufwand fuer valve extrem steigen.
Eigentlich ist dies als wink mit dem zaunpfahl fuer nvidia zu verstehen!
LovesuckZ
2003-09-14, 18:03:11
Original geschrieben von Liszca
ich glaube nicht dass die valve programmierer nicht programmieren koennen, [...]
Nach den ergebnissen des Benches ist das nicht auszuschließen...
Liszca
2003-09-14, 18:03:57
Original geschrieben von LovesuckZ
Nach den ergebnissen des Benches ist das nicht auszuschließen...
habe den post nochmal editiert!
Thowe
2003-09-14, 18:04:21
Ach Kinders, wenn er schon flamen wollt, dann aber bitte Richtig. So macht das doch keinen Spass.
Solche Sprüche wie "GeForce FX, lol, die gewinnt höchstens bei der Paraolympiade". Sind zwar nicht schlecht, aber auch nicht wirklich gut.
Also probiere ich es noch einmal und zwar damit:
http://www.thowe.de/3dcenter/revol2.jpg
LovesuckZ
2003-09-14, 18:08:43
:rofl:
Die gelbe Eule
2003-09-14, 18:08:55
bringt das einer mal mit ati und fehldarstellungen in spielen? =)
;D ;D ;D
/edit
Thowe - Mann bist du kaputt :D Ich krieg mich nicht mehr ein. :D
Black-Scorpion
2003-09-14, 18:11:56
;D ;D ;D
Metzler
2003-09-14, 18:13:40
Original geschrieben von die elektrische eule
bringt das einer mal mit ati und fehldarstellungen in spielen? =)
*gähn*
nggalai
2003-09-14, 18:15:56
:rofl:
good one, Thowe. :D
93,
-Sascha.rb
Smoke Screen
2003-09-14, 18:20:25
WOW! Was für eine Aufregung! Ich denke mal wenn Valve
das Spiel verkaufen und damit Kasse machen wollen sollten
sie zusehen das es auf ner GfTi4200 bei 1024 Auflösung
optimal läuft. Ansonsten seh ich schwarz für den Profit.
Die Zahl der Fans die sich extra für HL ne neue Karte
der High-End Klasse holen dürfte doch insgesamt recht ge-
ring sein. Wie und warum das Spiel so bescheiden auf
NVidia performt dürfte bei Otto-Normal-User auch kaum die
Frage sein. Wenn er sieht das das Spiel nicht cool auf
seinem ein halbes Jahr alten Lidl-PC (z.B.) läuft ist das
Spiel eben scheiße. Punkt. So wars damals beim ersten
Unreal und auch bei Ultima 9 - mmmh,ja ich glaub es war
die 9. Beide Games verschimmelten damals in den Regalen.
Langfristig konnte Unreal zwar wieder Boden wettmachen,aber
nur als Bundlesoftware und Nice-Price.
Vielleicht sollte Valve den Release auch einfach auf
nächstes Jahr verschieben.....,aber ich glaube kaum das ATI
das mit sich machen läßt wo sie doch einige Millionen in
die Entwicklung von HL gepumpt haben.
mapel110
2003-09-14, 18:21:10
:...( die armen geforce user so zu verarschen ist echt nen hammer
aber ich glaube kaum das ATI
das mit sich machen läßt wo sie doch einige Millionen in
die Entwicklung von HL gepumpt haben.
Angeblich soll ATI 1 Million in die strategische Parnerschaft investiert haben, das ist wesenlich weniger als nVidia damals Electronic Arts bezahlt hat.
angeblich sinds 7mio die ati gezahlt hat...
Uh das ist nen ganzer Batzen. Ich habe bisher nur von 1Mio. gehört (aber nichts offizielles), hast du ma ne Quelle?
Asuka
2003-09-14, 18:29:01
Original geschrieben von Thowe
Ach Kinders, wenn er schon flamen wollt, dann aber bitte Richtig. So macht das doch keinen Spass.
Solche Sprüche wie "GeForce FX, lol, die gewinnt höchstens bei der Paraolympiade". Sind zwar nicht schlecht, aber auch nicht wirklich gut.
Also probiere ich es noch einmal und zwar damit:
<Timmy die Schildkröte> :lolaway: Wirklich gelungen :up:
Timmys Vater zufolge soll Timmy mit seinem neuen Kraftfutter "D 50" ja sogar fliegen können...
"Ist es ein Vogel? Ist es ein Flugzeug? Nein, es ist Timmy, die fliegende Schildkröte!" ;D
Demirug
2003-09-14, 18:36:15
Original geschrieben von nggalai
Hola Razor,
Massive--die PS2.0-Unterstützung für Aquanox2 (Patch) wurde meines Wissens nach ohne M$-Compiler gebastelt.
Sie sehen aber auch irgendwie automatisch zusammengebastelt aus. Entweder aus den DX7 Setups oder den den PS 1.1 da bin ich mir nicht ganz sicher. Der Generator der das macht arbeitet aber nach ATI-Regeln. Massive hatte wohl zu dem Zeitpunkt noch keine DX9 Hardware von nv.
perforierer
2003-09-14, 18:41:35
@SmokeScreen:
Wird auch auf ner GF4 gut laufen und ordentlich aussehen. Aber eben nicht so perfekt wie unter ner Radeon 9800.
http://www.aths.net/files/smilies/thowe.gif,
hast du das selbst gemacht? :kicher:
Thowe
2003-09-14, 18:49:11
Original geschrieben von aths
http://www.aths.net/files/smilies/thowe.gif,
hast du das selbst gemacht? :kicher:
Hey, cooler Smilie ;) und Ja, habe ich.
PS: Man siehts an den Tippfehlern, was denn wohl ein Brunder ist.
Thop nein ne quelle hab ich nicht das hab ich hier bisher nur im Thread von 2-3 leuten gehört
Original geschrieben von Razor
Zwischen einem nonWHQL und einem WHQL liegt rein gar nichts... ausser eine ".CAT"-Datei, die dem Treiber ein digitales Zertifikat gibt und meist 1-2 Wochen bei Microsoft braucht.
Razor
Das ändert sich in Zukunft. Dann haben alle IHV's nix mehr zu lachen. Warum das ganze? Nvidia !!
Link :
http://www.beyond3d.com/forum/viewtopic.php?t=7873
But in some ways it has had good consquences, quality should go up as loopholes are closed.
Future DX specs should now be much tigher.
WHQL testing to require pixel comparision tests.
Hardware must produce almost exact rendering of the same frame as the REFRAST
Self certification of WHQL, to make sure that WHQL driver will have bug fixes applied quicker without bypassing the quality checks.
Reviewers should be less quick to use 'special' drivers provided by the IHVs or test only under 'special' conditions.
noch ein netter Quote :
Obviously ATI weren't that upset to see there hardware coming ahead so well, but what wasn't prehaps so expected was how glad everybody else was that HL2 results matched the results most of us had already seen ourselves.
Hört sich so an, als ob fast alle Entwickler massive Probleme mit der NV3x-Hardware haben. Und viele froh darüber sind, das Valve das öffentlich gemacht hat, damit sie nicht den scharzen Peter für die lausige Performance ihres Spiels auf den FX-Karten bekommen.
Wie schon früher: ich wünsche allen FX-Kartenbesitzern eine Eselsgeduld, gute Nerven und einen Hang zu veralteten Spielen.
[dzp]Viper
2003-09-14, 19:16:42
Original geschrieben von Thowe
Ach Kinders, wenn er schon flamen wollt, dann aber bitte Richtig. So macht das doch keinen Spass.
Solche Sprüche wie "GeForce FX, lol, die gewinnt höchstens bei der Paraolympiade". Sind zwar nicht schlecht, aber auch nicht wirklich gut.
Also probiere ich es noch einmal und zwar damit:
http://www.thowe.de/3dcenter/revol2.jpg
gogogo Thowe ... wir wollen mehr =)
LovesuckZ
2003-09-14, 19:24:36
Mal nen Statement von ATi zu den Doom3 Benches:
Anyways.... Doom III.
Interesting little game, even more interesting that reviews would appear on an unreleased game. All I can say at this point is that we have not had that particular benchmark before the review sites started using it. What a shame that people are getting to look at something that we havent had a chance to play around with a bit.
Anyways please dont pay any attention to that benchmark. It is on an unfinished product that we have not looked at yet. Wait till it really comes out and we will be ready to rock.
Komisch, wie schnell sich Meinungen aendern koennen...
http://www.beyond3d.com/forum/viewtopic.php?p=166153#166153
StefanV
2003-09-14, 19:35:17
Original geschrieben von die elektrische eule
1. es ist vorraussetzung 18+ zu sein um das spiel in der original version zu spielen.
2. es ist vorraussetzung ziemlich viel geld zu haben, alle dx9 features im guten rahmen spielen zu können.
3. es ist vorraussetzung ein gutes system zu haben, das die graka nicht ausbremst.
na was denkt ihr wieviele Leute das sind, die genau auf das Profil passen?
es gibt mittlerweile über 4,6 mio wonids und alle werden wohl highend user sein ... ;D
edit:
hl2 wird von seinen mods leben und der community. da sollte man schauen wer was an system nutzt und wo da stärken und schwächen liegen. nur der single player wird nichts reißen.
1. hm, ich bin '18+', was wohl irgendwie jeder irgendwann werden wird, wenn er nicht gerad von 'ner Brücke springt oder ähnlichem...
2. nö, wozu braucht man Geld??
Ich hab nie Geld :naughty:
3. hm, lass mich mal lügen...
XP2500+ -> ~90€
Brett dafür -> ~60€
GraKa -> dafür sollte 'ne 9600 langen, eigentlich...
Eigentlich sollte so ein 'High End' System im Budget der meisten sein...
Nagut, wenn man sich lieber seinen Rechner bei ALDI kauft, dann schauts natürlich anders aus, obwohl man HL2 mit dem letzten ALDI Rechner sicher excellent spielen kann...
4. in D mehr als in USA...
6. wenn dir HL2 zu lahm sein sollte, dann steht es dir frei die Details runterzuschrauben *eg*
StefanV
2003-09-14, 19:36:18
Original geschrieben von Demirug
Solche Sprüche darfst du aber nicht bei einem Publischer bringen. Der setzt dich vor die Tür.
I know...
Allerdings denke ich mich nicht, daß der mich 'nur' vor die Tür setzen würde, der würd mich hochkannt, in einem sehr großen Bogen rausschmeißen...
Dem darf man 'Nur' erzählen, daß das Projekt auf 99% aller Zielhardware zufriedenstellend laufen wird...
(del676)
2003-09-14, 19:38:59
mal so ne frage
ein paar 3dc leute ham ja die det50 ... ähem wann endet das NDA? heute um 0:00 oder :D
Liszca
2003-09-14, 19:45:08
Original geschrieben von die elektrische eule
bringt das einer mal mit ati und fehldarstellungen in spielen? =)
der war gut, selten so gelacht, oder hast du das anders gemeint als ich?
MadManniMan
2003-09-14, 19:49:31
Ja der Wahnsinn hier, der Raihne noch dazu!
:o
Da schaut man mal anderthalb Tage nicht in den Thread und schon muß man 3 Stunden lesen, um 30 Seiten Hirnrissige Wiederholungen und verkrampftes Verharren auf gewissen Meinungen zu erfahren.
Naja, wenigstens hat sich Thowe mal wieder innem (zumindest partiellen) Graka-Thread gar lustigerweis geäußert...
Ohjee! :)
Aber zum Thema - Sachen, die noch nicht sehr beachtet worden sind:
Der DX8/8.1/9-Wasservergleich gehört imho ausführlicher betrachtet.
DX8.1 bietet im Vergleich zum reinen 8er - wenn ich das Richtig sehe - eine mit der von DX9 identische Refraktionsstruktur.
DX9 bietet zudem eine wassertiefenabhängige Beleuchtungsstärke, sowie scheinbar eine minimal farbenprächtigere Darstellung - ich meine eine leichte Graumelierung bei den 8ern festzustellen.
Was meint ihr?
StefanV
2003-09-14, 19:51:05
Original geschrieben von LovesuckZ
Mal nen Statement von ATi zu den Doom3 Benches:
Anyways.... Doom III.
Interesting little game, even more interesting that reviews would appear on an unreleased game. All I can say at this point is that we have not had that particular benchmark before the review sites started using it. What a shame that people are getting to look at something that we havent had a chance to play around with a bit.
Anyways please dont pay any attention to that benchmark. It is on an unfinished product that we have not looked at yet. Wait till it really comes out and we will be ready to rock.
Komisch, wie schnell sich Meinungen aendern koennen...
http://www.beyond3d.com/forum/viewtopic.php?p=166153#166153
Ja und??
Er sagt doch nur:
'schenkt dem Bench bitte nicht zuviel beachtung, da es ein unfertiges Produkt ist, welches wir uns noch nicht angesehen haben. Wartet bitte, bis es wirklich kommt und wir werden bereit sein/bzw schnell sein'.*
Ich versteh nicht, was an DIESER Aussage schlimm sein soll?!
LovesuckZ
2003-09-14, 19:54:21
Laesst du den ersten teil absichtlich weg?
Metzler
2003-09-14, 19:58:15
@Lovesuckz : Meiner Meinung nach sind die Situationen wirklich etwas unterschiedlich... Das eine Spiel steht kurz vorm Release, das andere ist noch über ein Jahr davon entfernt (außerdem : Waren das nicht die Benches auf der geleakten E3 - Pre-Alpha Fassung von 2002 ?). Da finde ich es nur legitim zu sagen, dass man dem nicht allzuviel Beachtung schenken sollte.
LovesuckZ
2003-09-14, 20:05:51
Original geschrieben von Metzler
@Lovesuckz : Meiner Meinung nach sind die Situationen wirklich etwas unterschiedlich... Das eine Spiel steht kurz vorm Release, das andere ist noch über ein Jahr davon entfernt (außerdem : Waren das nicht die Benches auf der geleakten E3 - Pre-Alpha Fassung von 2002 ?). Da finde ich es nur legitim zu sagen, dass man dem nicht allzuviel Beachtung schenken sollte.
Woher solle ich wissen, dass HL2 kurz vorm Relase stehe? Gucke ich mir die Benches an, dann sieht die Engine noch ein bisschen buggy aus. Wir werden's ja ende dieser Woche wissen.
Warum nun die Doom3 benches eine andere Situation seien, ist auch komisch: Genau wie HL2, war das Spiel noch nicht draußen. Die Benches wurden auf einer aktuellen Build der Engine gemacht. ATi hat sich gegen solche Previews ausgesprochen, doch das selbe Spielchen machen sie mit HL2? Komische Moral...
Godlike
2003-09-14, 20:07:29
Original geschrieben von LovesuckZ
ATi hat sich gegen solche Previews ausgesprochen, doch das selbe Spielchen machen sie mit HL2? Komische Moral...
Du musst aber selber zugeben, dass NVidia net abgeneigt über die Doom3 Benches war, und gleich mit Hardware zur stelle war, aber sich dann über HL2 "aufregen", da der Detonator 5x net genommen wurde, obwohl das keine Page darf...
LovesuckZ
2003-09-14, 20:09:28
Original geschrieben von Godlike
Du musst aber selber zugeben, dass NVidia net abgeneigt über die Doom3 Benches war, und gleich mit Hardware zur stelle war, aber sich dann über HL2 "aufregen", da der Detonator 5x net genommen wurde, obwohl das keine Page darf...
HardOCP's Nvidia PC ist beim Flug verloren gegangen... ;D
Nvidia hat den Testern aber nicht vorgeschrieben, welchen Treiber sie verwenden dürfen. Der CAT3.4 hatte diese FPS Limitierung. Stelle sich nur mal vor, Nvidia haette gesagt, man solle nur den neusten offiziellen nehmen.
Naja, anscheined muss Nvidia noch einiges von Valve lernen, wie man seinen Konkurenten schlecht darstehen laesst.
Naja, immerhin weiss NVIDIA ja schon wie man sich selber schlecht dastehen lässt, das ist doch auch schonmal was ;)
Godlike
2003-09-14, 20:18:04
Original geschrieben von LovesuckZ
HardOCP's Nvidia PC ist beim Flug verloren gegangen... ;D
Nvidia hat den Testern aber nicht vorgeschrieben, welchen Treiber sie verwenden dürfen. Der CAT3.4 hatte diese FPS Limitierung. Stelle sich nur mal vor, Nvidia haette gesagt, man solle nur den neusten offiziellen nehmen.
Naja, anscheined muss Nvidia noch einiges von Valve lernen, wie man seinen Konkurenten schlecht darstehen laesst.
Toll, Nvidia verbietet aber, vor morgen einen Benchmark vom Detonator 5x zu posten...
I würd mi als Page sicher net mit Nvidia anlegen, und ein paar tage vorher benchmarks mitn detonator 50 zu veröffentlichen.
Inzwischen kennt ja die Aktionen von NVidia wenn ihnen eine Firma oder Seite nicht gefällt..
LovesuckZ
2003-09-14, 20:19:43
Original geschrieben von Godlike
Toll, Nvidia verbietet aber, vor morgen einen Benchmark vom Detonator 5x zu posten...
I würd mi als Page sicher net mit Nvidia anlegen, und ein paar tage vorher benchmarks mitn detonator 50 zu veröffentlichen.
Inzwischen kennt ja die Aktionen von NVidia wenn ihnen eine Firma oder Seite nicht gefällt..
Die Seiten, die HL2 Benches hatten, waren alle auf der Versammlung von Valve/ATi oder so. Da Nvidia wahrscheinlich Valve erlaubt hatte, den 51.75 zu verwenden, haetten die Seiten ihn benutzt.
Godlike
2003-09-14, 20:21:18
Original geschrieben von LovesuckZ
Die Seiten, die HL2 Benches hatten, waren alle auf der Versammlung von Valve/ATi oder so. Da Nvidia wahrscheinlich Valve erlaubt hatte, den 51.75 zu verwenden, haetten die Seiten ihn benutzt.
Spekulation, nix anderes.
Aber i fang mi jetzt net zum streiten mit dir an.
Du glaubst, dass so war, i net... Egal, wir können ja beide unsre meinung haben
LovesuckZ
2003-09-14, 20:21:49
Original geschrieben von Godlike
Spekulation, nix anderes.
Was davon?
Godlike
2003-09-14, 20:24:30
Original geschrieben von LovesuckZ
Was davon?
--------------------------------------------------------------------------------
Da Nvidia wahrscheinlich Valve erlaubt hatte, den 51.75 zu verwenden, haetten die Seiten ihn benutzt.
--------------------------------------------------------------------------------
Metzler
2003-09-14, 20:25:59
Original geschrieben von LovesuckZ
Woher solle ich wissen, dass HL2 kurz vorm Relase stehe? Gucke ich mir die Benches an, dann sieht die Engine noch ein bisschen buggy aus. Wir werden's ja ende dieser Woche wissen.
Warum nun die Doom3 benches eine andere Situation seien, ist auch komisch: Genau wie HL2, war das Spiel noch nicht draußen. Die Benches wurden auf einer aktuellen Build der Engine gemacht. ATi hat sich gegen solche Previews ausgesprochen, doch das selbe Spielchen machen sie mit HL2? Komische Moral...
Wenn man davon ausgeht, dass Half Life 2 kurz vor dem Release steht... Offiziell ist ja immer noch der 30.9 als Release Tag angegeben. Ergo noch gute 2 Wochen.
Zwischen Veröffentlichung der Doom3 Benches und dem Release von Doom3 liegt ein gutes Jahr.
Ergo wird der Code noch etwas weiter von der Fertigstellung
entfernt sein als das bei Half Life 2 der Fall ist.
Inwiefern bitte sieht HL2 buggy aus ?
Zumal : Ich dachte, die D3 Benches sind auf der geleakten D3 Alpha durchgeführt worden, die auf der E3 2002 gezeigt wurden ?
Das ist keine komische Moral. Es sind einfach zwei unterschiedliche Situationen meiner Meinung nach. Wäre D3 ähnlich kurz vor dem offiziellen Release und hätte ATI in der Situation so eine Aussage getroffen, hätte ich auch gesagt : Selbst Schuld...
P.S.: Ich habe übrigens noch nirgendwo von NVidia gelesen, dass die HL2 nicht zu Gesicht bekommen haben.
mapel110
2003-09-14, 20:45:06
Original geschrieben von Metzler
Zumal : Ich dachte, die D3 Benches sind auf der geleakten D3 Alpha durchgeführt worden, die auf der E3 2002 gezeigt wurden ?
sind sie nicht. es war eine spezielle "nvidia-preview-version" basierend auf dem damaligen aktuellen code der engine.
Demirug
2003-09-14, 20:50:26
Original geschrieben von mapel110
sind sie nicht. es war eine spezielle "nvidia-preview-version" basierend auf dem damaligen aktuellen code der engine.
nicht ganz.
Die nv-Demo hat JC ja nicht gefallen und er hat kurz vor dem Test noch eine andere angeschlept. :D
mapel110
2003-09-14, 20:56:30
Original geschrieben von Demirug
nicht ganz.
Die nv-Demo hat JC ja nicht gefallen und er hat kurz vor dem Test noch eine andere angeschlept. :D
angeschleppt ;)
hm, also ne andere demo recorded, nicht ne andere engine built genommen, gelle?!
Demirug
2003-09-14, 20:58:43
Original geschrieben von mapel110
angeschleppt ;)
hm, also ne andere demo recorded, nicht ne andere engine built genommen, gelle?!
Ja aber wie JC ja so schön gesagt hat bestimmt der Kontent bei D3 sehr stark ob nVidia oder ATI vorne liegt und zumindestens war keine Rail-Cheats möglich.
MadManniMan
2003-09-14, 21:27:10
Original geschrieben von Demirug
Ja aber wie JC ja so schön gesagt hat bestimmt der Kontent bei D3 sehr stark ob nVidia oder ATI vorne liegt und zumindestens war keine Rail-Cheats möglich.
Was fürn Cheat? Spielst du auf evtl. Rail-per-Console-Modden in Q3A an?
Naja - die Diskussion DOOM3 vs. HL2 Benches hat hier im Moment auf jeden Fall nix verloren, da es Leute gibt, die sich gern dumm stellen, um besser streiten zu können. Macht ja mehr Spaß, gelle?
...ach was solls, zumindest einen Gedanken will auch ich dazu los werden: id hatte nach dem Leak noch ein Hühnchen zu rupfen ;) ...das ist so ziemlich die einzige "Verschwörungs"-Theorie, der ich außerhalb der Politik glauben schenken möchte.
MadManniMan
2003-09-14, 21:29:49
Ah, da fällt mir grad noch was von Anands Artikel ein: da behauptet er doch guten Gewissens, daß man bei einer GPU als Flaschenhals und damit überschüssiger Bandbreite eben solche Bandwidth-fressende Features wie anisotropen Filter bis zum Ekseß nutzen sollte, könnte, sonstwas...
:|
Demirug
2003-09-14, 21:38:41
MadManniMan, ein Rail-Cheat ist ein Cheat der darauf aufbaut das man genau weiss wie sich die Kamera durch die Szene bewegen wird.
MadManniMan
2003-09-14, 22:35:47
Original geschrieben von Demirug
MadManniMan, ein Rail-Cheat ist ein Cheat der darauf aufbaut das man genau weiss wie sich die Kamera durch die Szene bewegen wird.
:idea:
Wieder was gelernt, danke!
...meint ihr... - Val..? Naja, zumindest würden das manche gerne denken.
CrazyIvan
2003-09-14, 22:37:32
Mische mich auch mal ein...
Weiß ja nich, ob das schonmal aufgetan wurde - habe nicht ALLE 47 Seiten gelesen, aber was hier im Moment passiert, ist etwas sehr bemerkenswertes.
nVidia ist im Moment dabei, seinen Status als Trend - Setter zu verlieren.
In den letzten Jahren haben sie quasi vorgeschrieben, wie eine GPU designt werden muss. Erst Texturen bis 2048 x 2048 und 32 bit Farbtiefe, dann T&L. Das hat 3dfx aus dem Markt gekickt.
Nun hat ATI in den letzten Monaten/Jahren einige Erfolge erzielt.
Mit PS 2.0 sind nun die Ansätze der beiden Kontrahenten - wie soll ich sagen - divergiert *ggg*
Im Technologie Forum wurde dies ja schon durchexerziert.
Die Industrie hätte sich ja auch auf die Architektur nVidias einstellen können - aus irgendeinem Grund hat sie dies nicht getan. Das scheint an dem steigenden Marktanteil zu liegen.
Jedenfalls hat ATI in HL2 DIE Möglichkeit gesehen, das gesamte Gefüge zu kippen. Sie lassen sich den Support an Valve nicht umsonst geschätzte $ 7 Mio. kosten.
Das Problem, das ich bei nVidia derzeit sehe, ist, dass sie sich, ähnlich wie 3dfx damals, dagegen sträuben.
Werdn sie ihren Weg fortführen, der ihnen einen schweren Stand während der Zeit von PS 2.0 voraussagt? Denn für PS 3.0 haben sie wie hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=73365) nachzulesen ist ja die besseren Vorraussetzungen. Das kann aber für nVidia existenzbedrohend werden - als Beispiel gilt hierbei wieder 3dfx.
Oder werden sie zähneknirschend anerkennen, dass ATI derzeit der technologische Trendsetter ist und sich auf den von ihnen bestimmten Weg begeben.
Egal wie nVidia sich entscheidet - IMHO sind sie derzeit in einer No - Win Situation.
Hätte man Valve vielleicht 10 Mios bieten sollen? *GGG*
hofmetzger
2003-09-14, 22:48:50
Original geschrieben von CrazyIvan
Mische mich auch mal ein...
Weiß ja nich, ob das schonmal aufgetan wurde - habe nicht ALLE 47 Seiten gelesen, aber was hier im Moment passiert, ist etwas sehr bemerkenswertes.
nVidia ist im Moment dabei, seinen Status als Trend - Setter zu verlieren.
In den letzten Jahren haben sie quasi vorgeschrieben, wie eine GPU designt werden muss. Erst Texturen bis 2048 x 2048 und 32 bit Farbtiefe, dann T&L. Das hat 3dfx aus dem Markt gekickt.
Nun hat ATI in den letzten Monaten/Jahren einige Erfolge erzielt.
Mit PS 2.0 sind nun die Ansätze der beiden Kontrahenten - wie soll ich sagen - divergiert *ggg*
Im Technologie Forum wurde dies ja schon durchexerziert.
Die Industrie hätte sich ja auch auf die Architektur nVidias einstellen können - aus irgendeinem Grund hat sie dies nicht getan. Das scheint an dem steigenden Marktanteil zu liegen.
Jedenfalls hat ATI in HL2 DIE Möglichkeit gesehen, das gesamte Gefüge zu kippen. Sie lassen sich den Support an Valve nicht umsonst geschätzte $ 7 Mio. kosten.
Das Problem, das ich bei nVidia derzeit sehe, ist, dass sie sich, ähnlich wie 3dfx damals, dagegen sträuben.
Werdn sie ihren Weg fortführen, der ihnen einen schweren Stand während der Zeit von PS 2.0 voraussagt? Denn für PS 3.0 haben sie wie hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=73365) nachzulesen ist ja die besseren Vorraussetzungen. Das kann aber für nVidia existenzbedrohend werden - als Beispiel gilt hierbei wieder 3dfx.
Oder werden sie zähneknirschend anerkennen, dass ATI derzeit der technologische Trendsetter ist und sich auf den von ihnen bestimmten Weg begeben.
Egal wie nVidia sich entscheidet - IMHO sind sie derzeit in einer No - Win Situation.
Hätte man Valve vielleicht 10 Mios bieten sollen? *GGG*
das ist ein sehr schöner post, an diesen aspekt hab ich jedenfalls noch nicht so gedacht.
dies ist kein flame:
Kann es sein, dass nVidia als Firma etwas dickköpfig ist, was das adaptieren von marktentwicklungen angeht? zB.: wie lange sträuben sie sich schon ihr AA weiterzuentwickeln...? solange man erfolg hat, ist dieses Verhalten ja auch kein Problem, letztendlich war es (u.a.) aber auch solche Sturheit die 3dfx zugrunde gehen lies (verzicht auf 32bit oder t&l, als diese in mode kamen).
Ich denke nvidia sollte möglichst schnell versuchen zu aktzeptieren, dass sich die technik etwas anders als geplant entwickelt, und diese runde an ati geben. Vielleicht siehts mit ps3.0 ja wieder anders aus...
sich um Grossschreibung bemühend,
hofMetzger
Gast2
2003-09-14, 23:00:33
Meiner Meinung nach ist die Spekulation über die PS 3.0 nicht sinnvoll. Hier könnte man auch die Spekulationen zur XBox2 anführen.
Microsoft wählt wahrscheinlich (nichts ist 100%ig sicher) die R500 für die XBox2, welche angeblich Directx10 unterstützen soll. Das könnte bedeuten, dass zukünftige ATI-Chips eher den Vorstellungen von Microsoft entsprechen, PS 3.0 inbegriffen. Dies ändert natürlich nichts an der Tatsache, dass derzeitige FX-Karten besser für PS 3.0 ausgelegt sind als ATI-Karten. Für zukünftige Karten läßt sich aber keine Aussage treffen. Und es ist auch eher unwahrscheinlich, dass jetzige Grafikkarten Spiele mit PS 3.0 Support überhaupt flüssig darstellen können.
In der Diskussion also lieber auf PS 2.0 oder tiefer beschränken.
Original geschrieben von hofmetzger
das ist ein sehr schöner post, an diesen aspekt hab ich jedenfalls noch nicht so gedacht.
dies ist kein flame:
Kann es sein, dass nVidia als Firma etwas dickköpfig ist, was das adaptieren von marktentwicklungen angeht? zB.: wie lange sträuben sie sich schon ihr AA weiterzuentwickeln...? solange man erfolg hat, ist dieses Verhalten ja auch kein Problem, letztendlich war es (u.a.) aber auch solche Sturheit die 3dfx zugrunde gehen lies (verzicht auf 32bit oder t&l, als diese in mode kamen).
Ich denke nvidia sollte möglichst schnell versuchen zu aktzeptieren, dass sich die technik etwas anders als geplant entwickelt, und diese runde an ati geben. Vielleicht siehts mit ps3.0 ja wieder anders aus...
sich um Grossschreibung bemühend,
hofMetzger
Och, dass Marktführer durchaus Technoligiebremsen sind, ist nichts neues. Da denke ich z.B. damals an die GF3/GF4-Zeiten. Die Radeon 8500 beherrscht schon PS1.4, das kann noch nichtmal ne GF4 (den Sinn von PS1.4 jetzt mal völlig unbeachtet gelassen). Die GF3 hatte es nicht so ganz leicht gegen die Radeon 8500, also schnell die GF3 überarbeitet und etwas an der Taktschraube bedreht (und vielleicht noch an den Treibern :D) und die Sache war geritzt.
NV ist faul, arrogant und damit leichtsinnig geworden. Die wurden von ATI diesmal regelrecht überrannt. Vielleicht lernen die ja mal was draus.
Exxtreme
2003-09-14, 23:25:15
Mal wieder was zur Entspannung:
http://www.gamers-ammo.com/fun/nvhl2.jpg
nggalai
2003-09-14, 23:28:59
Der hier gefällt mir besser. :D
http://members.iinet.net.au/~jetha/misc/5900.jpg
93,
-Sascha.rb
(del676)
2003-09-14, 23:30:37
so - bald is 0:00 - ich will benches sehn
oder sonst machen wir nen eigenen thread
Also die Vergleiche zwischen 3DFX und NVIDIA hinken doch ganz gewaltig...die DX9 Karten, also die High-end Karten der Hersteller sind ja nun nicht due Haupteinnamequelle für NVIDIA...und was so an OEM Verträgen läuft, da spielt DX9 Fähigkeit nun gar keine Rolle...
Nicht immer alles so übertreiben, es geht um die Performace Krone, nicht um Bestehen oder Untergehen...
mapel110
2003-09-14, 23:46:43
Original geschrieben von Gast
.und was so an OEM Verträgen läuft, da spielt DX9 Fähigkeit nun gar keine Rolle...
hehe, wenn das richthofen liest ;D
Ich meine damit nur die wirkliche Leistung...das DX9 unterstützt wird ist schon wichtig um "DX9-Fähig" draufzuschreiben...
Immer das unprovozierte Parhelia Bashing hier :cryl:
CrazyIvan
2003-09-14, 23:53:20
Ich rede ja hier auch nicht von Bestehen / Untergehen sondern von Wirtschaftspsychologie.
Es kann ja wohl keiner bestreiten, dass dies eine Zäsur darstellt.
Bisher war ATI der Mitstreiter, der vielleicht mal so 5% mehr Performance hatte.
Aber wenn HL2 nur halb an die Verkäufe von HL1 rankommt, dann werden sich Millionen Gamer der Tatsache bewusst, dass sie mit nVidia (derzeit) aufs falsche Pferd gesetzt haben. Und da wird auch der OEM - Markt keine Ausnahme machen.
Denn diesen bestimmt immer der Hersteller, der sich besser vermarkten lässt. Oder hat ATI etwa Apple als OEM verloren, weil nVidia die bessere 2D Qualität hat? *GGG*
HL2 ist da ein gutes Argument.
Ich denke, für ATI ist es DIE Chance, den Marktanteil ggüber nVidia auszugleichen.
BTW
Nicht ganz ernst gemeint: Bei 3dfx hat das damals auch keiner gedacht, als Glide noch das MUST HAVE war.
MadManniMan
2003-09-14, 23:54:08
Du hast schon recht, daß nV nun wirklich nicht in der Situation von 3Dfx ist, auch wenn minimale Parallelen zu erkennen - oder zu konstruieren ;) - sein mögen. Aber du verkennst da etwas...
Original geschrieben von Gast
...und was so an OEM Verträgen läuft, da spielt DX9 Fähigkeit nun gar keine Rolle...
..., denn rate mal, was die großen OEM-Deals von nV im Moment ausmacht. Na? Richtig, der Ultra-Lowcost FX5200.
Zudem werden OEM-Deals in Zeiten, in denen man kaum noch krassere Blenderfeatures in die Werbung bringen kann als der Konkurrent - weil eben beide auf sehr ähnlichem Techlevel sind - auch davon abhängig, was im Mainstream an Verkäufen abgeht und wer das absolute High-End-Geschoß besitzt.
Einfach auf den Lorbeeren ausruhen... :no: ...die Zeiten sind - zum Glück - vorbei!
MadManniMan
2003-09-14, 23:56:34
Original geschrieben von CrazyIvan
Oder hat ATI etwa Apple als OEM verloren, weil nVidia die bessere 2D Qualität hat? *GGG*
Bin ich jetzt zu doof, das "*GGG*" richtig zu deuten, oder hab ich da was verpaßt? Ich dachte, der G5 kommt entweder mit 9800 Pro oder 5200 Ultra?
"der Ultra-Lowcost FX5200."
jaja, da steht DX9 Fähig drauf und bla bla, aber wirklich leisten tut die Karte nichts, und eben das meine ich...jeder ist mit ner GF4Ti besser bedient als mit dem Müll, aber die wirkliche Leistung ist nicht immer wichtiger als Vollmundige Versprechungen...
CrazyIvan
2003-09-15, 00:06:26
@MAdManniMan
Nein, bist Du nicht. Und sorry für die Verwirrung. Meinte damit die selige Zeit des Rage 128 Pro in Apples. Der wurde vom GeForce 2MX abgelöst, weil sich halt nVidia damals besser vermarkten ließ. Obwohl die 2D Quali - auf die es in Designerbüros etc. - Apples Zielgruppe - mindestens genauso gut war.
Dass sich das beim G5 ob der Performance des R9800Pro wieder ändern würde, war abzusehen. Bestätigt ja auch meine und Deine Behauptung.
Daher:
Full ACK ;D
CrazyIvan
2003-09-15, 00:10:15
So, 00:10
Fallen heute irgendwelche NDAs??
Gibbet heute Benchs mitm 50er Deto?
Ich guck gleich mal bei Anand. Auf HardOCP gibbet nix neues.
Nach welcher Zeitzone richten sich eigentlich NDAs??
Merlin31
2003-09-15, 00:38:43
Benchmarkprogramme nicht nur Punkte für die FPS raus geben würde, sondern auch die Bildqualität mit Punkte bewerten könnte.
Dann wären alle , ich meine wirklich alle Firmen vorsichtiger wie sie ihre treiber weiterhin optimieren.
Warum ist das bisher nicht möglich.
Das wäre doch einfach die Lösung für all diese Probleme.
Iceman346
2003-09-15, 00:42:38
Original geschrieben von Merlin31
Benchmarkprogramme nicht nur Punkte für die FPS raus geben würde, sondern auch die Bildqualität mit Punkte bewerten könnte.
Dann wären alle , ich meine wirklich alle Firmen vorsichtiger wie sie ihre treiber weiterhin optimieren.
Warum ist das bisher nicht möglich.
Das wäre doch einfach die Lösung für all diese Probleme.
Das Problem ist, dass die Bildqualität sich sehr schwer in Punkten bewerten lässt. Ohne AA/AF geht es vielleicht noch (man könnte ein Refrast Bild "speichern" und dann die Differenzen zu gerenderten Bildern messen und die Karte die am meisten abweicht ist am schlechtesten ;)) aber sobald AA/AF hinzukommt ist die Bildqualität eine sehr subjektive Sache die sich definitiv nicht durch ein Programm bewerten lässt. Die beste Möglichkeit dabei ists eigentlich Screenshots zu machen und dem Leser dadurch die Möglichkeit zum Vergleich zu geben.
Metzler
2003-09-15, 00:46:00
Wie soll denn Bildqualität bewertet werden ? Also rein vom programmiertechnischen Ansatz her ? Willst du ein Programm, welches Screenshots vergleicht und sagt, welcher am nächsten am Original dran ist ? Dann ist hier das Problem, wie man das Original erstellt, da ja mit irgendeinem System gebencht werden muss, sprich auch irgendeinem Treiber, ergo ist das Original schon etwas "voreingenommen", bzw. Herstellerabhängig...
perforierer
2003-09-15, 01:39:10
Original geschrieben von Gast
...und was so an OEM Verträgen läuft, da spielt DX9 Fähigkeit nun gar keine Rolle...
Angesichts des am Himmel aufziehenden Windows Longhorn langsam schon. Auch wenn die Desktopfeatures sicher nur rudimentäre Funktionen brauchen werden, so erwartet M$ nach den News die ich gelesen habe schon DX9 für die ganzen Desktopanimationen...
(del676)
2003-09-15, 01:39:25
Original geschrieben von Metzler
Wie soll denn Bildqualität bewertet werden ? Also rein vom programmiertechnischen Ansatz her ? Willst du ein Programm, welches Screenshots vergleicht und sagt, welcher am nächsten am Original dran ist ? Dann ist hier das Problem, wie man das Original erstellt, da ja mit irgendeinem System gebencht werden muss, sprich auch irgendeinem Treiber, ergo ist das Original schon etwas "voreingenommen", bzw. Herstellerabhängig...
??
software render - wie in 3dquark
perforierer
2003-09-15, 01:40:58
Original geschrieben von CrazyIvan
So, 00:10
Fallen heute irgendwelche NDAs??
Gibbet heute Benchs mitm 50er Deto?
Jedenfalls sind es - zum Zeitpunkt meines Postings - nicht mehr ganz 10 Stunden bis zum Release des Aquamark 3 :)
http://www.aquamark3.com/
Metzler
2003-09-15, 01:42:49
Original geschrieben von Ulukay
??
software render - wie in 3dquark
Klärst du mich kurz auf ? Wo im 3D Mark ist ein Software Renderer ?
Omnicron
2003-09-15, 02:07:57
Original geschrieben von Metzler
Klärst du mich kurz auf ? Wo im 3D Mark ist ein Software Renderer ?
In 3DMark03 laufen doch die ganzen CPU Tests mit Softwarerenderer.
Metzler
2003-09-15, 02:13:03
Ahso. Tja... Ich müsste es doch fast mal installieren und ausprobieren ;)
Razor
2003-09-15, 05:04:25
Original geschrieben von Exxtreme
Spielt keine Rolle. Man ist auf den Compiler aus'm SDK nicht angewiesen. Der Compiler im SDK und das API selbst sind eigenständige Produkte ob's dir passt oder nicht.
Theorie und Praxis...
Deine Aussage hat keinen Praxis relevanten Wert, sorry.
Original geschrieben von Exxtreme
Erstens ist das kein ATi-Compiler sondern ein MS-Compiler und dieser ist auch kein Muss wenn man HLSL nutzen will. Man kann auch den CG-Compiler nehmen... achso, ich vergaß, dieser taugt viel weniger als der MS-Compiler.
API und SDK sind komplett eigenständige Dinge.
Nein.
Ohne das SDK würde die API kaum angenommen.
Aber wem erzähle ich das ?
???
Razor
Razor
2003-09-15, 05:39:42
Original geschrieben von Thowe
Ach Kinders, wenn er schon flamen wollt, dann aber bitte Richtig. So macht das doch keinen Spass.
Solche Sprüche wie "GeForce FX, lol, die gewinnt höchstens bei der Paraolympiade". Sind zwar nicht schlecht, aber auch nicht wirklich gut.
Also probiere ich es noch einmal und zwar damit:
Nicht schlecht Thowe...
Aber wohl ein bissel überzogen... selbst für Dich !
;-)
Wie wäre es damit ?
(ich gebe mir nicht soviel Mühe)
"Ommi hat mit Radi irgendwie keinen Blumentopf gewinnen können und kaufte sich Arti. Die haben mal ein bissel Wind in den Laden gebracht und Tammy aus den Boden gestampft. Tammy war richtig gut, nur fehlte ihm irgendwie das Futter. Also nahm Ommi Vita9beta und baute sich Futter. Nur war das eigentlich illegal und so wendete sich Ommi an Schrotti. Schrotti hatte mit Vater sowieso noch eine Rechnung offen. Hatte es doch gerade erst satte 400mio in den Sand gesetzt und musste auch jetzt noch kräftig an Vater abdrücken. Schrotti wollte Vater einen Denkzettel verpassen, was Ommi natürlich nur recht sein konnte. So wurde Vita9beta einfach zum offiziellen Vita9 gemacht und Vater stand im Regen.
Ommi hat sich auch wieder selbst an einem Tammy versucht, doch dieser ging so richtig daneben, so dass Tammy2 nicht mehr das Licht der Welt erblickte. Also musste Arti wieder ran, welche ja eigentlich schon an Tammy3 arbeiteten.
Vater musste sich nun dringend was einfallen lassen und hat Timmy kurzerhand zu Timmy2 umgebaut, was aber noch bei weitem nicht reichte, um auch zukünftig mit Tammy und seinen vielen Brüdern (die zwar nichts Neues brachten, aber immerhin schneller waren, um Timmy2 paroli zu bieten) mithalten zu können."
So, oder ähnlich.
Ähnlichkeiten mit realen Produkten und Firmen sind keinesfalls zufällig und voll beabsichtigt !
:D
Razor
Razor
2003-09-15, 05:47:24
Original geschrieben von Gast
Das ändert sich in Zukunft. Dann haben alle IHV's nix mehr zu lachen. Warum das ganze? Nvidia !!
Link :
http://www.beyond3d.com/forum/viewtopic.php?t=7873
But in some ways it has had good consquences, quality should go up as loopholes are closed.
Future DX specs should now be much tigher.
WHQL testing to require pixel comparision tests.
Hardware must produce almost exact rendering of the same frame as the REFRAST
Self certification of WHQL, to make sure that WHQL driver will have bug fixes applied quicker without bypassing the quality checks.
Reviewers should be less quick to use 'special' drivers provided by the IHVs or test only under 'special' conditions.
Und wieder hast Du da was falsch verstanden...
Es sei denn, Du meinst einen Nachfolger vom 51.75, der dann auch WHQL-zertifiziert ist.
Auch dürfte das für ATI schwer werden, da der REFRAST leider in fp32 rechnet und damit ATI generell das Nachsehen hat, denn daran können sie gar nicht heran kommen.
Original geschrieben von Gast
noch ein netter Quote :
Obviously ATI weren't that upset to see there hardware coming ahead so well, but what wasn't prehaps so expected was how glad everybody else was that HL2 results matched the results most of us had already seen ourselves.
Hört sich so an, als ob fast alle Entwickler massive Probleme mit der NV3x-Hardware haben. Und viele froh darüber sind, das Valve das öffentlich gemacht hat, damit sie nicht den scharzen Peter für die lausige Performance ihres Spiels auf den FX-Karten bekommen.
Hört sich eher so an, als ob viele Entwickler Probleme mit dem DX9-SDK haben und die Treiber bei nVidia (erster für die NV35ff, zweiter für die NV3x) noch Probleme mit der Performance unter DX9 haben.
Meinst Du nicht, dass man nVidia die gleiche Zeit einräumen sollte, wie auch ATI ?
Oder was war mit den Prä-Cat3.0 und mit dem Cat3.0 itself ?
Und was hat ATI noch gleich gemacht, um die miese AF-Performance los zu werden ?
Ah ja...
Sorry, aber ich werde noch ein wenig abwarten, bevor ich abschließendes Urteil fälle !
(einigen scheint es ja auf Fakten nicht weiter anzukommen ;-)
Razor
Razor
2003-09-15, 05:51:27
Original geschrieben von LovesuckZ
Mal nen Statement von ATi zu den Doom3 Benches:
Anyways.... Doom III.
Interesting little game, even more interesting that reviews would appear on an unreleased game. All I can say at this point is that we have not had that particular benchmark before the review sites started using it. What a shame that people are getting to look at something that we havent had a chance to play around with a bit.
Anyways please dont pay any attention to that benchmark. It is on an unfinished product that we have not looked at yet. Wait till it really comes out and we will be ready to rock.
Komisch, wie schnell sich Meinungen aendern koennen...
http://www.beyond3d.com/forum/viewtopic.php?p=166153#166153
DAS, Love, sollten sich hier mal einige hinter die Ohren schreiben !
Schon interessant, wie sich Geschichte wiederholt.
Und recht hübsch anzuseheen, wie es ATI mittlerer Weile drauf hat, gewisse Marketing-Dingelchen einfach zu kopieren. Bin mal gespannt, ob sie es irgendwann auch mal schaffen, was eigenes auf die Beine zu stellen.
Razor
Razor
2003-09-15, 05:58:27
Original geschrieben von Metzler
P.S.: Ich habe übrigens noch nirgendwo von NVidia gelesen, dass die HL2 nicht zu Gesicht bekommen haben.
Dann scheinst Du was verpaßt zu haben...
Erst einmal hat Valve mit nVidia zusammen gearbeitet, um den Det50 für HL2 'fit' zu machen. Auch hat nVidia schon offiziell verlautbaren lassen, dass sie den aktuellen Build nicht zu Gesicht bekommen haben und empört darüber sind, dass nun ein von HL2 völlig 'unbeleckter' Deto für Vergleiche heran gezogen wird.
Schon merkwürdig.
Aber einige hier scheint das ja nicht weiter zu stören !
:D
Razor
Razor
2003-09-15, 06:06:36
Original geschrieben von CrazyIvan
Nach welcher Zeitzone richten sich eigentlich NDAs??
Jedenfalls nicht nach "GMT+1" !
:D
Razor
[dzp]Viper
2003-09-15, 07:52:24
Original geschrieben von Razor
Dann scheinst Du was verpaßt zu haben...
Erst einmal hat Valve mit nVidia zusammen gearbeitet, um den Det50 für HL2 'fit' zu machen. Auch hat nVidia schon offiziell verlautbaren lassen, dass sie den aktuellen Build nicht zu Gesicht bekommen haben und empört darüber sind, dass nun ein von HL2 völlig 'unbeleckter' Deto für Vergleiche heran gezogen wird.
Schon merkwürdig.
Aber einige hier scheint das ja nicht weiter zu stören !
:D
Razor
vielleicht haben sich ATI und Valve ja zusammengetan und sind nach dem motto "Wie Du mir, so ich Dir" vorgegangen (um sich auf die D3 Benches zu beziehen)
Wenn ja, dann isses doch NV eigene Schuld - die haben ja schliesslich angefangen *bähhhh*
ne sorry - aber das is mir zu hirnrissig und zu kindisch :bonk:
perforierer
2003-09-15, 08:55:48
Original geschrieben von Razor
Und recht hübsch anzuseheen, wie es ATI mittlerer Weile drauf hat, gewisse Marketing-Dingelchen einfach zu kopieren. Bin mal gespannt, ob sie es irgendwann auch mal schaffen, was eigenes auf die Beine zu stellen.
Razor
Also Razor, ich kann Dir ja in vielem beipflichten,was Du sagst, Dein kritischer Ansatz ist ja sehr sypathisch. Aber andererseits kommen dann solche Statements, bei denen man das Gefühl hat, Du bist einfach beleidigt, dass Deine "Hausmarke" nicht so gut aussieht, wie in Deinem letzten Satz.
ATI macht momentan das, was alle Unternehmen machen, wenn sie ihre Produkte promoten, sie versuchen sie möglichst gut dastehen zu lassen.
Das hat nVidia auch nicht erfunden.
Allerdings hat nVidia im Grakasektor als erste Firma in der Vergangenhieit begonnen, mit haltlosen Versprechen ("Über 20% Performancesteigerung" bei unserem brandneuen Deto X) en aggressivesers Marketing zu betreiben, als üblich. Ob das etwas ist, worazf nVidia stolz sein sollte, da hab ich denn mal so meine Zweifel.
Exxtreme
2003-09-15, 08:59:05
Original geschrieben von Razor
Theorie und Praxis...
Deine Aussage hat keinen Praxis relevanten Wert, sorry.
Nein.
Ohne das SDK würde die API kaum angenommen.
Aber wem erzähle ich das ?
???
Razor
Nochmal, ein API sagt nicht aus wie ein Chip intern aufgebaut werden muss. Es stellt lediglich eine Verbindung zwischen einer Applikation und (oft über Treiber) Hardware oder anderer Software her.
Es ist keine Bauanleitung für Irgendwas.
Auch ein SDK ist keine Bauanleitung. Ein SDK ist eine Ansammlung von Tools, Beispielen und Programmierbibliotheken um es den Applikationsprogrammierern leichter zu machen.
Crushinator
2003-09-15, 11:09:40
Original geschrieben von Razor
(...)
Meinst Du nicht, dass man nVidia die gleiche Zeit einräumen sollte, wie auch ATI ? Oder was war mit den Prä-Cat3.0 und mit dem Cat3.0 itself ? Und was hat ATI noch gleich gemacht, um die miese AF-Performance los zu werden ?
Ah ja... Sorry, aber CAT 3.0 kam bereits anfang Dez. 2002 !!! Also 2,5 Monate nach dem das Produkt hierzulande käuflich war. Meinst nicht, daß nV bisher lange genug Zeit hatte?
(...)
Erst einmal hat Valve mit nVidia zusammen gearbeitet, um den Det50 für HL2 'fit' zu machen. Auch hat nVidia schon offiziell verlautbaren lassen, dass sie den aktuellen Build nicht zu Gesicht bekommen haben und empört darüber sind, dass nun ein von HL2 völlig 'unbeleckter' Deto für Vergleiche heran gezogen wird. (...) In der Tat könnte man sich darüber wundern, die Erklärung jedoch nur mit bereits releaseden Teribern benchen zu wollen klingt aber einleuchtend. Wenn man hart ist fragt man sich, warum nV nicht kurz vor den "Shader days" den Deto 50 offiziell freigegeben hat?
Original geschrieben von crushinator
...
Wenn man hart ist fragt man sich, warum nV nicht kurz vor den "Shader days" den Deto 50 offiziell freigegeben hat?
Die Antwort darauf hat doch Valve schon gegeben: Die Treiber seien extrem instabil und produzieren starke Bildfehler in normalen D3D-Apps.
Ergo, wenn dieser Treiber nur dazu da war, dieses eine Spiel zu benchen und sonst kaum/keine praxisrelevanten Nutzen hat, würd ich den auch nicht zum Benchen nehmen.
sdfjölkjsdf-össöklfjsfdölakjsljslfjksdföölaksjfjölsakfjsaöklfjöajskäfasjföasljfköalskdkfjsfs öajfjaklsfjdslöfjsadfjasdföl sdafjrewtöpoweföjsdmjf ödlköjesfjwe föjsödfjsölfjksjweporuwpofjx wjfwpoeru wtizefjsvj
Black-Scorpion
2003-09-15, 11:36:47
Original geschrieben von Gast
sdfjölkjsdf-össöklfjsfdölakjsljslfjksdföölaksjfjölsakfjsaöklfjöajskäfasjföasljfköalskdkfjsfs öajfjaklsfjdslöfjsadfjasdföl sdafjrewtöpoweföjsdmjf ödlköjesfjwe föjsödfjsölfjksjweporuwpofjx wjfwpoeru wtizefjsvj
:abgel:
So einen Blödsinn kannst du dir sparen.
[dzp]Viper
2003-09-15, 11:44:50
Original geschrieben von Gast
Die Antwort darauf hat doch Valve schon gegeben: Die Treiber seien extrem instabil und produzieren starke Bildfehler in normalen D3D-Apps.
Ergo, wenn dieser Treiber nur dazu da war, dieses eine Spiel zu benchen und sonst kaum/keine praxisrelevanten Nutzen hat, würd ich den auch nicht zum Benchen nehmen.
bingo - z.b. war die nebeldarstellung nicht vorhanden ...
Merlin31
2003-09-15, 11:49:25
http://www.plan-b.at/planb/?showcontent=eyeBoard/newsDetail&newsID=223&planB=e908cb15713f35e43fd03c25665cc09d
Wenn das stimmt, ist NV bei mir total unten durch.
Dann sollte sie eben direkt einen vernünftigen Treiber raus bringen.
Anderseits geben sie damit zu das der neue Treiber dann wohl doch net so toll ist.
Iceman346
2003-09-15, 11:55:52
Original geschrieben von Merlin31
http://www.plan-b.at/planb/?showcontent=eyeBoard/newsDetail&newsID=223&planB=e908cb15713f35e43fd03c25665cc09d
Wenn das stimmt, ist NV bei mir total unten durch.
Dann sollte sie eben direkt einen vernünftigen Treiber raus bringen.
Anderseits geben sie damit zu das der neue Treiber dann wohl doch net so toll ist.
Dieses Gerücht wurde hier schon ein paar Mal durchgekaut und es stimmt immer noch nicht. Es stammt aus einem Heise Online Artikel wo der Autor anscheinend einen Anfall von Erfinderwut hatte. Der offizielle Veröffentlichungstermin ist immer noch der 30. September.
Merlin31
2003-09-15, 11:59:48
*betet mal zum heiligen Ping,das es so sein möge*g
Black-Scorpion
2003-09-15, 12:04:53
Original geschrieben von Iceman346
Dieses Gerücht wurde hier schon ein paar Mal durchgekaut und es stimmt immer noch nicht. Es stammt aus einem Heise Online Artikel wo der Autor anscheinend einen Anfall von Erfinderwut hatte. Der offizielle Veröffentlichungstermin ist immer noch der 30. September.
Der Satz ist lustig.
------------------------------------------------------------
Laut aktuellen Benchmarks sind selbst ältere ATI Karten wie die Radeon 9600 um bis zu 40 Prozent schneller als eine aktuelle GeForce FX 5900
------------------------------------------------------------
Die 9600 ist ja auch schon ein paar Jahre auf dem Markt.
StefanV
2003-09-15, 12:08:13
Original geschrieben von perforierer
Angesichts des am Himmel aufziehenden Windows Longhorn langsam schon. Auch wenn die Desktopfeatures sicher nur rudimentäre Funktionen brauchen werden, so erwartet M$ nach den News die ich gelesen habe schon DX9 für die ganzen Desktopanimationen...
*ARGH*
Verschone uns bitte mit 'Longhorn kommt bald' orakelungen!!!
Longhorn ist noch fast 2 Jahre entfernt...
Und selbst wenn es morgen kommt und DX9 braucht, die effektive Leistungsfähigkeit den die Karte unter DX9 hat ist dann immer noch total egal...alleine das die Features drin sind reicht schon...
Die gelbe Eule
2003-09-15, 13:03:25
ui demirug treibt sich auch auf nfi rum =)
seahawk
2003-09-15, 13:04:26
S. P.
erinnere dich an die Riva 128, war auch Schroot, aber die OEMs haben sie geliebt, weil sie eine schön lange Featureliste hat. Die FX 5200 ist genau das Gleiche.
Zu den Benches sage ich nichts, da ich mir über die Aussagekraft nicht sicher bin.
Finaler Build der HL2-Engine oder nicht ??
Umstände der Benchmarkdurchführung.
Treiber.
Imo werden wir auch von ATI noch "Verbesserungen" für HL2 in den nächtsten CATs sehe, da die Leistung der 9800pro im Vergleich zur 9600pro nicht günstig ausfällt.
Exxtreme
2003-09-15, 14:06:38
Auf www.ati.com gibt es ein neues Flash-Video. :)
[dzp]Viper
2003-09-15, 14:08:58
Original geschrieben von Exxtreme
Auf www.ati.com gibt es ein neues Flash-Video. :)
süss :)
hab mich gleich mal eingetragen .. mal sehen was so kommt an spam ;D
Original geschrieben von Stefan Payne
*ARGH*
Verschone uns bitte mit 'Longhorn kommt bald' orakelungen!!!
Longhorn ist noch fast 2 Jahre entfernt...
Lies bitte nochmal mein Posting, bevor Du mir etwas unterstellst, das aus meinem Text überhaupt nicht hervorgeht. Ich habe kein Wort von "kommt bald " geschrieben.
Seit die ersten Previews von Longhorn draußen sind, ist das Thema der Anforderungen für die Hardware nunmal ein Thema. Und natürlich auch für alle Grakahersteller und für die Hersteller von Komplettsystemen. Marketingstichworte wie "zukunftssicher" sind für den Abverkauf an Laien immer ein Thema. Nur darum gehts.
Hier noch was nettes von Beyond3D bezüglich HL2 :
Half Life 2 uses as many as 1200 different shaders it hardly becomes practical to store pre-computed shaders for all games.
würde mich mal interessieren, wieviele Shader PS2.0 sind und wieviele PS1.1-1.4.
Wenn das Quote stimmt, dann ist HL2 das Spiel mit den meisten Shadern überhaupt. Cool
OT: Aquamark3 ist da:
http://www.pcgames.de/index.cfm?article_id=222520
hofmetzger
2003-09-15, 15:45:06
http://www.nvmax.com/cgi-bin/downlo...SS=&file=84
hat einer im p3d geposted. ich sauge mit >80
juchu! (hoffentlich bekomm ich auch als 8500 user was zu sehen)
edit: da der PCGH link zum AM3 überlastet scheint, dieser link. zumindest bei mir hat der server gleich reagiert.
edit2: geht wohl nicht mehr... sorry fürs OT
[dzp]Viper
2003-09-15, 15:46:47
Original geschrieben von hofmetzger
http://www.nvmax.com/cgi-bin/downlo...SS=&file=84
hat einer im p3d geposted. ich sauge mit >80
juchu! (hoffentlich bekomm ich auch als 8500 user was zu sehen)
geht nicht - was gibts da ?
nggalai
2003-09-15, 15:54:01
Aquamark3-Thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=94379
Bitte hier nix mehr zu den Servern und so posten. Benutzt den anderen Thread. Dank schön.
93,
-Sascha.rb
Exxtreme
2003-09-15, 16:33:03
Erster HL2-Screenshot mit dem Deto 51.75:
http://www.uploadit.org/files/150903-thewayitsmeant.jpg
Leonidas
2003-09-15, 16:42:06
Da kommt das Half-Life 1 Feeling sauber durch. ;)
mapel110
2003-09-15, 16:43:00
:rofl:
rookz
2003-09-15, 16:56:07
lol software Einstellung ?
MechWOLLIer
2003-09-15, 17:14:56
Wieviel Frames??;D
(del676)
2003-09-15, 17:19:23
Original geschrieben von Exxtreme
Erster HL2-Screenshot mit dem Deto 51.75:
http://www.uploadit.org/files/150903-thewayitsmeant.jpg
solche billigen und stumpfsinnigen flameansätze hätt ich vielleicht von nagus erwartet - aber ned von einem "mod" :eyes:
Exxtreme
2003-09-15, 17:24:18
Original geschrieben von Ulukay
solche billigen und stumpfsinnigen flameansätze hätt ich vielleicht von nagus erwartet - aber ned von einem "mod" :eyes:
Ohhh mann, das Wort "Humor" ist dir anscheinend fremd. Anscheinend brauchste auch eine Brille, sonst hättest du den Smiley bemerkt. :eyes: <----- extra für dich, DAS IST EIN SMILEY!
das war nicht billig und auch nicht stumpfsinning sondern sehr gut! :)
Traxx
2003-09-15, 17:36:28
Ist doch zur Zeit verständlich. Es sind soeben Welten zusammengebrochen. Die Emotionen gehen heute wohl noch ziemlich hoch... :cryl:
Greetings
Traxx
betasilie
2003-09-15, 17:38:21
Original geschrieben von Ulukay
solche billigen und stumpfsinnigen flameansätze hätt ich vielleicht von nagus erwartet - aber ned von einem "mod" :eyes:
Gähn. ... Geh doch woanders motzen.
DrumDub
2003-09-15, 17:39:33
Original geschrieben von Ulukay
solche billigen und stumpfsinnigen flameansätze hätt ich vielleicht von nagus erwartet - aber ned von einem "mod" :eyes:
jaja, die bösen mods... ;D
knallebumm
2003-09-15, 17:46:03
Original geschrieben von Ulukay
solche billigen und stumpfsinnigen flameansätze hätt ich vielleicht von nagus erwartet - aber ned von einem "mod" :eyes:
wine me a river
mapel110
2003-09-15, 17:47:48
Original geschrieben von handyman
wine me a river
mit anderen worten
:heuldoch:
LovesuckZ
2003-09-15, 17:48:13
Hm, Exxtreme regt sich wegen Flames auf, und wenn alles ruhig ist, faengt er an.
Ja, so sind sie die unscheinbaren :D
Merlin31
2003-09-15, 18:18:51
Original geschrieben von Exxtreme
Erster HL2-Screenshot mit dem Deto 51.75:
http://www.uploadit.org/files/150903-thewayitsmeant.jpg
Höchste AA und AF Filterung :D
Erinnert mich ein wenig an C64er Zeiten mit den Blöcken
Crushinator
2003-09-15, 18:19:28
Original geschrieben von Ulukay
solche billigen und stumpfsinnigen flameansätze hätt ich vielleicht von nagus erwartet - aber ned von einem "mod" :eyes: Gaynau! Also, Exxtreme schäm' Dich!!11 Außerdem hättest Du den Screenshot ruhig ohne die qualitätsmindernden JPEG-Verluste posten können und überhaupt...
:respekt: <- Das ist ein Smily!!11
Al-CAlifAX
2003-09-15, 18:36:31
Original geschrieben von Exxtreme
Erster HL2-Screenshot mit dem Deto 51.75:
Na mein Gott die Effekte scheinen ja noch drinne zu sein :P :verd:
Nehmts mit Humor. Auch die Nvidianer. Aber die Schildkröte war noch ne Spur besser hihi
Asuka
2003-09-15, 18:49:32
Original geschrieben von Exxtreme
Erster HL2-Screenshot mit dem Deto 51.75:
http://www.uploadit.org/files/150903-thewayitsmeant.jpg Ja, da kommt das alte Doom-Feeling von damals wieder auf, das sah praktisch auch nicht anders aus ;D
Thowe
2003-09-15, 21:17:34
Original geschrieben von Asuka
Ja, da kommt das alte Doom-Feeling von damals wieder auf, das sah praktisch auch nicht anders aus ;D
Hmmm, lässt sich auch verkaufen.
Santa Clara, NVIDIA gab heute bekannt, das sie extra für den bald erscheinenden Spiele Hit "Half Life 2" in ihren Detonator Treibern ein neues Highlight intregiert haben.
Die Detonator 5 Treiber werden mit der s.g. Nostalgia Funktion ausgeliefert. Dank der fortschrittlichen NVIDIA Shader Technologie, kann die derzeit der Konkurrenz überlegende Grafikkartengeneration GeForce FX die Spiele so darstellen, wie sie es aus der Anfangszeit der Gamers Nation kennen.
NVIDIA betonte ausdrücklich, das kein anderes Produkt am Markt eine ähnliche Shaderleistung bieten würde und das Nostalgia die vom Spiel dargestellten Szenen ohne jeglichem Geschwindigkeitsverlust rendern würden.
Weiterhin erklärte NVIDIA, das sie stolz darauf seien der Konkurrenz in diesem wesentlichem Punkt überlegen zu sein und das sie diese einmalige Funktion ihren treuen Konsumenten ohne jegliche Kosten zur Verfügung stellen.
Stolz darauf den Markt derart revolutioniert zu haben liess sich die Geschäftleitung auch noch zur folgenden Aussage hinreissen: Die nächste Grafikkartengeneration der GeForce FX Reihe wird bei der wichtigen Nostaligia Funktion sogar um bis zu 1200% Mehrleistung haben. Diese Messlatte wird der Konkurrenz ein nicht zu überwindenes Hindernis sein.
Crushinator
2003-09-15, 21:30:41
:respekt: @Thowe
Ich wußte gar nicht, daß Du bei nVIDIA arbeitest. Kann man Dich noch für unseren Vertrieb abwerben? ;)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.