Archiv verlassen und diese Seite im Standarddesign anzeigen : HL2 benchmarks von anand (kleiner vorgeschmack)
hofmetzger
2003-09-12, 19:01:20
Erstmal glückwunsch an alle die hier diskutieren, dass der thread nicht in den üblichen flamewar ausgeartet ist. meist wurde/wird nach erklärungen für diese phänomen gesucht, anstatt hämisch herumzubashen. Auch als sympATIsant kann mir das abschneiden von nvidia nicht recht sein, wenn das usus bei neuen spielen wird...
ich melde mich hier wegen thops letztem post (verdächtigungen gegen 3dcenter).
lieber thop! schön dass du dich hier beteiligst, doch wäre es (zumindest) mir lieb, wenn du eine etwas gemäßigtere tonart an den tag legen würdest. hier geht es um benchmarks denen man im höchsten maße mistrauen sollte und da passen viele deiner posts nicht zu den "tatsachen" die es ja noch garnicht gibt.
Originale, geschrieben von thop
nö die wahrheit sieht nich anders aus. das wurde doch schon zig mal von den entwicklern gesagt dass das spiel nur auf ATI karten ordentlich läuft, und im forum auch 10x wiederholt. und was machen die leute? holen sich nvidia karten ... da kann ich auch nicht mehr helfen.
Das hat man doch schon bei TombRaider AOD gesehen, wenns um DX9 geht ist nVidia momentan ein Witz. Da würd ich auch auf die Deto5 nicht hoffen, die Catalyst 3.8 sollen ja auch revolutionär werden, also gleicht sich das dann vermutlich wieder aus.
Ich sehe manche nVidiots hören können die Wahrheit noch immer nicht verdauen. Demirug, zuerst einmal möcht ich ein paar Quellen sehen für deine Entwicklerkonferenzenverschwörungstheorie. Wie üblich gibts du nie Quellen an.
Und hat jemand mal dran gedacht dass es nicht an geheimen Deals oder sonstwas liegt sondern dass die nVidia Karten für DX9 einfach Scheisse sind? Ich sag nur Tomb Raider AOD. Der Trend setzt sich nahtlos fort. Da haben viele hier wohl auf das falsche Pferd gesetzt.
Und was gibt es da noch abzuwarten und Tee zu trinken? Anand sagt ganz eindeutig dass die ATI Karten wesentlich schneller sind. Damit hat sich das Thema erledigt und auch die Verschwörungstheoretiker können wieder unter ihren Stein krabbeln.
Im Moment siehts einfach nur Scheisse für nVidia aus. 9600pro schlägt 5900U, kostet mehr als doppel soviel, autsch!
Ich finde es ja niedich wie manche von der 5600 Leistung darauf schließen dass die 5900 eigentlich schneller sein müsste wenn es doch schwarz auf weiß da steht wie schnell die 5900 ist!
Ich denke das ist der Beweis dass ne 9600pro der bessere Kauf ist als ne 9500pro.
Dass nV auf dem Generic Path so abloost ist natürlich trotzdem erbärmlich.
Ich will dich wirklich nicht persönlich angreifen, aber in anbetracht der unsicherheit der zahlen, solltest du dich etwas zurückhalten.
hofmetzger
(ich will zhlen für meine 8500)
Quasar
2003-09-12, 19:02:39
Original geschrieben von ow
Na damit ist doch klar, dass diese Benches absolut garnichts wert sind.
Die Aussage mal komplett:
Normally, when you see benchmarks on TR with fancy graphs and the like, we have conducted the testing ourselves using test systems we've built and installed personally. That's not the case with these numbers, which were produced in a very controlled environment. ATI and Valve collaborated on the system setups, and my role in the process was reduced to specifying verbally which script should be run. A very protective ATI employee kept my hands off the keyboard and kicked off the scripts for me, so not even in that basic way can I claim these are "my" benchmark numbers.
There's more....
and the Valve folks were present alongside the ATI folks to make sure everything was done according to Valve's liking.
Naja, deren gutes Recht ihre Veranstaltung zu überwachen.
Next, the four test systems were initially intended to be equipped with four different graphics cards: a GeForce FX 5600 Ultra 128MB, Radeon 9600 Pro 128MB, GeForce FX 5900 Ultra 256MB, and a Radeon 9800 Pro 128MB. Instead, the FX 5600 turned out to be a GeForce FX 5600 (non-Ultra), which has substantially lower core and memory clock speeds than the Ultra version—an important item to note for those of you keeping score at home.
Das find' ich schon etwas heftiger. Zwar nicht direkt eine Lüge, aber wohl zumindest in der Hoffnung, es würde nicht auffallen, was wohl bei einigen Kollegen auch gewirkt hat.
It's my understanding that the NV3x-specific codepath does not use FX12 integer pixel shaders.
Soso, zumindest bleibt man also im Gleitkommabereich.
I did not elect to test performance with antialiasing enabled, because I was told by the Valve folks that performance in this benchmark with AA enabled would not be representative of AA performance in the final game.
Interessant. Hat man das MSAA und die lieben Pixelshader doch noch nicht im Griff? Oder ist das Verfahren bei nV-Chips so langsam, dass es unbenutzbar wird?
seahawk
2003-09-12, 19:03:37
Original geschrieben von ow
Die Aussage auf der 3DC Seite ist zwar etwas spekulativ, aber man bedenke, dass bislang jede Engine von iD sehr oft lizensiert wurde und afaik von Valve es noch nie eine eigene Engine gab, die man überhaupt hätte lizensieren können. Oder irre ich mich da?
War die HL1 eigentlich ne hundertprozentige Eigenentwicklung von Valve ??
Quasar
2003-09-12, 19:07:44
Original geschrieben von ow
Die Aussage auf der 3DC Seite ist zwar etwas spekulativ, aber man bedenke, dass bislang jede Engine von iD sehr oft lizensiert wurde und afaik von Valve es noch nie eine eigene Engine gab, die man überhaupt hätte lizensieren können. Oder irre ich mich da?
Im Gegenteil, Half-Life basierte auf der Quake-I Engine mit großen Anleihen der Quake2-Engine.
Woher Valve die wohl lizensiert hatte... ;)
Scose
2003-09-12, 19:10:29
Kann man da evt. Vergleiche ziehen mit dem Release des P4?
Damals sah der P4 gegenüber der konvetionellen Architektur des Athlon auch relativ alt aus.
Kann man das in irgendeiner Weise mit R300 und NV30/35 vergleichen?
Ich erinnere mich daran als erstmals nach und nach angepasste Software für den P4 rauskam. Und siehe da plötzlich rannte der wie von der Tarantel gestochen.
Gast2
2003-09-12, 19:10:44
Ich könnte jetzt sagen, Zeiten ändern sich, die Zukunft steht noch nicht geschrieben;)
Es geht aber eigentlich darum, dass Doom3 erst irgendwann 2004 veröffentlicht wird. Vielleicht sind dann die Ergebnisse bei Doom3 genauso wie bei HalfLife2, wer kann dass schon sagen.
Also wenn ich Grafikkarten miteinander vergleiche, dann mit aktuellen Spielen oder in Kürze anstehenden, weil sich hier objektiver beurteilen läßt, was sein Geld wert ist.
Steel
2003-09-12, 19:11:44
Original geschrieben von seahawk
War die HL1 eigentlich ne hundertprozentige Eigenentwicklung von Valve ??
Nein.
Hauptsächlich zum allergrössten Teil war es Quake1 und minimale Teile Quake2.
Schwer allerdings zu sagen, wie gross der Prozentsatz im finalen Produkt war... 20% vielleicht?
Auf jeden Fall ist das der Grund weshalb Valve diese Engine nicht weiterlizensieren lassen konnte.
Ailuros
2003-09-12, 19:13:55
Also darf ich mir jetzt einen Witz erlauben? Ich liebe es wenn ich gigantische Laengen-Unterschiede in Benchmark-Graphs sehe. Eine Einfache Illustration hier:
http://www.net2hardware.com/AUTO/NEWS/Deto_5157VS4543_Gun2.gif
http://www.net2hardware.com/AUTO/NEWS/Deto_5157VS4543_3DMark3.gif
Ich sollte mich ernsthafter mit Reviews beschaeftigen kann doch wohl nicht so schwer sein. Ich stell mir dass so vor:
XYZ@1024 Treiber 555:
**
XYZ@1024 Treiber 666:
********************************************
In Zahlen
555= 29.0fps
666= 31.1fps ;D
hofmetzger ich danke dir für die mühe die du dir gmeacht hast um ein kleine potpourri meiner beiträge zu erstellen :)
ich bin mißtrauisch, ich sehe auch ähnlichkeiten zu den D3 benchmarks bei HardOCP. allerdings steht HL2 kurz bevor, den benchmark zum selberstesten gibt es in 3 wochen. glaubst du wirklich dass valve die zahlen wirklich verbiegt damit dann in 3 wochen rauskommt dass es in wirklichkeit alles ganz anders ist (und in wahrheit nV schneller ist)? das glaubst du doch selbst nicht. das wäre doch die größte blamage in der industrie seit dem FX-staubsauger.
D3 hingegen war bei veröffentlichung der benchmarks mindestes noch ein halber jahr, eher ein jahr, entfernt. da erinnert sich keiner mehr wenn gemoglet wird.
abgesehen davon muss ich wirklich lachen wenn manche hier schreiben dass valve unfähig ist oder besser mal ihren job gemacht hätten. ich lade jeden ein die HL2 engine selbst zu programmieren. ich gebe einen kasten bier aus.
Ailuros
2003-09-12, 19:18:30
Original geschrieben von Snivilist
Kann man da evt. Vergleiche ziehen mit dem Release des P4?
Damals sah der P4 gegenüber der konvetionellen Architektur des Athlon auch relativ alt aus.
Kann man das in irgendeiner Weise mit R300 und NV30/35 vergleichen?
Ich erinnere mich daran als erstmals nach und nach angepasste Software für den P4 rauskam. Und siehe da plötzlich rannte der wie von der Tarantel gestochen.
Schlechte Parallele IMHO, aber hat sich das pro-MHz zwischen den beiden CPUs wirklich geaendert?
Gast2
2003-09-12, 19:23:39
Vielleicht einfach mal warten:
1. Noch 3 Tage bis Aquamark3 (Benchmark) erscheint, wahrscheinlich gleichzeitig mit Det5x Tests (ohne Hintergedanken;)
2. Noch ein paar Wochen bis HL2 erscheint
3. Alle sind schlauer!
Ailuros
2003-09-12, 19:27:40
Eine Alternative waere auch mal ein Spiel zu spielen als Abwechslung, nur so zwischendrin. Das Gefuehl dass es Leute dort draussen geben koennte die Tag und Nacht nur benchen, macht mir eigentlich Angst :ups:
:weg:
Exxtreme
2003-09-12, 19:32:03
Original geschrieben von Ailuros
Eine Alternative waere auch mal ein Spiel zu spielen als Abwechslung, nur so zwischendrin. Das Gefuehl dass es Leute dort draussen geben koennte die Tag und Nacht nur benchen, macht mir eigentlich Angst :ups:
:weg:
Ungläubiger!
Steinigt ihn! :D
Neee, auf das Spiel bin ich auch schon gayspannt vorausgesetzt, daß Valve keine Spyware in ihr "Steam" einbauen. :)
LovesuckZ
2003-09-12, 19:34:43
Original geschrieben von Gast
Wobei man nicht vergessen darf, dass sich nVidia zwar über die Benchmarks beschwert, aber ja SELBST bisher gar nicht erlaubt hat, dass Deto 50er Benches überhaupt veröffentlicht werden dürfen. diese Komik sollte man nicht vergessen.
Selbst schuld sag ich dazu nur...
Seit heute scheint man Zahlen veröffentlich zu dürfen.
Tortzdem werden wir keine Werte mit dem Deto 51.75 sehen, da die Seiten mit dem HL2 Bench auf der ATI/Valve Veranstaltungen seien muessen. Anders kann man sich die selben Testsysteme nicht anders erklaeren...
Quasar
2003-09-12, 19:35:11
Original geschrieben von Ailuros
Schlechte Parallele IMHO, aber hat sich das pro-MHz zwischen den beiden CPUs wirklich geaendert?
Naja, wenn du mal die realen Tests aussen vor läßt und SpecCPU und -FPU-Werte nimmst, dann lassen sich da schon Parallelen konstruieren.
Und ja, mittlerweile performed der HT-Northwood ( =nV35 256Bit) auch pro MHz deutlich besser, als es der zusätzlich durch seine Umgebung ausgebremste Willamette ( =nV30 128Bit) vermochte.
Da der Athlon durch seinen riesigen L1 stark vom L2 entkoppelt ist, denke ich auch, dass sich das Pro-MHz-Verhältnis im Großen und Ganzen positiver für Intel darstellt.
hofmetzger
2003-09-12, 19:41:17
Original geschrieben von thop
hofmetzger ich danke dir für die mühe die du dir gmeacht hast um ein kleine potpourri meiner beiträge zu erstellen :)
ich bin mißtrauisch, ich sehe auch ähnlichkeiten zu den D3 benchmarks bei HardOCP. allerdings steht HL2 kurz bevor, den benchmark zum selberstesten gibt es in 3 wochen. glaubst du wirklich dass valve die zahlen wirklich verbiegt damit dann in 3 wochen rauskommt dass es in wirklichkeit alles ganz anders ist (und in wahrheit nV schneller ist)? das glaubst du doch selbst nicht. das wäre doch die größte blamage in der industrie seit dem FX-staubsauger.
D3 hingegen war bei veröffentlichung der benchmarks mindestes noch ein halber jahr, eher ein jahr, entfernt. da erinnert sich keiner mehr wenn gemoglet wird.
abgesehen davon muss ich wirklich lachen wenn manche hier schreiben dass valve unfähig ist oder besser mal ihren job gemacht hätten. ich lade jeden ein die HL2 engine selbst zu programmieren. ich gebe einen kasten bier aus.
Meine Meinung zu den Zahlen:
Ich kann mir vorstellen, dass Szenen ausgewählt wurden, in denen Ati ganz gut abschneidet. Verbogen wurde da allerdings bestimmt nichts. Vermutlich ist das, was wir hier sehen, der Preis, der immer komplexeren Engines: Wenn auf Ati entwickelt wird, ist nunmal diese Architektur bevorzugt, andersherum wird es genauso sein. Dies ist auch die Sorge, die ich habe: dass es sich nämlich in Zukunft kaum eine Firma leisten können wird, für beide Architekturen zu entwickeln. Als Ausweg sollten die Chiphersteller stärker in den Entwicklungsprozess eingebunden werden. In diesem Falle müsste auch nicht per Treiber "nachgeholfen" werden, sondern jede Firma hat "ihren pfad", den sie zusammen mit dem Engine-Entwickler pflegt.
Ich glaube nicht, dass Valve unfähig war, oder nv absichtlich benachteiligt hat. Jemand der sein Spiel bzw. die Engine verkaufen will, macht sowas nicht. Daher teile ich die hier schon einmal geäusserte Vermutung, dass Valves Optimierungen für den Deto50 gedacht waren. Da aber es 1. ein Ati-event, und 2. Veröffentlichungen von deto50 Benches untersagt waren...
Wie ich oben schon sagte, kann ich selbst als ATI-User nur hoffen, dass dies nicht die entgültigen Zahlen sind - ein Vorsprung von 10% in jeder Leistungsstufe wäre aber schon schön ;)
edit: Ergänzung und Rechtschreibfehler
Demirug
2003-09-12, 19:41:54
Zum Thema Shaderoptimierung für NV3X für alle die es noch nicht kennen.
Nutzbare Shaderleistung im Verhältniss zur Anzahl der Tempregister bei einem NV30. Andere NV3X Chips verhalten sich ähnlich. Durch geschickte Anordnung der Shader-Anweisungen kann die nutzbare Leistung jeweils noch etwas erhöht werden.
T-Regs(FP32) Leistung
1,2 100%
3,4 91%
5,6 70%
7,8 50%
9,10 31%
11,12 29% <- maximale Anzahl von T-Regs bei PS 2.0
13,14 21%
15,16 20%
Ein FP32 Reg kann unter Beibehaltung des Leistungsverhalten durch 2 FP16 Register ersetzt werden.
In vom MS Compiler erzeugte oder nach ATI Guideline programmierte 2.0 Shader finden in der Regel viele T-Regs.
hofmetzger
2003-09-12, 19:49:40
Original geschrieben von Demirug
Zum Thema Shaderoptimierung für NV3X für alle die es noch nicht kennen.
Nutzbare Shaderleistung im Verhältniss zur Anzahl der Tempregister bei einem NV30. Andere NV3X Chips verhalten sich ähnlich. Durch geschickte Anordnung der Shader-Anweisungen kann die nutzbare Leistung jeweils noch etwas erhöht werden.
T-Regs(FP32) Leistung
1,2 100%
3,4 91%
5,6 70%
7,8 50%
9,10 31%
11,12 29% <- maximale Anzahl von T-Regs bei PS 2.0
13,14 21%
15,16 20%
Ein FP32 Reg kann unter Beibehaltung des Leistungsverhalten durch 2 FP16 Register ersetzt werden.
In vom MS Compiler erzeugte oder nach ATI Guideline programmierte 2.0 Shader finden in der Regel viele T-Regs.
interessant. (habe zwar /den artikel/ gelesen, aber das war mir nicht mehr present)
zum verständnis: diese T-Regs sind keine Register in Hardware, oder? (das Verhalten fände ich dann nämlich seltsam). Wird in dem Artikel näher darauf eingegangen warum sich die Architektur so verhält? wurde da irgendwo an Cache oder Registern gespart... ?
Demirug
2003-09-12, 19:57:37
Original geschrieben von hofmetzger
interessant. (habe zwar /den artikel/ gelesen, aber das war mir nicht mehr present)
Diese Tabelle ist nicht in dem Aritikel enthalten.
zum verständnis: diese T-Regs sind keine Register in Hardware, oder? (das Verhalten fände ich dann nämlich seltsam). Wird in dem Artikel näher darauf eingegangen warum sich die Architektur so verhält? wurde da irgendwo an Cache oder Registern gespart... ?
T-Regs sind Register zum Speichern von Zwischenergebnissen. Und dafür gibt es im Pixelprozessor einen extra Speicher in dem nur diese Zwischenergebnisse gespeichert werden. Es müssen aber nicht nur die Daten von einem Pixel sondern von allen Pixel welche in der Pipeline sind gespeichert werden. Die Pipeline ist aber nun sehr lang was dazu führt das der Speicher wenn man viele dieser Register in einem Shader benutzt nicht mehr reicht um die Pipeline komplett zu füllen. Tritt dieser Fall ein bleiben viele Takte ungenutzt und die Effizienz fällt ins Bodenlosse.
EDIT: PS: Ja der Speicher ist zu klein für die länge der Pipeline.
Winter[Raven]
2003-09-12, 20:00:11
Ich gehe davon aus, dass die Source Engine sich genauso lizensieren lassen wird wie die Doom 3 Engine und ich gehe davon aus das die Source Engine deutlich häufiger lizensiert werden wird als die Doom 3 Engine weil Source einfach mehr Möglichkeiten hat. Bei der Doom Engine ist man ziemlich auf enge Gänge beschränkt, bei Source kann man auch grosse Aussengebiete darstellen (nach allem was ich bisher gesehen hab).
Also, ich weiss wirklich nicht wie einige Drauf kommen. DOOM III ist laut JC in derlage Außenlandschaften zuerstellen nur zum Hardwarepreis.
Und waren nicht vor 3 Jahren die selben die damals gerufen haben Q3 Engine != Außenlandschafft ? Heute sehn wir SOF II, MOHA, JK II + III mmit rießigen Maps ? Man sollte mit solachen Äuerungen wirklich sehr vorischtig sein.
Ailuros
2003-09-12, 20:00:48
Original geschrieben von Quasar
Naja, wenn du mal die realen Tests aussen vor läßt und SpecCPU und -FPU-Werte nimmst, dann lassen sich da schon Parallelen konstruieren.
Und ja, mittlerweile performed der HT-Northwood ( =nV35 256Bit) auch pro MHz deutlich besser, als es der zusätzlich durch seine Umgebung ausgebremste Willamette ( =nV30 128Bit) vermochte.
Da der Athlon durch seinen riesigen L1 stark vom L2 entkoppelt ist, denke ich auch, dass sich das Pro-MHz-Verhältnis im Großen und Ganzen positiver für Intel darstellt.
Meiner Meinung nach verbleibt es eine schlechte Parallele, aber wenn es unbedingt sein muss, denk eher mal an wahre MHz und nicht an PRratings bei AMD Prozessoren.
3000+XP = 2.15GHz
Nun ist es mir egal ob Du dagegen einen 2.5, 2.8 oder 3.0GHz P4 stellst; der pro-MHz Vorteil geht immer noch auf die AMD Seite. Wo Du das pro-MHz Vorteil fuer Intel siehst ist mir fremd.
Momentan liegt die 5900U bei 450MHz und die 9800PRO bei 380MHz; glaubst Du vielleicht dass sich das Verhaeltnis zwischen den beiden aendern wird wenn A auf 500MHz und B auf 425MHz steigen in zukuenftigen refreshes? Von Spekulationen was naechster Generation Produkte betrifft, halte ich mich momentan immer noch zurueck.
LovesuckZ
2003-09-12, 20:06:28
Original geschrieben von Gast
hmm täusch ich mich oder hörte man diesen einwand von deiner seite bei den doom3 benches nicht wo es genauso war ? :confused:
Ach du meinst, dass dies: "To outline the facts we [hardocp]: A. Benchmarked on hardware put together and owned by HardOCP. B. Benchmarked using a demo recorded by id at the id offices the day of the benchmarking previously unseen by NVIDIA. c. No scripting language coded by NVIDA was used." (http://www.hardocp.com/article.html?art=NDc0) mit dem gleichzusetzen sei, was ATi und vorallem Valve abziehen?
Traeum weiter.
hofmetzger
2003-09-12, 20:07:30
Original geschrieben von Demirug
T-Regs sind Register zum Speichern von Zwischenergebnissen. Und dafür gibt es im Pixelprozessor einen extra Speicher in dem nur diese Zwischenergebnisse gespeichert werden. Es müssen aber nicht nur die Daten von einem Pixel sondern von allen Pixel welche in der Pipeline sind gespeichert werden. Die Pipeline ist aber nun sehr lang was dazu führt das der Speicher wenn man viele dieser Register in einem Shader benutzt nicht mehr reicht um die Pipeline komplett zu füllen. Tritt dieser Fall ein bleiben viele Takte ungenutzt und die Effizienz fällt ins Bodenlosse.
EDIT: PS: Ja der Speicher ist zu klein für die länge der Pipeline.
Aus dem CineFX-Artikel
Die maximale Anzahl von gleichzeitig in der Pipeline vorhandenen Quads ergibt sich, wenn man die Größe des Speichers für die Register (siehe Shader Backend) durch die durch einen Quad beanspruchte Speichermenge teilt. Die Speichermenge pro Quad berechnet sich aus der Anzahl und dem Datenformat der Temp-Register im Shader.
Also verstehe ich das richtig, dass sich die TempRegister und die Quads den Speicher teilen müssen, daher kann es engpässe geben, und die Pipeline wird nicht ausgelastet.
Nun, dann finde ich, dass dies eine grobe Designschwäche ist, da die Architektur in diesem Punkt nicht sehr flexibel ist. Nachdem was ich in meinem Grundstudium Info über Hardware gelernt habe (und hier merke ich dass es nicht allzuviel war), wäre es doch ohne große Umstände möglich gewesen diesen Speicher etwas größer zu dimensionieren, so dass die Pipeline auch in kritischen Situationen ausgelastet ist.
und das glaubst du ausgerechnet Kyle der auf der gehaltsliste von nV steht? :lolaway:
das testsystem wurde ihm von einem nV mitarbeiter geliefert, muss ich mehr sagen?
Quasar
2003-09-12, 20:13:04
Original geschrieben von Ailuros
Meiner Meinung nach verbleibt es eine schlechte Parallele, aber wenn es unbedingt sein muss, denk eher mal an wahre MHz und nicht an PRratings bei AMD Prozessoren.
3000+XP = 2.15GHz
Nun ist es mir egal ob Du dagegen einen 2.5, 2.8 oder 3.0GHz P4 stellst; der pro-MHz Vorteil geht immer noch auf die AMD Seite. Wo Du das pro-MHz Vorteil fuer Intel siehst ist mir fremd.
Sorry, ich habe mich mißverständlich ausgedrückt.
Ich meinte folgendes:
Im Vergleich zum Verhältnis Willamette/Thunderbird steht Intel beim Vergleich HT-Northwood/Barton besser da. Nicht absolut, aber relativ, sprich, sie haben ein wenig aufgeholt in der pro-MHz Leistung, natürlich ohne AMD zu erreichen.
Demirug
2003-09-12, 20:14:18
Original geschrieben von hofmetzger
Also verstehe ich das richtig, dass sich die TempRegister und die Quads den Speicher teilen müssen, daher kann es engpässe geben, und die Pipeline wird nicht ausgelastet.
Ein Quad braucht eigentlich keinen Speicher aber jeden Quad ist ein Teil des Speichers zugeordent. Die Grösse dieses Blocks berechnet sich aus der Anzahl und dem Format der Tempregister. Und wenn kein Speicher mehr da ist geht kein Quad mehr in die Pipeline auch wenn eigentlich sosnt noch Platz dafür wäre. Jede Pipelinestufe kann ein Quad enthalten.
Nun, dann finde ich, dass dies eine grobe Designschwäche ist, da die Architektur in diesem Punkt nicht sehr flexibel ist. Nachdem was ich in meinem Grundstudium Info über Hardware gelernt habe (und hier merke ich dass es nicht allzuviel war), wäre es doch ohne große Umstände möglich gewesen diesen Speicher etwas größer zu dimensionieren, so dass die Pipeline auch in kritischen Situationen ausgelastet ist.
Ja genau das ist einer der grossen Knackpunkte in der Architektur. Ich habe dazu auch zwei Vermutungen. nVidia musste am Ende Transitoren sparen und/oder die Pipeline länger machen um den Takt auf 500 Mhz zu bekommen.
LovesuckZ
2003-09-12, 20:15:58
Original geschrieben von thop
und das glaubst du ausgerechnet Kyle der auf der gehaltsliste von nV steht? :lolaway:
das testsystem wurde ihm von einem nV mitarbeiter geliefert, muss ich mehr sagen?
" A very protective ATI employee kept my hands off the keyboard and kicked off the scripts for me, so not even in that basic way can I claim these are "my" benchmark numbers. " (http://www.techreport.com/etc/2003q3/hl2bench/index.x?pg=1)
"Every DOOM 3 benchmark you see here was run by myself, by hand." (http://www.hardocp.com/article.html?art=NDc0)
Stimmt, Kyle is ja vom bösen, bösen nvidia Teufel besetzen...
Ailuros
2003-09-12, 20:17:03
Original geschrieben von thop
und das glaubst du ausgerechnet Kyle der auf der gehaltsliste von nV steht? :lolaway:
das testsystem wurde ihm von einem nV mitarbeiter geliefert, muss ich mehr sagen?
Das hier:
http://www.hardocp.com/article.html?art=NTAz
sieht aber schlecht nach jemand aus der auf einer "Gehaltsliste" eines IHV steht. Ich bin selber nicht verrueckt ueber so manchen Quatsch von Kyle, aber man sollte sich dran errinnern dass Konspirations-theorien beide Wege gehen koennen.
Ich glaube selten an solchen Kinderkram, aber das ist ja auch mein Bier.
Exxtreme
2003-09-12, 20:20:40
Original geschrieben von Ailuros
Das hier:
http://www.hardocp.com/article.html?art=NTAz
sieht aber schlecht nach jemand aus der auf einer "Gehaltsliste" eines IHV steht. Ich bin selber nicht verrueckt ueber so manchen Quatsch von Kyle, aber man sollte sich dran errinnern dass Konspirations-theorien beide Wege gehen koennen.
Ich glaube selten an solchen Kinderkram, aber das ist ja auch mein Bier.
Aaach, komm.
Kyle stand mit dem Rücken zur Wand und deswegen schrieb er den Artikel. :)
Riptor
2003-09-12, 20:21:29
Im Endeffekt ist doch ATI sowieso immer der Arsch, oder?
Was ich damit sagen will: Mich kotzt es derzeit ziemlich an, dass wir wohl in Zukunft immer mehr solcher Schlammschlachten "genießen" müssen. Wem kann man noch trauen? THG mit seiner "Doom III" Maschinerie? Valve? ATI? nVidia? EA? Sorry, aber ich glaub, es fliegen wieder einige Seiten aus meinen Favoriten, aber am Ende ist sowieso ATI der Depp... Entweder die Benches stimmen nicht, oder der "Gegner" nVidia wurde ausgebremst, um besser im Licht zu stehen... Arm, arm, aber das wars jetzt, ich werd mir in Zukunft vornehmen, keinen Artikel über noch nicht erhältliche Spiele durchzulesen, denn mittlerweile ist die Hemmschwelle fürs breite verarschen wohl so ausgeprägt, dass man vor gar nichts mehr zurückschreckt. Und von den darauf folgenden Flameorgien, wo sowieso nix bei rauskommt, bekommt man nur noch mehr Magengeschwürde... ... ... :-( :) :D Ist doch wahr!
was mit Kyle und nV abläuft weiss jeder. frag mal auf beyond3d, die sagen dir schon bescheid.
Quasar
2003-09-12, 20:24:00
Original geschrieben von Demirug
Ja genau das ist einer der grossen Knackpunkte in der Architektur. Ich habe dazu auch zwei Vermutungen. nVidia musste am Ende Transitoren sparen und/oder die Pipeline länger machen um den Takt auf 500 Mhz zu bekommen.
Von welchen Größenordnungen an Speicher reden 'wir' hier? Ich kann mir schwerlich vorstellen, daß man eine solch schwerwiegende Entscheidung von einer Transistormenge ~500k Transistoren abhängig machen würde.
Ailuros
2003-09-12, 20:26:31
Original geschrieben von Quasar
Sorry, ich habe mich mißverständlich ausgedrückt.
Ich meinte folgendes:
Im Vergleich zum Verhältnis Willamette/Thunderbird steht Intel beim Vergleich HT-Northwood/Barton besser da. Nicht absolut, aber relativ, sprich, sie haben ein wenig aufgeholt in der pro-MHz Leistung, natürlich ohne AMD zu erreichen.
NV30 wurde durch den Produktions-Prozess von 400 auf 500MHz hochgeschraubt um mit hoeherer Fuellrate kompensieren zu koennen. Als aber der 256bit bus, ergo hoehere Bandbreite eingesetzt wurde, wurde auch die Taktrate um 50MHz reduziert.
Wobei in Shader-limitierten Situationen Bandbreite wohl eher eine kleinere Rolle spielt. Die einzige logische Parallele zwischen CPUs und VPUs in letzter Zeit liegt IMO im letzten Satz, sonst sind die Vergleiche eher merkwuerdig. Die Saga geht naehmlich auch weiter mit den Opterons direkt vor der Tuer...
Iceman346
2003-09-12, 20:27:49
Original geschrieben von Winter[Raven]
Also, ich weiss wirklich nicht wie einige Drauf kommen. DOOM III ist laut JC in derlage Außenlandschaften zuerstellen nur zum Hardwarepreis.
Genau darum gehts. Bei HL2 sind die Hardwareanforderungen für grosse Gebiete anscheinend deutlich niedriger. Ergo ist die Engine für alles was nicht in engen Gängen stattfinden soll die bessere Wahl.
Ailuros
2003-09-12, 20:29:29
Original geschrieben von thop
was mit Kyle und nV abläuft weiss jeder. frag mal auf beyond3d, die sagen dir schon bescheid.
Ich brauch gar nichts B3D fragen. Ich bin mit allen Kerlen drueben im staendigen Kontakt, und dass nicht heute sondern schon seit der Geburt der Seite.
Es ist kein Geheimnis dass Kyle schon seit 3dfx Zeiten ein gutes Verhaeltnis mit Brian Burke hatte. Wenn Brian morgen von ATI eingestellt wird, moechte ich mal gerne sehen in welche Richtung Deine tolle Theorie wohl wandeln wird.
Demirug
2003-09-12, 20:33:33
Original geschrieben von Quasar
Von welchen Größenordnungen an Speicher reden 'wir' hier? Ich kann mir schwerlich vorstellen, daß man eine solch schwerwiegende Entscheidung von einer Transistormenge ~500k Transistoren abhängig machen würde.
Ich habe eine Zahl mit 16 KB was so um die 800KT benötigen dürfte. Möglicherweise ist auch soviel verbaut worden. Wenn man aber dann die Pipeline länger machen muss als ursprünglich geplannt war kostet das schon transitoren und man hätte den Speicher zum kompensieren ebenfalls noch grösser machen müssen. Und wenn dir deine FAB sagt das du am limit bist hast du dann verloren.
Ailuros
2003-09-12, 20:33:39
Original geschrieben von Exxtreme
Aaach, komm.
Kyle stand mit dem Rücken zur Wand und deswegen schrieb er den Artikel. :)
Ich hab auch nie was von absoluter Integritaet behauptet. Aber dass Kyle ATI-feindlich ist oder unfair zu deren Produkte will ich auch nicht einstecken. Eventuell koennte ich eine gewisse Matrox/Parhelia Feindlichkeit zugeben, aber ein toller Performer war diese ja eigentlich nie...
Ailuros
2003-09-12, 20:37:35
ROFL ich hab jetzt erst gemerkt wieviele parallele Debatten in diesem Thread zur Zeit vorgehen. Wo ist mein Kaffee? Fuer ein Kaffekraenzchen ist das hier ein bisschen zu trocken ;D
LovesuckZ
2003-09-12, 20:44:16
Riptor, hast du heute deinen Gefuehlstag?
Eine andere schoene Sache an den HL2 benches ist doch, dass Valve es verbietet, den Beta bench mit einem Betatreiber zu testen. Ich meine, wozu nur offizielle nehmen, wenn die zu testende Spieleversion auch von der offiziellen entfernt ist und sowieso kein user diese benutzen kann? Deto 51.75 nur Presse, HL2 Bench nur Presse...
Im Endeffekt ist doch [Nvidia] sowieso immer der Arsch, oder?
;D
Original geschrieben von Ailuros Eventuell koennte ich eine gewisse Matrox/Parhelia Feindlichkeit zugeben, aber ein toller Performer war diese ja eigentlich nie...
Wenn du dich da mal nicht täuscht. Die G400MAX war seinerzeit die schnellste Karte und konnte später sogar mit einer GeForce1 mithalten (32bit). Falls du Parhelia meinst hast du natürlich recht.
Wenn Brian Burke morgen von ATI angestellt wird wandert Kyle mit. Das änder doch nichst an meiner Theorie sondern bestätigt sie nur :)
dildo4u
2003-09-12, 20:50:08
Original geschrieben von LovesuckZ
Riptor, hast du heute deinen Gefuehlstag?
Eine andere schoene Sache an den HL2 benches ist doch, dass Valve es verbietet, den Beta bench mit einem Betatreiber zu testen. Ich meine, wozu nur offizielle nehmen, wenn die zu testende Spieleversion auch von der offiziellen entfernt ist und sowieso kein user diese benutzen kann? Deto 51.75 nur Presse, HL2 Bench nur Presse...
Im Endeffekt ist doch [Nvidia] sowieso immer der Arsch, oder?
;D
Sorry du bringts hier was über Doom3 benches die von einer version V00.2 stammen das game selber sehen wir mit viel glück im herbst 2004 toll vor allem weil Doom3 ja auch so geil mit der zukunft nämlich DX9 game vergleichbar ist und dann ist der HL2 Bench auch noch nicht repersentativ weils so ne frühe version ist obwhol das game in 2-3 wochen kommt denkste wirklich die ändern da noch was an der Engine?Wie viele games werden den wohl 2004 auf DX9 setzen und wie viele auf opengl?
Lethargica
2003-09-12, 20:52:54
Hm...zum Einen freu ich mich....yes HL wird wohl ziemlich gut auf meinem Sys flutschen.
Zum Anderen find ichs natürlich scheiße was hier mit der nVidia Hardware abgeht. Auch als ATI besitzer sollte man sich nicht darüber freuen dass Games nun so explizit auf bestimmte Hardware geschrieben werden. Ich für meinen Teil finds ziemlich scheiße, sollte sich bis zum Release nichtmehr ändern.
Hab keine Lust mir für Spiel Nr.1 ne ATi für Spiel Nr.2 ne Nvidia und fürs übernächte noch nen AMD/Intel Prozessor kaufen zu müssen.
Quasar
2003-09-12, 20:56:06
Original geschrieben von Demirug
Ich habe eine Zahl mit 16 KB was so um die 800KT benötigen dürfte. Möglicherweise ist auch soviel verbaut worden. Wenn man aber dann die Pipeline länger machen muss als ursprünglich geplannt war kostet das schon transitoren und man hätte den Speicher zum kompensieren ebenfalls noch grösser machen müssen. Und wenn dir deine FAB sagt das du am limit bist hast du dann verloren.
Klar, irgendwann geht's nicht mehr weiter. Aber grad so eine kritische Geschichte wie die TR zu knapp zu bemessen.... da hätte ich lieber den TV-Encoder abgeschossen oder meinetwegen sogar was am HSR, welches unter Dauerlast ja eh zu heiss wird....
Ailuros
2003-09-12, 21:00:46
Original geschrieben von thop
Wenn du dich da mal nicht täuscht. Die G400MAX war seinerzeit die schnellste Karte und konnte später sogar mit einer GeForce1 mithalten (32bit). Falls du Parhelia meinst hast du natürlich recht.
Wenn Brian Burke morgen von ATI angestellt wird wandert Kyle mit. Das änder doch nichst an meiner Theorie sondern bestätigt sie nur :)
Sie bestaetigt was? Das es ein ganz anderes Kapitel ist wenn man ein Anhaenger einer gewissen Person ist und nicht eines gewissen IHVs? Den Unterschied sollte man begreifen koennen.
Es steht Matrox/Parhelia in meinem vorigen Post.
Riptor
2003-09-12, 21:05:10
Original geschrieben von LovesuckZ
Riptor, hast du heute deinen Gefuehlstag?
Eine andere schoene Sache an den HL2 benches ist doch, dass Valve es verbietet, den Beta bench mit einem Betatreiber zu testen. Ich meine, wozu nur offizielle nehmen, wenn die zu testende Spieleversion auch von der offiziellen entfernt ist und sowieso kein user diese benutzen kann? Deto 51.75 nur Presse, HL2 Bench nur Presse...
Im Endeffekt ist doch [Nvidia] sowieso immer der Arsch, oder?
;D
1. habe ich immer Gefühle... ;)
2. ist ATI der Depp für mich... In meinen Augen... Allgemein gesehen hast du natürlich mit dem [Platzhalter] recht!
Und: Klar werden die Kiddies nachher wieder rumlaufen und meinen, "Wow, meine R9800 Pro roxxxxxort" und "FX suxxoort" etc., aber denen muss dann wieder mühselig beigebracht werden, was an der Sache schief gelaufen ist... Aber die komme dann wieder mit "aber auf THG stands geschrieben!!!" *Wüüüaaaaääääärrrrrgggg* Man kann es lassen... aber ich kann das meistens nicht so stehen lassen --> recherchieren, auswerten und aufklären ist sozusagen mein Job...
3. damit fängt also der Sche*ss wieder an und muss mir dann von unzähligen Membern hier im Forum in jeder zweiten Diskussion anhören, wie peinlich doch ATI sei und was die sich erlauben würden, bei nVidia würde es so etwas nicht geben etc... Und die andere Seite flamt dann zurück und ich klick mal wieder auf das rote [X] weil es mir auf den Geist geht... :)
Ich habe halt nicht erwartet, dass so ein Blödsinn von Valve und Co. veröffentlich wird... Auf dem man dann noch Monate später drauff rumreiten wird.
Sie bestaetigt was? Das es ein ganz anderes Kapitel ist wenn man ein Anhaenger einer gewissen Person ist und nicht eines gewissen IHVs? Den Unterschied sollte man begreifen koennen.Wenn man aber nur wegen einem guten Kontakt ein Anhänger ist bestätigt das meine Theorie voll.
Es steht Matrox/Parhelia in meinem vorigen Post.Falls du Parhelia meinst hast du natürlich recht.
lesen bildet :)
Riptor
2003-09-12, 21:09:42
Original geschrieben von J0hN|Cl4rK
Hm...zum Einen freu ich mich....yes HL wird wohl ziemlich gut auf meinem Sys flutschen. Zum Anderen find ichs natürlich scheiße was hier mit der nVidia Hardware abgeht. Auch als ATI besitzer sollte man sich nicht darüber freuen dass Games nun so explizit auf bestimmte Hardware geschrieben werden. Ich für meinen Teil finds ziemlich scheiße, sollte sich bis zum Release nichtmehr ändern. Hab keine Lust mir für Spiel Nr.1 ne ATi für Spiel Nr.2 ne Nvidia und fürs übernächte noch nen AMD/Intel Prozessor kaufen zu müssen.
Beschreibt haargenau meine Gefühlslage... ;)
ice cool69
2003-09-12, 21:12:20
ich finds auch beschissen dass man mit einem bestimmten spiel im arsch ist mit seiner grafikkarte, ic will mit meiner ALLE SPIELE spielen können bzw. nicht eingeschränkt sein.
alle die sich darüber freuen können ticken in meinen augen nicht mehr richtig.
trotzdem ertappe ich mich selber beim schmunzeln wenn die herren die sich immer darüber lustig gemacht haben dass auf meiner radeon das eine oder andere spiel nicht gut gelaufen ist jetzt vor angst (dass das spiel nicht auf ihrer favorisierten karte läuft) "in die hosen machen".
für alle neutralen die ne nvidia-karte haben tuts mir hingegen leid und ich hoffe dass sich das bessert.
in der praxis ist das vs/ps 2.0+ der gffx-reihe anscheinend eher ein vs/ps2.0-, falsch ausgedrückt aber ihr wisst was ich meine.
Exxtreme
2003-09-12, 21:14:26
Original geschrieben von ice cool69
ich finds auch beschissen dass man mit einem bestimmten spiel im arsch ist mit seiner grafikkarte, ic will mit meiner ALLE SPIELE spielen können bzw. nicht eingeschränkt sein.
alle die sich darüber freuen können ticken in meinen augen nicht mehr richtig.
trotzdem ertappe ich mich selber beim schmunzeln wenn die herren die sich immer darüber lustig gemacht haben dass auf meiner radeon das eine oder andere spiel nicht gut gelaufen ist jetzt vor angst (dass das spiel nicht auf ihrer favorisierten karte läuft) "in die hosen machen".
für alle neutralen die ne nvidia-karte haben tuts mir hingegen leid und ich hoffe dass sich das bessert.
in der praxis ist das 2.0+ der gffx-reihe anscheinend eher ein 2.0-, falsch ausgedrückt aber ihr wisst was ich meine.
ROFL,
so geht's mir grad irgendwie auch. :D
Die gelbe Eule
2003-09-12, 21:19:36
steht so bei gamestar.de rum:
Ein erst gestern von Valve präsentierter Half-Life 2-Leistungsvergleich zwischen ATI- und Nvidia-Grafikchips soll ungültig sein. Dies gab Nvidia in einer Mitteilung bekannt. In den von Gabe Newell (Valve) veröffentlichten Ergebnissen schneiden Nvidia-Chips teilweise erheblich schlechter ab als die Konkurrenz von ATI.
»Wir fragen uns, warum Valve die 45er-Treiber (Anm. d. Red.: Hier sind Detonator-Treiber mit Versionsnummer 45 gemeint) als Testgrundlage nutzt -- noch bis vor zwei Wochen haben wir eng mit Valve am 50er-Treiber gearbeitet […]«
, sagt Nvidia. Die laut Nvidia stark überarbeiteten 50er-Treiber sollen deutliche Leistungszuwächse, besonders in Hinblick auf Shader-Effekte, erreichen. Weiter heißt es in dem Schreiben:
»Die im Internet veröffentlichten Benchmarks, basierend auf den 45er-Teibern, sind ungültig, weil sie nicht die 50er-Treiber nutzen«.
Schließlich, so Nvidia, werde die nächste Detonator-Version noch vor Half-Life 2 veröffentlicht. Eigene Benchmark-Ergebnisse nennt der Chipgigant allerdings nicht.
Zudem fragt man sich bei Nvidia, warum Entwickler Valve »nicht auf mögliche Probleme hingewiesen hat« -- eine legitime Frage. Denn wie wir bereits vor einem Monat berichtet haben, steckt anscheinend eine strategische Partnerschaft zwischen ATI und Valve hinter Ereignissen wie diesen. Zusätzlich gehen wir davon aus, dass ATIs nächste Radeon-Generation die jüngst präsentierten Benchmark-Ergebnisse verbessern wird. Interessant: Der Half-Life 2-Benchmark erscheint am 30. September, was mit dem Erscheinen des neuen Silizium-Bündels von ATI zusammenpassen könnte.
Riptor
2003-09-12, 21:24:17
Original geschrieben von Exxtreme
ROFL,
so geht's mir grad irgendwie auch. :D
:D Da ist wirklich was dran... :)
@ die elektrische eule: Das wird auf jeden Fall nochmal ein neues Flame-Gewitter hervorrufen...
DeadMeat
2003-09-12, 21:26:15
ich wette das wird der größte Fanboy kampf seit 3dfx!
Die gelbe Eule
2003-09-12, 21:26:24
ich hoffe doch ... aber siehe meine sig :P
Gast2000
2003-09-12, 21:30:25
Original geschrieben von die elektrische eule
ich hoffe doch ... aber siehe meine sig :P
Ja, und wenn man deine Postings so durchliest kann man stark annehmen das du von beidem mehr als genug hast....
Leonidas
2003-09-12, 21:35:36
Original geschrieben von Gast
zeigt diesmal nicht die Kompetenz wie man sie sonst gewohnt ist. Hier wird impliziert, dass die Benchmarks zu HL2 nicht aussagekräftig bezüglich der Leistungsfähigkeit der aktuellen Grafikkarten sind und dass Doom3 wieder alles ins wahr Licht rückt.
Was soll das?!?!?!?!
Der Satz bedeutet, daß die Höhe des Hypes um die HL2-Benchmarks nicht in richtiger Relation zur Bedeutung dieses Spiels bzw. dieser Engine steht. Der Satz bedeutet nicht, daß HL2 unwichtig wäre oder das allein D3 der wahre Benchmark ist (das kann ich zum jetzigen Zeitpunkt noch gar nicht wissen). Ich wollte mit diesem Satz nur ausdrücken, daß Grafikkarten-Käufer nicht zu 99% ihrer Zeit vor HL2 sitzen.
Quasar
2003-09-12, 21:35:47
Original geschrieben von Gast2000
Ja, und wenn man deine Postings so durchliest kann man stark annehmen das du von beidem mehr als genug hast....
Schade, daß das Gastrecht immer und immer wieder mißbraucht wird.
Kein Wunder, daß es kaum noch wo ohne Registrierung geht.
edit:
Quote eingefügt, da der Boss sich vorgedrängelt hat.
ice cool69
2003-09-12, 21:36:25
das dachte ich mir dass es hier mehreren so geht. was man sich zur zeit einer r8500 nicht alles anhören musste...
Die gelbe Eule
2003-09-12, 21:36:56
Original geschrieben von Gast2000
Ja, und wenn man deine Postings so durchliest kann man stark annehmen das du von beidem mehr als genug hast....
muss ich nicht verstehn oder?
Leonidas
2003-09-12, 21:40:20
Original geschrieben von die elektrische eule
Ein erst gestern von Valve präsentierter Half-Life 2-Leistungsvergleich zwischen ATI- und Nvidia-Grafikchips soll ungültig sein.
Original von nVidia:
Over the last 24 hours, there has been quite a bit of controversy over comments made by Gabe Newell of Valve at ATIs Shader Day.
During the entire development of Half Life 2, NVIDIA has had close technical contact with Valve regarding the game. However, Valve has not made us aware of the issues Gabe discussed.
We're confused as to why Valve chose to use Rel. 45 - because up to two weeks prior to the Shader Day we had been working closely with Valve to ensure that Rel. 50 provides the best experience possible on NVIDIA hardware.
Regarding the Half Life2 performance numbers that were published on the web, these performance numbers are invalid because they do not use our Rel. 50 drivers. Engineering efforts on our Rel. 45 drivers stopped months ago in anticipation of release Rel. 50. NVIDIA's optimizations for Half Life 2 and other new games are included in our Rel.50 drivers - which reviewers currently have a beta version of today. Rel.50 is the best driver we've ever built - it includes significant optimizations for the highly-programmable GeForce FX architecture and includes feature and performance benefits for over 100 million NVIDIA GPU customers.
Pending detailed information from Valve, we are unaware of any issues with Rel. 50 and the drop of Half Life 2 that we have. The drop of Half Life 2 that we currently have is more than 2 weeks old. NVIDIA's Rel. 50 driver will be public before the game is available.Since we know that obtaining the best pixel shader performance out of GeForce FX GPUs currently requires some specialized work, our developer technology team works very closely with game developers to help them with this. Part of this is understanding that in many cases promoting PS 1.4 (DX8) to PS 2.0 (DX9) provides no image quality benefit. Sometimes this involves converting fp32 shader operations into fp16 shaders in order to obtain the performance benefit of this mode with no image quality degradation. Our goal is to provide our consumers the best experience possible, and that means games must both look and run great.
The optimal code path for ATI and NVIDIA GPUs is different - so trying to test them with the same code path will always disadvantage one or the other. The default settings for each game have been chosen by both the developers and NVIDIA in order to produce the best results for our consumers.
In addition to the developer efforts, our driver team has developed a next-generation automatic shader optimizer that vastly improves GeForce FX pixel shader performance across the board. The fruits of these efforts will be seen in our Rel.50 driver release. Many other improvements have also been included in Rel.50, and these were all created either in response to, or in anticipation of the first wave of shipping DX9 titles, such as Half Life 2.
We are committed to working with Gabe to fully understand his concerns and with Valve to ensure that 100+ million NVIDIA consumers get the best possible experience with Half Life 2 on NVIDIA hardware.
Original geschrieben von Leonidas
Original von nVidia:
Over the last 24 hours, there has been quite a bit of controversy over comments made by Gabe Newell of Valve at ATIs Shader Day.
During the entire development of Half Life 2, NVIDIA has had close technical contact with Valve regarding the game. However, Valve has not made us aware of the issues Gabe discussed.
We're confused as to why Valve chose to use Rel. 45 - because up to two weeks prior to the Shader Day we had been working closely with Valve to ensure that Rel. 50 provides the best experience possible on NVIDIA hardware.
Regarding the Half Life2 performance numbers that were published on the web, these performance numbers are invalid because they do not use our Rel. 50 drivers. Engineering efforts on our Rel. 45 drivers stopped months ago in anticipation of release Rel. 50. NVIDIA's optimizations for Half Life 2 and other new games are included in our Rel.50 drivers - which reviewers currently have a beta version of today. Rel.50 is the best driver we've ever built - it includes significant optimizations for the highly-programmable GeForce FX architecture and includes feature and performance benefits for over 100 million NVIDIA GPU customers.
Pending detailed information from Valve, we are unaware of any issues with Rel. 50 and the drop of Half Life 2 that we have. The drop of Half Life 2 that we currently have is more than 2 weeks old. NVIDIA's Rel. 50 driver will be public before the game is available.Since we know that obtaining the best pixel shader performance out of GeForce FX GPUs currently requires some specialized work, our developer technology team works very closely with game developers to help them with this. Part of this is understanding that in many cases promoting PS 1.4 (DX8) to PS 2.0 (DX9) provides no image quality benefit. Sometimes this involves converting fp32 shader operations into fp16 shaders in order to obtain the performance benefit of this mode with no image quality degradation. Our goal is to provide our consumers the best experience possible, and that means games must both look and run great.
The optimal code path for ATI and NVIDIA GPUs is different - so trying to test them with the same code path will always disadvantage one or the other. The default settings for each game have been chosen by both the developers and NVIDIA in order to produce the best results for our consumers.
In addition to the developer efforts, our driver team has developed a next-generation automatic shader optimizer that vastly improves GeForce FX pixel shader performance across the board. The fruits of these efforts will be seen in our Rel.50 driver release. Many other improvements have also been included in Rel.50, and these were all created either in response to, or in anticipation of the first wave of shipping DX9 titles, such as Half Life 2.
We are committed to working with Gabe to fully understand his concerns and with Valve to ensure that 100+ million NVIDIA consumers get the best possible experience with Half Life 2 on NVIDIA hardware.
Kann das mal wer in groben Zügen übersetzen? Bitte...
Exxtreme
2003-09-12, 21:46:00
Original geschrieben von die elektrische eule
steht so bei gamestar.de rum:
Ein erst gestern von Valve präsentierter Half-Life 2-Leistungsvergleich zwischen ATI- und Nvidia-Grafikchips soll ungültig sein. Dies gab Nvidia in einer Mitteilung bekannt. In den von Gabe Newell (Valve) veröffentlichten Ergebnissen schneiden Nvidia-Chips teilweise erheblich schlechter ab als die Konkurrenz von ATI.
»Wir fragen uns, warum Valve die 45er-Treiber (Anm. d. Red.: Hier sind Detonator-Treiber mit Versionsnummer 45 gemeint) als Testgrundlage nutzt -- noch bis vor zwei Wochen haben wir eng mit Valve am 50er-Treiber gearbeitet […]«
, sagt Nvidia. Die laut Nvidia stark überarbeiteten 50er-Treiber sollen deutliche Leistungszuwächse, besonders in Hinblick auf Shader-Effekte, erreichen. Weiter heißt es in dem Schreiben:
»Die im Internet veröffentlichten Benchmarks, basierend auf den 45er-Teibern, sind ungültig, weil sie nicht die 50er-Treiber nutzen«.
Schließlich, so Nvidia, werde die nächste Detonator-Version noch vor Half-Life 2 veröffentlicht. Eigene Benchmark-Ergebnisse nennt der Chipgigant allerdings nicht.
Zudem fragt man sich bei Nvidia, warum Entwickler Valve »nicht auf mögliche Probleme hingewiesen hat« -- eine legitime Frage. Denn wie wir bereits vor einem Monat berichtet haben, steckt anscheinend eine strategische Partnerschaft zwischen ATI und Valve hinter Ereignissen wie diesen. Zusätzlich gehen wir davon aus, dass ATIs nächste Radeon-Generation die jüngst präsentierten Benchmark-Ergebnisse verbessern wird. Interessant: Der Half-Life 2-Benchmark erscheint am 30. September, was mit dem Erscheinen des neuen Silizium-Bündels von ATI zusammenpassen könnte.
Naja, das typische Rumgeheule halt. Kennt man aber schon. :)
LovesuckZ
2003-09-12, 21:46:28
Original geschrieben von Leonidas
Original von nVidia:
We're confused as to why Valve chose to use Rel. 45 - because up to two weeks prior to the Shader Day we had been working closely with Valve to ensure that Rel. 50 provides the best experience possible on NVIDIA hardware.
Wenn dies stimmen sollte, dann verstehe ich den Anti - Deto 5x.xx Kommentar nicht...
Quasar
2003-09-12, 21:46:49
Das hatten wir doch schon längst auf Seite 4 oder so....
LovesuckZ
2003-09-12, 21:47:23
Original geschrieben von Exxtreme
Naja, das typische Rumgeheule halt. Kennt man aber schon. :)
Der Teil von Nvidia oder Gamestar? :)
Original geschrieben von Leonidas
Der Satz bedeutet, daß die Höhe des Hypes um die HL2-Benchmarks nicht in richtiger Relation zur Bedeutung dieses Spiels bzw. dieser Engine steht. Der Satz bedeutet nicht, daß HL2 unwichtig wäre oder das allein D3 der wahre Benchmark ist (das kann ich zum jetzigen Zeitpunkt noch gar nicht wissen). Ich wollte mit diesem Satz nur ausdrücken, daß Grafikkarten-Käufer nicht zu 99% ihrer Zeit vor HL2 sitzen.
Stimmt, wenn das Spiel draußen ist, sitze ich zu 100% meiner Freizeit daran. ;D
Exxtreme
2003-09-12, 21:49:02
Original geschrieben von LovesuckZ
Wenn dies stimmen sollte, dann verstehe ich den Anti - Deto 5x.xx Kommentar nicht...
Naja, der Deto 5x.xx dürfte noch unter dem NDA stehen, d.h. niemand dürfte irgendwelche Ergbnisse posten... nicht mal Valve, ausser sie haben Bock mehrere hundert Tausend $$$ wegen Vertragsbruches rüberwachsen zu lassen. :)
Exxtreme
2003-09-12, 21:49:35
Original geschrieben von LovesuckZ
Der Teil von Nvidia oder Gamestar? :)
Ich würde sagen... Nvidia. :)
Riptor
2003-09-12, 21:51:59
Na also, dann is ja alles in Butter! Ich träum sowieso, dass irgendwann mal ATI und nVidia User zusammen über ihre Hardware diskutieren, ohne gleich mit dem Messer aufeinander loszugehen, weil alle Spiel gleichgut laufen... ;) Aber das wär ja dann auch wieder langweilig... So fehlt eben die Würze, die allerdings auch nicht alles versalzen sollte. :)
/e: Hmmmm seit Leos Beitrag sind mal wieder 50 neue Beiträge dazwischen getuscht... :D
LovesuckZ
2003-09-12, 21:52:03
Original geschrieben von Exxtreme
Naja, der Deto 5x.xx dürfte noch unter dem NDA stehen, d.h. niemand dürfte irgendwelche Ergbnisse posten... nicht mal Valve, ausser sie haben Bock mehrere hundert Tausend $$$ wegen Vertragsbruches rüberwachsen zu lassen. :)
Vielleicht ist de NDA ja heut schon gefallen? Wer weiß.
/edit: Ausserdem denke ich nicht, dass Nvidia Valve verboten habe, bei einer HL2 Praesentation den Treiber nicht zu verwenden. So wie ich es aus ihren Kommentaren rauslese, koennte dies so sein.
Die gelbe Eule
2003-09-12, 21:52:16
seite 5 war von gestern, der gamestar artikel ist von heute =)
Exxtreme
2003-09-12, 21:53:35
Original geschrieben von LovesuckZ
Vielleicht ist de NDA ja heut schon gefallen? Wer weiß.
Also wenn das NDA gefallen wäre, dann dürftest du dich vor lauter Deto 5x.xx-Reviews kaum noch retten können. ;)
P.S.
Original geschrieben von LovesuckZ
/edit: Ausserdem denke ich nicht, dass Nvidia Valve verboten habe, bei einer HL2 Praesentation den Treiber nicht zu verwenden. So wie ich es aus ihren Kommentaren rauslese, koennte dies so sein.
NDA heisst im Normalfall absolutes Totalverbot.
LovesuckZ
2003-09-12, 21:54:46
Original geschrieben von Exxtreme
Also wenn das NDA gefallen wäre, dann dürftest du dich vor lauter Deto 5x.xx-Reviews kaum noch retten können. ;)
Eventuell lassen die alle erst mal die HL2 Welle vorrüber schwappen.
ice cool69
2003-09-12, 21:55:21
wenn ich nvidia wäre und der deto50 wirklich so genial ist würde ich das dingens aber schnellstens rausbringen. diese meldung dürfte schon jetzt genug käufer zu ati rübergetrieben haben bzw. die gffx-verkäufe ins stocken gebracht haben...
das image wird darunter jedenfalls langfristig leiden sollte der det50 nicht wirklich diesen boost für die vs bringen.
wie gesagt eigentlich wünsch ich mir immer dass das spiel auf aller hardware möglichst gut läuft aber manchmal kann ich mir bei manchen personen das grinsen eben nicht verkneifen
(greets @ rh,ls und ow)
edit:
ich würde hier keinem raten vom det50 wunder zu erwarten. er wird alles hoffentlich etwas relativieren (ich wünsche keinem dass er bei hl2 vor der tür bleiben muss) aber zum gleichziehen wirds wohl nicht reichen.
ich hab bedenken dass nvidia mit dieser aussage mal wieder zu viel hoffnung weckt die dann wieder in enttäuschung endet...
Riptor
2003-09-12, 21:57:20
Original geschrieben von LovesuckZ
Eventuell lassen die alle erst mal die HL2 Welle vorrüber schwappen.
Damit dann wieder zurückgeschossen wird? :) Wird definitiv schlimmer als 3Dfx gegen nVidia! :D
*Popcorn mach*
Schrotti
2003-09-12, 21:58:02
Ich hab beide Karten (FX5900 Ultra/Radeon 9800PRO) hier also ist es mir egal.
Was mir allerdings nicht egal ist, ist der Mist mit ihrem Steam :(
Mfg Schrotti
LovesuckZ
2003-09-12, 21:58:40
Original geschrieben von Exxtreme
NDA heisst im Normalfall absolutes Totalverbot.
Anscheinend kümmert sich Nvidia dadrum zur Zeit aber net, die haben wohl wichtigere Dinge zu tun :D
Naja, auf GameStar geb ich garnix mehr.
Wenn, wie NV sagt, mit Valve eng zusammengearbeitet worden wäre, wäre das was Valve gestern veröffentlich hat, ein Schlag unter die Gürtellinie. Kann mir nicht vorstellen, daß das im Sinne von Valve wäre, da die Mehrheit der Coputerbesitzer NV-Produkte in ihren Rechnern hat. Nur mit 'ATI-Käufern' kann Valve nicht glücklich werden.
Die gelbe Eule
2003-09-12, 21:59:04
glaub ich eher weniger, das so viele leute sich das nich 10x überlegen bei einer 400€ + karte.
ich finds komisch das ati so schnell neue refresh chips bringt, die wollten doch ihre versions lifespan etwas erhöhen.
wenn das mal nicht irgendwann die kosten sprengen läßt ...
Riptor
2003-09-12, 22:02:16
Original geschrieben von ice cool69
(greets @ rh,ls und ow)
Du meinst wohl eher ra als ls, oder? Und: Die werden auch schön wieder zurückgrinsen... Deshalb: :fuck: <-- :nono: und eher so :bier: ... ;)
Original geschrieben von Demirug
höchstens der Treiber kann etwas an der Peakleistung ändern aber wenn man sich mal am Hardwarelimit befindet geht auch über den Treibern nichts mehr.
Die Software hat aber einen Einfluss darauf wie viel Prozent von der Peakleistung auch wirklich genutzt werden.
vielleicht ein Indiz für den relativ an der Rohleistung gemessen schwachen Vorsprung der 9800er zur 9600er (auch wenn das eigentlich wenig Sinn macht)??
ice cool69
2003-09-12, 22:04:21
die lifespan eines grafikchips haben sie doch deutlich erhöht, der r300 und seine refreshs (die refreshs zählen noch zur selben lebensspanne bzw. sind ja keine neuen grafikchips) ist ja schon recht lange am markt und wird wohl vor 2004 nicht abgelöst werden.
sowohl nvidia als auch ati haben gesagt sie werden die lebensspanne einer chipentwicklung verlängern da die neuentwicklung zu teuer wird aber sie haben auch gesagt aus diesem grund mehr refreshs zu bringen die einfach nur höhere taktraten bzw. minimale veränderungen aufweisen können.
Exxtreme
2003-09-12, 22:04:50
Original geschrieben von LovesuckZ
Anscheinend kümmert sich Nvidia dadrum zur Zeit aber net, die haben wohl wichtigere Dinge zu tun :D
Spielt keine rolle ob NV was Wichtigeres zu tun hat.
Ein NDA ist ein gültiger Vertrag und wenn jemand den Vertrag bricht, dann wird's teuer für denjenigen. Das kannst du mir glauben.
50.xx Benchmarks gabs heut doch schon 2 oder 3. Bei allen Spielen waren nur ~5% drin (UT2003, X2, ...), nur beim PS2.0 Test von 3DMARK03 waren es knapp über 20% mehr Leistung. Ein Schelm wer böses dabei denkt.
Und Valve hat doch schon gesagt warum sie den 50.xx nicht verwendet haben: die Optimierungen (sprich Cheaterei) sei sehr zweifelhaft.
LovesuckZ
2003-09-12, 22:07:10
Original geschrieben von thop
Und Valve hat doch schon gesagt warum sie den 50.xx nicht verwendet haben: die Optimierungen (sprich Cheaterei) sei sehr zweifelhaft.
Jaja, weil diese Cheats in der Testphase vor 2 Wochen nicht aufgefallen waeren. Ist schons ehr glaubwürdig...
ice cool69
2003-09-12, 22:08:12
@ riptor
wüsste nicht was die zu grinsen hätten :D
aber von denen abgesehn freuts mich wie schon gesagt nicht dass nvidia mal dick hinten liegt, mir ist nämlich starker konkurrenzkampf lieber als nur 1er am drücker...
Die gelbe Eule
2003-09-12, 22:11:53
wen ihr alle vom 50er redet, aber der 51er wichtig wird, dann kann noch viel in der perfomance passieren oder? =)
Schrotti
2003-09-12, 22:11:54
Das wird genauso ein Kampf wie AMD vs. Intel und nichts anderes.
Ich würde erstmal abwarten was sich ergibt denn das spekulieren bringt uns auch nicht weiter.
Mfg Schrotti
Original geschrieben von LovesuckZ
Jaja, weil diese Cheats in der Testphase vor 2 Wochen nicht aufgefallen waeren.
Natürlich sind die aufgefallen. Das ist doch der Grund warum Gabe die nicht verwenden will. Oder ich versteh deinen Beitrag nicht.
Schrotti
2003-09-12, 22:13:29
Original geschrieben von thop
Natürlich sind die aufgefallen. Das ist doch der Grund warum Gabe die nicht verwenden will. Oder ich versteh deinen Beitrag nicht.
Das denke ich auch.
LovesuckZ
2003-09-12, 22:15:33
Original geschrieben von thop
Natürlich sind die aufgefallen. Das ist doch der Grund warum Gabe die nicht verwenden will. Oder ich versteh deinen Beitrag nicht.
Nvidia und Valve haben vor 2 Wochen gemeinsam am Deto 5x.xx gearbeitet,um ihn zur "best experience possible on NVIDIA hardware" zu machen.
Dau kommt noch, dass der liebe Gabe keine Screens oder andere Beweise lieferte.
Riptor
2003-09-12, 22:16:20
Original geschrieben von thop
50.xx Benchmarks gabs heut doch schon 2 oder 3. Bei allen Spielen waren nur ~5% drin (UT2003, X2, ...), nur beim PS2.0 Test von 3DMARK03 waren es knapp über 20% mehr Leistung. Ein Schelm wer böses dabei denkt.
Bei Gunmetal sinds 11%... :) Also doppelt so viel, wie du sagst... ;)
Und Valve hat doch schon gesagt warum sie den 50.xx nicht verwendet haben: die Optimierungen (sprich Cheaterei) sei sehr zweifelhaft.
Wer will das nachprüfen?
Original geschrieben von ice cool69
@ riptor
wüsste nicht was die zu grinsen hätten :D
Stimmt eigentlich... Momentan jedenfalls nicht! :D Aber RH würde dann sofort meinen, dass die FX5200 ja um sooo viel besser als eine R9200 ist und blabla. ;)
mir ist nämlich starker konkurrenzkampf lieber als nur 1er am drücker...
Ich hoff, die kommen auf eine ähnliche Performance...
Riptor
2003-09-12, 22:18:08
Original geschrieben von Schrotti
Das wird genauso ein Kampf wie AMD vs. Intel und nichts anderes.
Achwo, das wird alles noch schlimmer! ;D
Omnicron
2003-09-12, 22:18:12
Ich schmeiss das einfach mal hier rein, weil das auch aus dem Nvidia Statement zu HL2 kommt :
In addition to the developer efforts, our driver team has developed a next-generation automatic shader optimizer that vastly improves GeForce FX pixel shader performance across the board. The fruits of these efforts will be seen in our Rel.50 driver release. Many other improvements have also been included in Rel.50, and these were all created either in response to, or in anticipation of the first wave of shipping DirectX 9 titles, such as Half Life 2.
Wie soll ich mir denn einen automatischen Shaderoptimierer vorstellen ? Beim Spielen werden dann versch. Methoden durchgetestet, und die schnellste wird dann für das Spiel übernommen ?
D.h. ein Spiel erreicht seine max. FPS erst nach einer Aufwärmzeit, weil sich der Treiber justieren muss ?
(del676)
2003-09-12, 22:19:18
och jo - die lieben besserwisser beschuldigen nv schon jetzt der cheaterei beim det50
ein schelm wer denkt dies seien ati user :eyes:
gott geht mir so ein kindergarten aufn sack
Original geschrieben von Riptor
Achwo, das wird alles noch schlimmer! ;D :bad2:
Schrotti
2003-09-12, 22:20:10
Original geschrieben von Omnicron
Ich schmeiss das einfach mal hier rein, weil das auch aus dem Nvidia Statement zu HL2 kommt :
Wie soll ich mir denn einen automatischen Shaderoptimierer vorstellen ? Beim Spielen werden dann versch. Methoden durchgetestet, und die schnellste wird dann für das Spiel übernommen ?
D.h. ein Spiel erreicht seine max. FPS erst nach einer Aufwärmzeit, weil sich der Treiber justieren muss ?
Das währe ja wie ein Röhrenfernseher der erst warm werden muss.
Mfg Schrotti
Original geschrieben von Ulukay
och jo - die lieben besserwisser beschuldigen nv schon jetzt der cheaterei beim det50
das wäre ja auch mal was ganz neues dass nVidia cheatet! weltpremiere sozusagen :lolaway:
Riptor
2003-09-12, 22:20:48
Kann mir das auch nicht ganz so vorstellen, wie das funktionieren soll, denke, die sprechen da das 8*1/4*2Design an...
*DemirugRuf*
*LeonidasRuf*
*Restliche3DCenterCrewRuf*
Erklärt uns doofies das mal... :D
/e: Wird ja bestimmt noch ein ausführlicher Artikel nachgereicht. ;)
Demirug
2003-09-12, 22:21:13
Original geschrieben von Omnicron
Ich schmeiss das einfach mal hier rein, weil das auch aus dem Nvidia Statement zu HL2 kommt :
Wie soll ich mir denn einen automatischen Shaderoptimierer vorstellen ? Beim Spielen werden dann versch. Methoden durchgetestet, und die schnellste wird dann für das Spiel übernommen ?
D.h. ein Spiel erreicht seine max. FPS erst nach einer Aufwärmzeit, weil sich der Treiber justieren muss ?
Nein, der Optimizier muss nur einmal bei erzeugen des Shaders darüber laufen. Die Abhandlung zu den Details spare ich mir jetzt aber lieber (Ist ein Mehrstündiger Vortrag).
EDIT: Erzeugen heist hier das der Treiber den Shader vom Spiel übergeben bekommt was im normalfall einmal am Anfang passiert.
Schrotti
2003-09-12, 22:23:41
Original geschrieben von Demirug
Nein, der Optimizier muss nur einmal bei erzeugen des Shaders darüber laufen. Die Abhandlung zu den Details spare ich mir jetzt aber lieber (Ist ein Mehrstündiger Vortrag).
EDIT: Erzeugen heist hier das der Treiber den Shader vom Spiel übergeben bekommt was im normalfall einmal am Anfang passiert.
Mach nen Posting ich lese es.
Mfg Schrotti
Quasar
2003-09-12, 22:24:47
Original geschrieben von thop
50.xx Benchmarks gabs heut doch schon 2 oder 3. Bei allen Spielen waren nur ~5% drin (UT2003, X2, ...), nur beim PS2.0 Test von 3DMARK03 waren es knapp über 20% mehr Leistung. Ein Schelm wer böses dabei denkt.
Und Valve hat doch schon gesagt warum sie den 50.xx nicht verwendet haben: die Optimierungen (sprich Cheaterei) sei sehr zweifelhaft.
Mich wundert ehrlich gesagt, daß man in bestehenden Games überhaupt was merkt.
UT2003 und X² verwenden ja nicht allzuviele 2.0-Shader, oder?
Interessant wären nicht die blöden 3DMark-Werte sondern lieber TRAOD, Halo oder HL2-Benches. :D
Gast2
2003-09-12, 22:26:08
___________________________________________________________
Original geschrieben von Gast
zeigt diesmal nicht die Kompetenz wie man sie sonst gewohnt ist. Hier wird impliziert, dass die Benchmarks zu HL2 nicht aussagekräftig bezüglich der Leistungsfähigkeit der aktuellen Grafikkarten sind und dass Doom3 wieder alles ins wahr Licht rückt.
Was soll das?!?!?!?!
--------------------------------------------------------------------------------
Antwort von Leonidas:
Der Satz bedeutet, daß die Höhe des Hypes um die HL2-Benchmarks nicht in richtiger Relation zur Bedeutung dieses Spiels bzw. dieser Engine steht. Der Satz bedeutet nicht, daß HL2 unwichtig wäre oder das allein D3 der wahre Benchmark ist (das kann ich zum jetzigen Zeitpunkt noch gar nicht wissen). Ich wollte mit diesem Satz nur ausdrücken, daß Grafikkarten-Käufer nicht zu 99% ihrer Zeit vor HL2 sitzen.
_______________________________________________________
1. Das Spiel HL2 hat momentan eine größere Bedeutung für Gamer als DOOM3 weil es bald gezockt werden kann.
2. Zur Bedeutung der beiden Engines kann man nur spekulieren.
Egal wie man die Aussage dreht und wendet, der Vergleich zu Doom3 war und bleibt einfach unpassend. Natürlich (hoffentlich) wird jemand seine Kaufentscheidung nicht von einem Benchmark abhängig machen -steht außer Frage. Aber viele(!) werden wohl HL2 spielen wollen und somit wissen wollen wie ihre Grafikkarte mit dem Spiel läuft. Immerhin steht die Frage auf dem Spiel, ob auch die teuersten Grafikkarten das Spiel flüssig und! in voller Qualität darstellen können. Für eine aktuelle Kaufentscheidung bei hohen Investitionskosten doch schon wichtig.
PS:
Trotzdem warten (wenns schon in den Fingern juckt) auf aktuelle Treiber und natürlich das Spiel
DeadMeat
2003-09-12, 22:26:13
Dann fang mal an ich hab zeit :)
DeadMeat
2003-09-12, 22:26:56
ich meinte natührlich Demirug
Omnicron
2003-09-12, 22:27:11
Original geschrieben von Demirug
Nein, der Optimizier muss nur einmal bei erzeugen des Shaders darüber laufen. Die Abhandlung zu den Details spare ich mir jetzt aber lieber (Ist ein Mehrstündiger Vortrag).
EDIT: Erzeugen heist hier das der Treiber den Shader vom Spiel übergeben bekommt was im normalfall einmal am Anfang passiert.
Hmm wenn das so ist, dann wird für jedes Spiel der Shader ja auch irgendwo gespeichert.
Könnte der dann nicht auch von Hand nachträglich modifiziert werden ?
Also Vorstellung : Leute die sich damit gut auskennen könnten die Dateien nochmal persönlich überarbeiten, und dann z.b. als getunte Shader für ein Spiel ins Netz stellen.
LovesuckZ
2003-09-12, 22:28:34
Original geschrieben von Omnicron
Hmm wenn das so ist, dann wird für jedes Spiel der Shader ja auch irgendwo gespeichert.
Könnte der dann nicht auch von Hand nachträglich modifiziert werden ?
Also Vorstellung : Leute die sich damit gut auskennen könnten die Dateien nochmal persönlich überarbeiten, und dann z.b. als getunte Shader für ein Spiel ins Netz stellen.
Dazu müsste Nvidia ne Datenbank anlegen, um an die gespeicherten Daten zu kommen.
Exxtreme
2003-09-12, 22:29:47
Hier mal eine kurze Erklärung für den Shader-Optimizer. :)
Das Teil analysiert den Shader und schaut, wo man Anweisungen einsparen/Rechenoperationen günstiger verteilen kann/eine günstigere Shader-Befehlsreihenfolge wählt etc.
(del676)
2003-09-12, 22:31:33
Original geschrieben von thop
das wäre ja auch mal was ganz neues dass nVidia cheatet! weltpremiere sozusagen :lolaway:
oja - hier is ein ganz gscheider :lolaway:
beim roten Luke Skywalker (ATI) ist sowas natürlich noch NIE vorgekommen - nur beim grünen, bösartigen Darth Vader :eyes:
KIND WACH AUF
Demirug
2003-09-12, 22:31:59
Original geschrieben von Omnicron
Hmm wenn das so ist, dann wird für jedes Spiel der Shader ja auch irgendwo gespeichert.
Könnte der dann nicht auch von Hand nachträglich modifiziert werden ?
Also Vorstellung : Leute die sich damit gut auskennen könnten die Dateien nochmal persönlich überarbeiten, und dann z.b. als getunte Shader für ein Spiel ins Netz stellen.
Eine Shader-Datenbank ist nur eine Möglichkeit.
Es gibt auch noch die Möglichkeit den Shader durch einen Crosscompiler zu jagen.
EDIT: Exxtreme hat den Zusammenfassen Button für den Vortrag gefunden.
LovesuckZ
2003-09-12, 22:32:05
Original geschrieben von Exxtreme
Das Teil analysiert den Shader und schaut, wo man Anweisungen einsparen/Rechenoperationen günstiger verteilen kann/eine günstigere Shader-Befehlsreihenfolge wählt etc.
Sind die Shadercompiler schon so schnell, dass man keine Performance wegen der Berechnung verliert?
Schrotti
2003-09-12, 22:32:26
Original geschrieben von Omnicron
Hmm wenn das so ist, dann wird für jedes Spiel der Shader ja auch irgendwo gespeichert.
Könnte der dann nicht auch von Hand nachträglich modifiziert werden ?
Also Vorstellung : Leute die sich damit gut auskennen könnten die Dateien nochmal persönlich überarbeiten, und dann z.b. als getunte Shader für ein Spiel ins Netz stellen.
Und schon stehen den Cheatern wieder alle Türen offen :(
Da können die doch wer weiß was mit machen.
Mfg Schrotti
Exxtreme
2003-09-12, 22:33:25
Original geschrieben von LovesuckZ
Sind die Shadercompiler schon so schnell, dass man keine Performance wegen der Berechnung verliert?
Bruchteile von Sekunden und das meist, bevor ein Level geladen ist. :)
Sprich, in der Praxis gar nicht zu bemerken.
LovesuckZ
2003-09-12, 22:33:58
Original geschrieben von Exxtreme
Bruchteile von Sekunden und das meist, bevor ein Level geladen ist. :)
Schick.
Demirug
2003-09-12, 22:35:31
Original geschrieben von LovesuckZ
Sind die Shadercompiler schon so schnell, dass man keine Performance wegen der Berechnung verliert?
Das muss ja nur einmal beim Programmstart gemacht werden. Die Shader sind so kurz das es auch nicht viel Zeit in Anspruch nimmt.
Quasar
2003-09-12, 22:36:27
Läßt sich in etwa abschätzen, wie nahe die so kompilierten Shader an das Optimum herankommen? ~90-95%?
Original geschrieben von Demirug
Das muss ja nur einmal beim Programmstart gemacht werden. Die Shader sind so kurz das es auch nicht viel Zeit in Anspruch nimmt.
Das ist Optimieren zur Laufzeit?
Exxtreme
2003-09-12, 22:41:09
Original geschrieben von kmf
Das ist Optimieren zur Laufzeit?
Japp.
@ Quasar
Es hängt wohl vom Shader selbst ab, wie gut er nachträglich optimiert werden kann.
Wenn dieser in einer HLSL an den Treiber übergeben wird, dann ist die Chance für eine gute Optimierung höher als wenn dieser in diesem Assembler-Code vorliegt.
Demirug
2003-09-12, 22:41:21
Original geschrieben von kmf
Das ist Optimieren zur Laufzeit?
Ja. Laufzeit ist in der Spieleentwicklung alles was erst beim Endkunden geschieht wenn er das Spiel startet.
x-dragon
2003-09-12, 22:44:34
Und wo war da nochmal der Haken? Aus irgendeinem Grund sollte das doch zu komplex bzw. zu schwierig sein, um es jetzt schon in einem Treiber einzubauen. Hab ich zumindest vor einigen Tagen hier noch irgendwo gelesen.
Demirug
2003-09-12, 22:44:54
Original geschrieben von Exxtreme
Es hängt wohl vom Shader selbst ab, wie gut er nachträglich optimiert werden kann.
Genau.
Wenn dieser in einer HLSL an den Treiber übergeben wird, dann ist die Chance für eine gute Optimierung höher als wenn dieser in diesem Pseudo-Assembler-Code vorliegt.
Das DX9 DDK erlaubt nur die übergabe von Pseudo-Assembler-Code. Allerdings kann ein HLSL compiler in diesem Pseudo-Assembler-Code ein paar hints verstecken.
Ich müsste mal nachprüfen ob die Kommentare bis zum Treiber durchgeschoben werden. weil dann könnte man ja alles mögliche in den Treiber bekommen
Ganz schön hitzige Diskussion. Über 600 Posts. Mal sehen wie viele es morgen sind?!
Ich mach jetzt Schluß, die Freundin wird sonst sauer!!
Nochmal an das 3DCenter-Team:
Ihr seid super, macht weiter so.
Nicht alle Gäste sind unhöflich und versuchen nur zu motzen. Also hoffe ich, dass ihr keine Registrierungspflicht bei euch einführt, dann melde ich mich mal wieder. Immerhin mußte ich auch feststellen, dass hier einige (keine Namen) registrierte User unhöflich, persönlich oder inkompetent argumentieren.
nggalai
2003-09-12, 22:49:14
Original geschrieben von LovesuckZ
Vielleicht ist de NDA ja heut schon gefallen? Wer weiß.Montag, resp. seit dem Montag gilt eine deutlich lockerere NDA. Aber für die Shader Day Präsentation hat's nicht mehr gereicht, und bei dem Parcours, den die Valve/ATI-Fritzen mit den Testkisten am machen sind, offenbar auch nicht für eine Re-Installation.
93,
-Sascha.rb
Gast2
2003-09-12, 22:49:54
Ganz schön hitzige Diskussion. Über 600 Posts. Mal sehen wie viele es morgen sind?!
Ich mach jetzt Schluß, die Freundin wird sonst sauer!!
Nochmal an das 3DCenter-Team:
Ihr seid super, macht weiter so.
Nicht alle Gäste sind unhöflich und versuchen nur zu motzen. Also hoffe ich, dass ihr keine Registrierungspflicht bei euch einführt, dann melde ich mich mal wieder. Immerhin mußte ich auch feststellen, dass hier einige (keine Namen) registrierte User unhöflich, persönlich oder inkompetent argumentieren.
Demirug
2003-09-12, 22:50:53
Original geschrieben von X-Dragon
Und wo war da nochmal der Haken? Aus irgendeinem Grund sollte das doch zu komplex bzw. zu schwierig sein, um es jetzt schon in einem Treiber einzubauen. Hab ich zumindest vor einigen Tagen hier noch irgendwo gelesen.
Ja es ist nicht einfach aus diesem Grund ist es in den Treibern vor 50.00 auch nur sehr rudimentär enthalten. Aber irgendwas müssen die Treiberentwickler ja in den letzten Wochen und Monaten programmiert haben. Wobei man sicherlich noch nicht am Optimum ist. Je näher man aber an dieses kommt desto schwieriger wird es. Bei den ersten 50er Detos scheint man sich primär auf die Reduktion von Tempregistern sowie dem umsortieren der Anweisungen konzentriert zu haben.
Original geschrieben von Demirug
Ja. Laufzeit ist in der Spieleentwicklung alles was erst beim Endkunden geschieht wenn er das Spiel startet.
Richtig. Ich als Endkunde will optimale Leistung mit der Hardware, die ich gerade habe. Der Treiber prüft diese und stellt mir im Spielemenü Optionen vor (von mir aus auch schon voreingestellt), die mit meinem System möglich bzw. sinnvoll wären.
Ja, da will ich hin.
nggalai
2003-09-12, 22:52:43
Original geschrieben von Quasar
Läßt sich in etwa abschätzen, wie nahe die so kompilierten Shader an das Optimum herankommen? ~90-95%? 40% dürften als realistischer Maximalwert drin liegen, pro Shader.
93,
-Sascha.rb
P.S. was ausdrücklich NICHT heisst, dass damit auch die ganze Applikation 40% an Speed zulegt. ;) -.rb
Exxtreme
2003-09-12, 22:53:31
Original geschrieben von kmf
Richtig. Ich als Endkunde will optimale Leistung mit der Hardware, die ich gerade habe. Der Treiber prüft diese und stellt mir im Spielemenü Optionen vor (von mir aus auch schon voreingestellt), die mit meinem System möglich bzw. sinnvoll wären.
Ja, da will ich hin.
Das ist vielleicht für dich die optimale Lösung. :D
Die Spiele-Entwickler denken da schon etwas anders. :D
Was ist wenn der Shader-Compiler im Treiber einen Bug hat? Dann schreien die Kunden, daß das Spiel buggy ist. :D
x-dragon
2003-09-12, 22:56:18
Original geschrieben von Demirug
Ja es ist nicht einfach aus diesem Grund ist es in den Treibern vor 50.00 auch nur sehr rudimentär enthalten. Aber irgendwas müssen die Treiberentwickler ja in den letzten Wochen und Monaten programmiert haben. Wobei man sicherlich noch nicht am Optimum ist. Je näher man aber an dieses kommt desto schwieriger wird es. Bei den ersten 50er Detos scheint man sich primär auf die Reduktion von Tempregistern sowie dem umsortieren der Anweisungen konzentriert zu haben. Ahja danke. Dann kann man also auf jeden Fall von Nvidias-Seite noch einige "optimierte"-Treiber erwarten. Bin mal gespannt wieviel sich da noch so an Leistung rausholen läßt ...
Original geschrieben von Exxtreme
Was ist wenn der Shader-Compiler im Treiber einen Bug hat? Dann schreien die Kunden, daß das Spiel buggy ist. :D
Oder vielleicht einen Schalter: ATI | nVidia ;D
/edit
war jetzt blöder Witz :bonk:
Thowe
2003-09-12, 23:03:21
Original geschrieben von X-Dragon
Ahja danke. Dann kann man also auf jeden Fall von Nvidias-Seite noch einige "optimierte"-Treiber erwarten. Bin mal gespannt wieviel sich da noch so an Leistung rausholen läßt ...
Mein Tipp dazu wäre
http://www.thowe.de/3dcenter/fx1.jpg
oder aber "NVIDIA®: The way it's meant to be delayed"
Ich glaube an kein HL2 Wunder (ausser mit qualitativen Anpassungen), etwas anders dürfte es mit Doom III aussehen. Hoffen tue ich allerdings, das NV wenigstens in die Nähe der R9800P kommt, auch wenns etwas Qualität kosten mag. Die meisten schauen eh nur auf die Länge der Balken.
Demirug
2003-09-12, 23:03:21
Original geschrieben von Exxtreme
Das ist vielleicht für dich die optimale Lösung. :D
Die Spiele-Entwickler denken da schon etwas anders. :D
Was ist wenn der Shader-Compiler im Treiber einen Bug hat? Dann schreien die Kunden, daß das Spiel buggy ist. :D
Die Treiberprogrammier bringen es auch immer wieder fertig absolute simple Sachen kaputt zu bekommen. Es wird sich also nicht wirklich soviel an der Situation ändern.
Quasar
2003-09-12, 23:04:26
Original geschrieben von nggalai
40% dürften als realistischer Maximalwert drin liegen, pro Shader.
93,
-Sascha.rb
P.S. was ausdrücklich NICHT heisst, dass damit auch die ganze Applikation 40% an Speed zulegt. ;) -.rb
Nee,
ich meinte nicht, wieviel der Speed zulegt, sondern wieviel Spielraum bis zum realen Optimum nach so einem on-the-fly kompilieren noch verbleibt.
Quasi die Effizienz des Compiler.
Demirug
2003-09-12, 23:04:29
Original geschrieben von kmf
Oder vielleicht einen Schalter: ATI | nVidia ;D
/edit
war jetzt blöder Witz :bonk:
Nicht wirklich. Der neue MS HLSL Compiler hat sowas wie diesen Schalter.
Leonidas
2003-09-12, 23:05:37
Original geschrieben von Exxtreme
Naja, der Deto 5x.xx dürfte noch unter dem NDA stehen, d.h. niemand dürfte irgendwelche Ergbnisse posten... nicht mal Valve, ausser sie haben Bock mehrere hundert Tausend $$$ wegen Vertragsbruches rüberwachsen zu lassen. :)
Ich DARF und ich HABE ihn. Leider hab ich kein HL2 !!!
Original geschrieben von nggalai
40% dürften als realistischer Maximalwert drin liegen, pro Shader.
93,
-Sascha.rb
P.S. was ausdrücklich NICHT heisst, dass damit auch die ganze Applikation 40% an Speed zulegt. ;) -.rb
Ich denke Quasar bezog sich auf die Ausnutzung der Pipelines in den FXen. S.s Demis Tabelle bzgl. Anzahl Tempregister.
Original geschrieben von Leonidas
Ich DARF und ich HABE ihn. Leider hab ich kein HL2 !!!
Frag doch mal Kai. ;D
nggalai
2003-09-12, 23:07:36
Hola Quasar,
Original geschrieben von Quasar
Nee,
ich meinte nicht, wieviel der Speed zulegt, sondern wieviel Spielraum bis zum realen Optimum nach so einem on-the-fly kompilieren noch verbleibt.
Quasi die Effizienz des Compiler. Ah, ok. Nach allem, was ich bisher davon gehört habe, soll's schonmal "ganz ganz gut" sein, aber spätere Treiberrevisionen sollen da noch zulegen. Müsste man halt mal probieren, wenn die Dinger öffentlich zugänglich sind.
93,
-Sascha.rb
Demirug
2003-09-12, 23:09:22
Original geschrieben von Quasar
Nee,
ich meinte nicht, wieviel der Speed zulegt, sondern wieviel Spielraum bis zum realen Optimum nach so einem on-the-fly kompilieren noch verbleibt.
Quasi die Effizienz des Compiler.
Das ist eine Funktion welche sich mit der Dauer der Treiberentwicklung den 100% annähert. Allerdings nicht linear sondern eher in Form einer Logarithmusfunktion
Exxtreme
2003-09-12, 23:11:51
Original geschrieben von Thowe
http://www.thowe.de/3dcenter/fx1.jpg
oder aber "NVIDIA®: The way it's meant to be delayed"
Geil. ;D
Das Bildchen würde als ein Avatar gut passen. ;D
;( ;(
X-D
Original geschrieben von Ulukay
oja - hier is ein ganz gscheider :lolaway:
beim roten Luke Skywalker (ATI) ist sowas natürlich noch NIE vorgekommen - nur beim grünen, bösartigen Darth Vader :eyes:
KIND WACH AUF
ich lasse das mal so stehen.
Original geschrieben von LovesuckZ
Ach du meinst, dass dies: "To outline the facts we [hardocp]: A. Benchmarked on hardware put together and owned by HardOCP. B. Benchmarked using a demo recorded by id at the id offices the day of the benchmarking previously unseen by NVIDIA. c. No scripting language coded by NVIDA was used." (http://www.hardocp.com/article.html?art=NDc0) mit dem gleichzusetzen sei, was ATi und vorallem Valve abziehen?
Traeum weiter.
hat sich erledigt oder wurden alle nun veröffentlichten benches auf dem gleichen system gemacht ?
Original geschrieben von Exxtreme
Geil. ;D
Das Bildchen würde als ein Avatar gut passen. ;D
;( ;(
X-D
Stimmt, als eben Thowe das gepostet hat, mußte ich schallend lachen. Bestes Posting heute abend. :D
Exxtreme
2003-09-12, 23:14:31
Original geschrieben von kmf
Stimmt, als eben Thowe das gepostet hat, mußte ich schallend lachen.
Ich auch. ;D
Zuerst habe ich das gar nicht kapiert. :bonk:
Aber dann. ;D
nggalai
2003-09-12, 23:14:45
Original geschrieben von Gast
hat sich erledigt oder wurden alle nun veröffentlichten benches auf dem gleichen system gemacht ? Sieht momentan so aus, als ob Valve/ATI wie die Weltmeister dieselben Maschinen von Reviewer zu Reviewer schleifen würde.
93,
-Sascha.rb
In denen stecken vermutlich per Hand gelötete optimierte ATI Karten ;) Am 30.9 wissen wir alle die Wahrheit. Aber ich persönlich erwarte keine Wunder von Treibern oder sonstwas, 50-100% Zuwachs ist sicher utopisch. 20% für nV halte ich für realistisch.
Demirug
2003-09-12, 23:20:16
Original geschrieben von nggalai
Sieht momentan so aus, als ob Valve/ATI wie die Weltmeister dieselben Maschinen von Reviewer zu Reviewer schleifen würde.
93,
-Sascha.rb
Inkl. qualifiziertem Bedienpersonal. Als "Full Bench Service" würde ich das mal bezeichnen.
Wir liefern:
- das Programm
- die Timedemo
- die Hardware
- und den Benchsklaven
Ihr Valve/ATI Benchservice.
x-dragon
2003-09-12, 23:22:11
Original geschrieben von Thowe
Mein Tipp dazu wäre
...
oder aber "NVIDIA®: The way it's meant to be delayed"
Ich glaube an kein HL2 Wunder (ausser mit qualitativen Anpassungen), etwas anders dürfte es mit Doom III aussehen. Hoffen tue ich allerdings, das NV wenigstens in die Nähe der R9800P kommt, auch wenns etwas Qualität kosten mag. Die meisten schauen eh nur auf die Länge der Balken. Wow, so einen Hightech-Diaprojektor habe ich echt noch nicht gesehen, sogar mit LC-Display? Läuft der vollautomatisch, oder per Handbetrieb? :D
Ansonsten stimme ich dir zu, allerdings bezog ich meine Aussage eher auf die zukünftige weitere Treiberentwicklung. Die normalen Treibervergleiche könnte in Zukunft richtig interessant werden :).
Original geschrieben von Demirug
Inkl. qualifiziertem Bedienpersonal. Als "Full Bench Service" würde ich das mal bezeichnen.
Wir liefern:
- das Programm
- die Timedemo
- die Hardware
- und den Benchsklaven
Ihr Valve/ATI Benchservice.
... und daß mir keiner von den Gästen die Kiste berührt...
Das Ganze ist schon etwas suspekt. Bin mal gespannt, was sich da in den nächsten Tagen noch tut.
Original geschrieben von kmf
... und daß mir keiner von den Gästen die Kiste berührt...
Das Ganze ist schon etwas suspekt. Bin mal gespannt, was sich da in den nächsten Tagen noch tut.
Naja, wenn ich mein neues Powerbook bekomme darf das auch keiner ausser mir anfassen
nggalai
2003-09-12, 23:30:47
Ja--aber eben: wenn die Kisten eh immer dieselben sind, und alles, was der "unabhängige Webjournalist" machen darf, mündlich nach Script und Einstellungen zu fragen, sollten da echt die Alarmglocken bei den Lesern läuten.
93,
-Sascha.rb
Winter[Raven]
2003-09-12, 23:31:16
Original geschrieben von Demirug
Inkl. qualifiziertem Bedienpersonal. Als "Full Bench Service" würde ich das mal bezeichnen.
Wir liefern:
- das Programm
- die Timedemo
- die Hardware
- und den Benchsklaven
Ihr Valve/ATI Benchservice.
Also, wenn das stimmt und das glaube ich so ist aber Valve + Ati sehr tief gesunken. Nichtmal die Marketing Abteilung von Nvidia hat sowas je abgezogen ... oder ?
Die Reinste verarschung gegen Nvidia !
Thowe
2003-09-12, 23:32:26
Original geschrieben von X-Dragon
Wow, so einen Hightech-Diaprojektor habe ich echt noch nicht gesehen, sogar mit LC-Display? Läuft der vollautomatisch, oder per Handbetrieb? :D
Oh, der kann sogar Diashows :D Kostet auch in etwa das, was auch die FX 5900 kostet, sollte ja ein fairer Vergleich bleiben.
Ist aber nicht als Flame gedacht, dann wäre ich fieser gewesen, nur als leichte Aufheiterung war mir hier etwas zu steril hier.
Ansonsten stimme ich dir zu, allerdings bezog ich meine Aussage eher auf die zukünftige weitere Treiberentwicklung. Die normalen Treibervergleiche könnte in Zukunft richtig interessant werden :).
Im Moment sehe ich es so, defacto ist entscheidend, wie die Performance der FX Karten zum Zeitpunkt vom erscheinen HL2 ist. Solange hat NV durchaus die Möglichkeit noch etwas zu zaubern und dann können wir lästern oder halt eben nicht.
Original geschrieben von nggalai
Ja--aber eben: wenn die Kisten eh immer dieselben sind, und alles, was der "unabhängige Webjournalist" machen darf, mündlich nach Script und Einstellungen zu fragen, sollten da echt die Alarmglocken bei den Lesern läuten.
93,
-Sascha.rb
nggalai, sie läuten nicht, sie machen einen Heidenlärm! :D
Das ist schon suspekt, aber wer glaubt denn ernsthaft dass Valve die Zahlen total verdreht nur damit 3 Wochen später rauskommt sie haben total gelogen. Die verkaufen dann doch kein Exemplar von HL2 mehr, und sind in der Community voll unten durch. Ich denke das glaubt keiner.
Die werden schon ihre Gründe haben warum da immer einer beisitzt.
Exxtreme
2003-09-12, 23:34:40
Original geschrieben von Winter[Raven]
Die Reinste verarschung gegen Nvidia !
Um es mal mit Richthofens Worten zu sagen:
"So läuft das nunmal".
Auch mir gefällt sowas nicht unbedingt. Und ob es eine "Verarsche" ist, wird sich's noch rausstellen wenn die Benchmarks draussen sind.
Ich glaube aber schon, daß diese Ergebnisse eher mehr als weniger stimmen da man sich sonst richtig blamiert wenn andere Leute versuchen werden diese Tests nachzuvollziehen.
Winter[Raven]
2003-09-12, 23:35:54
Original geschrieben von thop
Das ist schon suspekt, aber wer glaubt denn ernsthaft dass Valve die Zahlen total verdreht nur damit 3 Wochen später rauskommt sie haben total gelogen. Die verkaufen dann doch kein Exemplar von HL2 mehr, und sind in der Community voll unten durch. Ich denke das glaubt keiner.
Die werden schon ihre Gründe haben warum da immer einer beisitzt.
Naja ... vielleicht ist es auch die Strategie ... jetzt in den letzen wochen allen einzutrichtern wie gut und toll Ati doch ist, und dann wo das Game in den Regalen steht interessiert es dann doch ehe keinen ob jetzt Nvidia doch nächer liegt als es in heutigen Benches aussieht.
Die ganze Hardware scheinen ATI/Valve aber nicht zu stellen, denn erstens hat Anandtech einen P4 mit 3Ghz im Gegensatz zu den anderen die einen P4 mit 2,8Ghz hatten. Und zweitens hat Anandtech geschrieben, dass sie "nur" mit einer radeon 9800 mit 128MB Ram getestet haben, weil sie keine mehr mit 256MB hatten. (Diese waren für andere Reviews belegt.)
Naja da müssten die sich aber schon ne tolle Story einfallen lassen damit das jemand schluckt. So in die Richtung von: Oops im nV path waren noch 50% debug code drinnen.
Die einzige Möglichkeit ist wenn ATI HL2 sozusagen komplett aufgekauft hat, so daß Valve nicht mehr drauf angewisen ist auch nur ein einziges Exemplar zu verkaufe. Aber das dürfte so 50+ Millionen sein :)
(del676)
2003-09-12, 23:42:11
Original geschrieben von Leonidas
Ich DARF und ich HABE ihn. Leider hab ich kein HL2 !!!
wo bleiben die andeutungen auf die wir alle warten - müssn ja keine fps werte sein :D
Original geschrieben von Ulukay
wo bleiben die andeutungen auf die wir alle warten - müssn ja keine fps werte sein :D
Kann ich auch:
Er ist manchmal schneller. :)
(del676)
2003-09-12, 23:56:53
Original geschrieben von mayo
Kann ich auch:
Er ist manchmal schneller. :)
daraus kann ich sofort schliessen dass nvidia cheatet!
weil wenn ein nvidia treiber schneller wird ist das 100%ig cheating!
:eyes: :D
Winter[Raven]
2003-09-13, 00:01:04
Original geschrieben von Ulukay
daraus kann ich sofort schliessen dass nvidia cheatet!
weil wenn ein nvidia treiber schneller wird ist das 100%ig cheating!
:eyes: :D
Nicht das es in nächster Zeit doch noch war wird *fg* ... unserer Nagus wird bestimmt ab montag ständig F5 drücken auf der suche nach den ... :D ;) :)
Ahhh ... wenn Ati mit dem Cat. 3.7 bei COD und paar anderen, schneller geworden ist, ist das auch cheat ?
(del676)
2003-09-13, 00:03:13
Original geschrieben von Winter[Raven]
Ahhh ... wenn Ati mit dem Cat. 3.7 bei COD und paar anderen, schneller geworden ist, ist das auch cheat ?
oh nein - das ist natürlich die geballte Macht der Treiberprogrammierer :D
möge die Macht mit dir sein Luke :eyes:
Original geschrieben von thop
Das ist schon suspekt, aber wer glaubt denn ernsthaft dass Valve die Zahlen total verdreht nur damit 3 Wochen später rauskommt sie haben total gelogen. Die verkaufen dann doch kein Exemplar von HL2 mehr, und sind in der Community voll unten durch. Ich denke das glaubt keiner.
Die werden schon ihre Gründe haben warum da immer einer beisitzt.
Die Frage ist doch eher, warum NV nicht die gleiche Chance zum Benchen von Valve bekam.
Nahc allem was bisher so bekannt wurde denke ich mal:
die Leistung der Radeons in HL2 steht fest (Valve/ATi hat da sicher das max. rausgeholt), die Leistung der FXe wird sich in unabhängigen Benches zeigen müssen.
nggalai
2003-09-13, 00:04:15
Original geschrieben von Winter[Raven]
Ahhh ... wenn Ati mit dem Cat. 3.7 bei COD und paar anderen, schneller geworden ist, ist das auch cheat ? Natürlich--gleiches Recht auf hirnrissige Pauschalisierungen für alle! ;)
93,
-Sascha.rb
nggalai
2003-09-13, 00:05:09
Original geschrieben von ow
Die Frage ist doch eher, warum NV nicht die gleiche Chance zum Benchen von Valve bekam.Naja, DAS dürfte klar sein:
ATI ist Technology Partner von Valve. Das sollte auch ganz ohne Verschwörungstheorien die Situation erklären.
93,
-Sascha.rb
Die gelbe Eule
2003-09-13, 00:26:30
wieder was zur ps 2.0 performance gefunden ^^
http://www.amdmb.com/images/det5175/3dmark03-2.gif
macht glatte 26,4% ~ mehr =)
Original geschrieben von nggalai
Naja, DAS dürfte klar sein:
ATI ist Technology Partner von Valve. Das sollte auch ganz ohne Verschwörungstheorien die Situation erklären.
93,
-Sascha.rb
Nicht ganz.
Wenn ATi nur die Leistungsfähigkeit seiner HW auf HL2 demonstrieren will, was haben dann die GFFX-Benches da verloren? Es gibt im Inet doch auch massenhaft Reviews, wo nur ATi oder nur NV Karten getestet werden.
-error-
2003-09-13, 00:35:11
LOL 34Seiten 10davon sind bestimmt Spam vom Feinsten
Quasar
2003-09-13, 00:37:59
Original geschrieben von Powerd by ATI
LOL 34Seiten 10davon sind bestimmt Spam vom Feinsten
ja, :lol:. Da könnte man z.B. diese beiden Posts direkt entsorgen!
Schrotti
2003-09-13, 00:53:12
Original geschrieben von die elektrische eule
wieder was zur ps 2.0 performance gefunden ^^
http://www.amdmb.com/images/det5175/3dmark03-2.gif
macht glatte 26,4% ~ mehr =)
Na Wahnsinn das NV wieder irgendwas runterregeln muss um die Leitung zu steigern.
Ich bin begeistert.
Mfg Schrotti
Die gelbe Eule
2003-09-13, 00:58:12
was meinst du mit runterregeln?
Leonidas
2003-09-13, 01:00:25
Original geschrieben von Ulukay
wo bleiben die andeutungen auf die wir alle warten - müssn ja keine fps werte sein :D
Andeutungen für was? Ich hab kein HL2, das ist das Problem.
Winter[Raven]
2003-09-13, 01:05:27
Original geschrieben von Schrotti
Na Wahnsinn das NV wieder irgendwas runterregeln muss um die Leitung zu steigern.
Ich bin begeistert.
Mfg Schrotti
Und es wird den Nvidia Fans angedreht die würden nicht den Tatsachen ins Auge blicken.
Ein Tipp, denk doch bitte erstmal nach bevor du sowas postest, den Beweise für NVIDIA Treiber Schneller = Cheats/ herabsetzung der BQ sehe ich nicht.
Und dir sollte es schon nach den 35 Seiten, langsamm hämmern das die meisten hier, die Schnauze voll haben vor solchen Pauschalisierungen wie die du hier betreibst !
@ Ulukai
Du hast voll kommen recht:
daraus kann ich sofort schliessen dass nvidia cheatet!
weil wenn ein nvidia treiber schneller wird ist das 100%ig cheating!
Das beste beispiel dafür ist Schrotti ...
(del676)
2003-09-13, 01:12:16
Original geschrieben von Leonidas
Andeutungen für was? Ich hab kein HL2, das ist das Problem.
wayne juckt hl2? :D
traod wirst ja wohl habn
Die gelbe Eule
2003-09-13, 01:21:34
also ich habe keine 370€ + für ne neue grafikkarte, deswegen ist es mir egal was sich da oben tut. meine konnte ich mir auch nur leisten weil ich meine alte verkauft habe und so nur 225 € für ne nagelneue fx5900 latzte.
mich freut es wenn ich sehe das da noch viel passiert und an leistung rüberkommt. dann weiß ich das meine karte mehr leistet als ich erwartet habe.
aber von dem standpunkt gehen manche leute ja gar nicht aus, sondern flamen lieber blöde rum.
bleibt lieber beim thema und redet über den bench von hl2 und allem was damit an performance zusammenhängt, ansonsten können wir uns ja auch über multiplayer cheats unterhalten, die es noch gar nicht für hl2 gibt.
die anonymität des inets ist immer was feines zum schmuzeln ...
perforierer
2003-09-13, 01:25:10
Original geschrieben von ow
Die Frage ist doch eher, warum NV nicht die gleiche Chance zum Benchen von Valve bekam.
Nahc allem was bisher so bekannt wurde denke ich mal:
die Leistung der Radeons in HL2 steht fest (Valve/ATi hat da sicher das max. rausgeholt), die Leistung der FXe wird sich in unabhängigen Benches zeigen müssen.
Präziser: Die Leistung und Bildqualität wird sich zeigen müssen. Was ich bisher von den Optimierungen für die FX Karten höre ( a la mixed mode ) hat mich insoweit mißtrauisch gemacht.
Generell finde ich es bedenklich, dass wir langsam aber sicher wieder dahin kommen, dass bestimmte Spiele für eine bestimmte Graka extrem optimiert sind. Noch ist das nicht sicher, aber für den Enduser wäre das eher negativ. Vor allem wenn man bedenkt, wie unglaublich viel Topkarten heutzutage kosten. Da möchte man schon, dass die Spiele auf den Topkarten der beiden großen Hersteller vergleichbar gut laufen. Welchen Sinn haben Schnittstellen wie D3D und OpenGL, wenn letztlich der Unterschied in der Hardware so groß ist, dass wir bald wieder den Zustand haben wie seinerzeit mit Glide für die 3dfx Karten.
Schadenfreude sollte man sich als ATI User daher verkneifen.
(damit meine ich allgemein alle Threadteilnehmer, keinen bestimmten, auch nicht den zitierten ow. Man muss das ja leider hier dazu schreiben)
Auf Dauer schadet das allen Usern, egal ob mit nVidia oder ATI.
Was die Frage des Benchens seitens nVidia angeht: Ich finde es schon sehr eigenartig, dass nVidia sich darüber beschwert, dass nicht mit neuen Treibern getestet wurde, wenn über die allgemein noch ein NDA drauf ist.
Hätte man mit 5Xer Detos getestet hätte es sicher geheißen: "Die sind noch Beta!, was fällt euch ein!"
Und die Zweifel daran, dass Performancesteigerungen ohne Qualitätsverlust zustande kommen, haben ihren Grund nunmal in vergangenem Verhalten von nVidia. (Bitte dies nicht als Flame gegen nVidia verstehen, ich hatte noch nie ne ATI Karte!) Das ist genausowenig vergessen, wie zahlreiche vollmundige Ankündigungen von angeblichen Performancesteigerungen.
Das letzte mal, dass ich erhebliche Performancesteigerungen bei nem Deto gesehen hab war damals als sie noch einstellig waren. Muss ein 6er gewesen sein oder so...
Kampf Ameise
2003-09-13, 01:32:56
dx8.0 qualität:
http://www.rommel.stw.uni-erlangen.de/~sumpfmolch/dx_8_water.jpg
dx8.1 qualität:
http://www.rommel.stw.uni-erlangen.de/~sumpfmolch/dx_81_water.jpg
dx9.0 qualität:
http://www.rommel.stw.uni-erlangen.de/~sumpfmolch/dx_9_water.jpg
perforierer
2003-09-13, 01:38:12
Jo, die sind bekannt hier im Thread. Aber der Mixed Mode würde mich interessieren. Außerdem glaube ich, gerade was die Shader angeht, wird man die Qualität anhand von einer Szene nicht beurteilen können...
Kampf Ameise
2003-09-13, 01:41:34
Original geschrieben von perforierer
Jo, die sind bekannt hier im Thread. Aber der Mixed Mode würde mich interessieren. Außerdem glaube ich, gerade was die Shader angeht, wird man die Qualität anhand von einer Szene nicht beurteilen können...
wenn die bilder hier im thread schonmal gepostet worden sind, oder sehr viele meinen ich sollte es wieder rausnehemen da sie einfach die leitung zu stark belasten mach ich es raus, nur kurz hier posten das die bilder wieder weg sollen :D
perforierer
2003-09-13, 01:47:14
Original geschrieben von Kampf Ameise
wenn die bilder hier im thread schonmal gepostet worden sind, oder sehr viele meinen ich sollte es wieder rausnehemen da sie einfach die leitung zu stark belasten mach ich es raus, nur kurz hier posten das die bilder wieder weg sollen :D
Nö, lass drin. War nicht böse gemeint :)
Falls sich jemand beschwert kannste ja immer noch den img befehl rausnehmen.
Auf den Pics sieht ja 8.0 und 8.1 gleich aus. Mich würden Situationen interessieren, die einen Unterschied zwischen den beiden zeigen..und bewegte Bilder hätteb ich da dann auch gerne. Aber da werden wir noch warten üssen :D
Kampf Ameise
2003-09-13, 01:50:42
Original geschrieben von perforierer
Nö, lass drin. War nicht böse gemeint :)
Falls sich jemand beschwert kannste ja immer noch den img befehl rausnehmen.
Auf den Pics sieht ja 8.0 und 8.1 gleich aus. Mich würden Situationen interessieren, die einen Unterschied zwischen den beiden zeigen..und bewegte Bilder hätteb ich da dann auch gerne. Aber da werden wir noch warten üssen :D
also der unterschied zeigt sich in diesen bildern nur in der farbtiefe. also die rechengenauigkeit, deshalb ist bei dem dx.9 bild die farbe viel strahlender und bei dx8 sind sie "schmutziger" also mehr so grau "als ob man viele farben einfach gemischt hätte" bei dx9 sind die farben sauber und scharf.. und über dx9 sind vielleicht manche befehle schneller zu berechnen als mit dx8... (natürlich nur wenn die hardware für dx9 ausgelegt sit, also nicht so wie bei der fx klasse :D)
...naja also imho können die Bilder schon raus bzw nen Link zu den Bilder wäre beser. Hier gibt´s auch noch Modem User *zuOWschiel* ;)
...desweiterne is bei den Bilder^^ der "Unterschied" im Wasser bzw bei dem "Öl-Film/Refelektion" zu suchen.
DX8 PS1.1/1.3
der Schatten im Wasser von dem Stein im Hintergrund fehlt
DX8.1 PS1.4
Schatten is da, allerdings fehlt eine Art "Transparenz-Textur" (oder so) in der Öl-Film/Refelektion und da wo das Wasser an der Mauer anliegt
DX9 PS2.0
so hat sich der Entwickler das wohl vorgestellt ;)
cu
BUG
Original geschrieben von die elektrische eule
http://www.amdmb.com/images/det5175/3dmark03-2.gif
macht glatte 26,4% ~ mehr =)
Ja aber im GameTest4 ein bissl weniger :) Irgendwie ist das schon alles seltsam.
Ehrlich gesagt gefällt mir nicht was momentan in der Branche los ist, das ist alles total falsch, hinter jeder Ecke muss nen Cheat vermutet werden. Seit dem ATI mit dem Quack losgelegt hat, und nV dass dann perfektioniert hat, ists irgendwie doof.
perforierer
2003-09-13, 04:32:19
Genau das wollte ich ausdrücken in meinem längeren Posting vorher.
LovesuckZ
2003-09-13, 07:49:46
Original geschrieben von thop
Ja aber im GameTest4 ein bissl weniger :) Irgendwie ist das schon alles seltsam.
Eventuell hat Nvidia die Mothernature Optimierung rausgenommen und laesst die PS1.4 und 2.0 Shader über den Compiler laufen. Und da das Ergebnis 99% schlechter als das der Serverfarm sein werde, ist der kleine Leistungsverlust zu verkraften.
Das ist aber alles IMO.
@Leo
Wenn du so nett waerst, koenntest du dir Rightmark3d downloaden und gucken, ob die Shaderleistung im PS2.0 Test mit dem Deto 51.75 zugenommen habe? Dann koennte man auch sehen, ob der Compiler auch wirklich arbeitet.
What we did not like was the very limited time of only 90 minutes for the test runs. Some cards needed more than 20 minutes for a single configuration. This means there was no time for verification of the scores. In comparison, we had more than a whole day from 8:00 AM until midnight for the Doom III tests at NVIDIA early this year. (http://www.tomshardware.com/graphic/20030912/index.html)
90Minuten. Ohman, Valve...
We cooperated with Dave Baumann (Beyond3D), Brandon Bell (Firingsquad) and Bob Calayco (Gamespot) and used our shared time to run more tests. (http://www.tomshardware.com/graphic/20030912/half-life-03.html)
Lustig, dass gleich 4 Seiten sich gegenseitig helfen mussten, um genuegend Zeit zu bekommen.
Tja, wenn die ganze Sache mal kein Schuß nach hinten war für Valve...
Original geschrieben von LovesuckZ
Tja, wenn die ganze Sache mal kein Schuß nach hinten war für Valve... Die Aussage, dass vergleichbare ATI-Karten in HL2 einfach schneller sind, bleibt höchstwahrscheinlich auch für die Verkaufsversion gültig. Man kann am Benchmark kritisieren, die wesentliche Aussage würde wohl so oder so, bestehen bleiben.
Exxtreme
2003-09-13, 09:38:42
Hanners (bekannnt aus den R3D- und B3D-Foren) hat ein gutes Editorial geschrieben:
http://www.elitebastards.com/forum/viewtopic.php?t=2006
Original geschrieben von LovesuckZ
We cooperated with Dave Baumann (Beyond3D), Brandon Bell (Firingsquad) and Bob Calayco (Gamespot) and used our shared time to run more tests. (http://www.tomshardware.com/graphic/20030912/half-life-03.html)
Lustig, dass gleich 4 Seiten sich gegenseitig helfen mussten, um genuegend Zeit zu bekommen.
Tja, wenn die ganze Sache mal kein Schuß nach hinten war für Valve...
Wieso? Ergo hatten sie doch genügend Zeit? 4 x 90 Minuten..das dürrte zum benchen reichen.
Quasar
2003-09-13, 13:11:46
Offenbar hast du, lieber Gast, dich noch nicht so wirklich mit 'ordentlichen' Benchen auseinandergesetzt.
Bedenke: Es geht um 4 Karten in 2 Rechnern mit jeweils 3 Renderingpfaden in mind. 3 Auflösungen bei einem Test, wo man noch gar nicht weiss, wo man was und wie einstellen muss, damit es zum gewünschten Resultat führt.
Was z.B. (ACHTUNG, keine Verschwörungstheorie, sondern ein fiktives Beispiel!!) wenn der Entwickler sich mal Gedanken gemacht und die Anisotropie pro Textur(layer) festgelegt hat. Treiber A ignoriert dies jedoch und Treiber B befolgt es?
Offenbar hast Du, lieber Quasar, den Inhalt meines Postings nicht gelesen.
Ich habe lediglich gesagt, dass die Zeit ausreichend war. Dasse s immer problematisch ist, auf vorkonfigurierten Rigs zu testen hab ich keineswegs bestritten.
Und ja, lieber Quasar, ich denke, dass man in 6 Stunden ne Menge benches machen kann.
Quasar
2003-09-13, 13:40:29
Doch, lieber Gast, ich habe dein Posting gelesen und sogar den Inhalt zur Kenntnis genommen (ein Fehler?).
6 Stunden sind bei einem völlig unbekannten Spiel, auf dem einzelne Durchläufe bis zu 20 Minuten brauchten, in der Tat reichlich knapp, wenn man denn wirklich vergleichen und nicht nur einen vagen Eindruck wiedergeben will.
Original geschrieben von Quasar
Doch, lieber Gast, ich habe dein Posting gelesen und sogar den Inhalt zur Kenntnis genommen (ein Fehler?).
Billiges geflame kannst du Dir sparen.
Original geschrieben von Quasar
6 Stunden sind bei einem völlig unbekannten Spiel, auf dem einzelne Durchläufe bis zu 20 Minuten brauchten, in der Tat reichlich knapp, wenn man denn wirklich vergleichen und nicht nur einen vagen Eindruck wiedergeben will.
Dann empfehle ich Dir, in Zukunft keinerlei Benchmarkergebnisse von keiner Netzseite zu akzeptieren, sondern Dich nur noch auf selbstgemachte Benchmarks zu verlassen. Denn ich halte es für sehr zweifelhaft, dass die meisten Seiten mehr Zeit in einen Benchmark stecken, jedenfalls wenn ich mir die üblichen Benchmarks meist so ansehe.
Natürlich ist es immer besser, wenn man das Benchmarkprogramm in den "eigenen vier Wänden" hat und genügend Zeit exzessiv alles zu benchen, was einem in den Sinn kommt und das ohne Zeitdruck.
Dennoch halte ich 6 Stunden für ewig ausreichend.
Offensichtlich auch die entsprechenden Inetseiten. Sonst hätten sie ja auf das Benchen und die Veröffentlichung der Ergebnisse verzichten können.
Doch die Testbedingungen waren weit von dem Optimum entfernt. So sind u.a. auch die teils wiedersprüchlichen Ergebnisse zu erklären.
Quasar
2003-09-13, 14:07:52
Original geschrieben von Gast
Dann empfehle ich Dir, in Zukunft keinerlei Benchmarkergebnisse von keiner Netzseite zu akzeptieren, sondern Dich nur noch auf selbstgemachte Benchmarks zu verlassen.
Das tue ich schon seit geraumer Zeit. Allerdings gibt es ein Paar Seiten, denen ich mehr traue, als anderen. Auch wenn es darum geht, Benches, die unter relativ unkonvetionellen Bedingungen entstanden sind, korrekt zu interpretieren.
Original geschrieben von Gast
Dennoch halte ich 6 Stunden für ewig ausreichend.
Offensichtlich auch die entsprechenden Inetseiten. Sonst hätten sie ja auf das Benchen und die Veröffentlichung der Ergebnisse verzichten können.
Ich eben nicht. Und was die weitaus meisten Internetseiten angeht: News von gestern will keiner mehr lesen, deswegen wird oft alles veröffentlicht, was man irgendwie bekommen kann. Ob es dann später haltbar ist oder nicht, ist primär irrelevant, die Hits hat man im Kasten und genau darum geht's heutzutage leider nur noch: Geschäft.
Exxtreme
2003-09-13, 14:50:09
Heise hat was Neues:
http://www.heise.de/newsticker/data/ad-13.09.03-004/
Der neue Deto bringt in TROD ca. 5% mehr Leistung.
Original geschrieben von Exxtreme
Heise hat was Neues:
http://www.heise.de/newsticker/data/ad-13.09.03-004/
Der neue Deto bringt in TROD ca. 5% mehr Leistung.
Hast du auch das gelesen?
"Nvidia zeigt sich einmal mehr als ausgesprochen schlechter Verlierer und stellt mit Erleichterung fest, dass Valve den Erstverkaufstag von Half Life 2 gerade von November 2003 auf Februar 2004 verschoben hat:"
Bitte, bitte nicht!
[OT]
@ Quasar und die Mods
Jetzt sperrt endlich die Diskussionsforen für Unregs!!
Original geschrieben von Keel
Hast du auch das gelesen?
"Nvidia zeigt sich einmal mehr als ausgesprochen schlechter Verlierer und stellt mit Erleichterung fest, dass Valve den Erstverkaufstag von Half Life 2 gerade von November 2003 auf Februar 2004 verschoben hat:"
Bitte, bitte nicht!
[OT]
@ Quasar und die Mods
Jetzt sperrt endlich die Diskussionsforen für Unregs!!
ich war auch schockiert.
edit: Oder ist das schon länger bekannt?
LovesuckZ
2003-09-13, 15:05:27
Original geschrieben von mayo
edit: Oder ist das schon länger bekannt?
Nein. Zu erst hat es ein US Spiele - Online - Laden public gemacht. Jez Heise, mal sehen wir das endet.
Zu Tomb Raider 6: Ante P. meinte im Beyond3d.com Forum, dass Gesamtperformance in TR6 deutlich angestiegen waere, da er nun mit der 5900 nU es richtig spielen koenne (vorher nur mit einer stark übertakteten).
In der Beyond3d.com Demo steigt dagegen die Performance nicht an...
Thowe
2003-09-13, 15:06:41
Original geschrieben von mayo
ich war auch schockiert.
edit: Oder ist das schon länger bekannt?
Mein letzter Stand war AFAIR der 6 November und ich habe bislang an keiner anderen Stelle von einen neuen Termin gelesen, schauen wir mal.
Exxtreme
2003-09-13, 15:07:56
Hmm, kann sein, daß Heise sich irrt:
http://www.heise.de/newsticker/foren/go.shtml?read=1&msg_id=4184362&forum_id=47223
LovesuckZ
2003-09-13, 15:09:11
Original geschrieben von Exxtreme
Hmm, kann sein, daß Heise sich irrt:
http://www.heise.de/newsticker/foren/go.shtml?read=1&msg_id=4184362&forum_id=47223
Werden wir ja naechste Woche sehen, denn dann sollte HL2 Gold sein.
Quasar
2003-09-13, 15:12:12
Original geschrieben von Keel
[OT]
@ Quasar und die Mods
Jetzt sperrt endlich die Diskussionsforen für Unregs!!
Was hab' ich damit zu tun? Ich bin hier nur einfaches Member... =)
Was HL2 angeht:
Das wäre in der Tat doof, wenn es sich so weit nach hinten verschöbe. Dann kommt D3 womöglich doch noch früher auf den Markt, was?
Außerdem wäre es nicht sonderlich clever schon 5 Monate vor dem Erscheinen so viel Marketing zu betreiben.
Edit: Natürlich war die Benchmark Veröffentlichung mehr ATI-Marketing.
Die gelbe Eule
2003-09-13, 15:22:53
zwischen beta 51.75 und whql 51.75 werden welten liegen, doch kann es nur noch ne woche dauern, da ja dann die computex anfängt.
wir werden sehen was das alles bringt, wenn wir selbst benchen dürfen und so spezifischer diskutieren können, da wir unabhängiger sind...
Iceman346
2003-09-13, 15:24:03
Das diese Verschiebungsmeldung nur Heise bisher hat und sonst niemand gehe ich davon aus, dass es ein Vertun von Heise war. Grundsätzlich halte ich es momentan sowieso so, dass ich nur noch das glaube was wirklich von offizieller Seite kommt, der Rest stellt sich sowieso zu 95% als falsch heraus.
Die gelbe Eule
2003-09-13, 15:39:18
Normally, when you see benchmarks on TR with fancy graphs and the like, we have conducted the testing ourselves using test systems we've built and installed personally. That's not the case with these numbers, which were produced in a very controlled environment. ATI and Valve collaborated on the system setups, and my role in the process was reduced to specifying verbally which script should be run. A very protective ATI employee kept my hands off the keyboard and kicked off the scripts for me, so not even in that basic way can I claim these are "my" benchmark numbers.
nun klärt sich so einiges ...
da fällt mir ein: wer hat an der uhr gedreht?
Original geschrieben von die elektrische eule
zwischen beta 51.75 und whql 51.75 werden welten liegen[...]
Wie kommst du auf diese Vermutung? Was soll sich da von der Performance her denn noch großartig ändern?
Original geschrieben von Iceman346
Das diese Verschiebungsmeldung nur Heise bisher hat und sonst niemand gehe ich davon aus, dass es ein Vertun von Heise war. Grundsätzlich halte ich es momentan sowieso so, dass ich nur noch das glaube was wirklich von offizieller Seite kommt, der Rest stellt sich sowieso zu 95% als falsch heraus.
Dein Wort in Gottes Ohr. Ich halte es ja auch für einen Irrtum. Aber nur mal angenommen - ich glaub, ich krieg gleich nen Herzinfarkt. :D
Original geschrieben von mayo
Doch die Testbedingungen waren weit von dem Optimum entfernt. So sind u.a. auch die teils wiedersprüchlichen Ergebnisse zu erklären.
Keine Frage, sie waren weit vom Optimum entfernt.
Original geschrieben von Quasar
Das tue ich schon seit geraumer Zeit. Allerdings gibt es ein Paar Seiten, denen ich mehr traue, als anderen. Auch wenn es darum geht, Benches, die unter relativ unkonvetionellen Bedingungen entstanden sind, korrekt zu interpretieren.
Wenn Du denn Sinn der benches anzweifelst, brauchghst Dus ei eigentlich gar nicht interpretieren, sondern solltrest Du sie ignorieren. :)
Anyway, ich denke, die Benches haben ne gewisse Aussagekraft, jedenfalls glaube ich nicht, dass ein anderes Setup plötzlich die FX Serie als strahlenden DX9 Prtformer dargestellt hätte. Naja, wir werden sehen...
Original geschrieben von Keel
[OT]
@ Quasar und die Mods
Jetzt sperrt endlich die Diskussionsforen für Unregs!!
Wenn das auf meine Diskussion mit Quasar bezogen war, verstehe ichs nicht und finfs unfair.
Quasar
2003-09-13, 16:43:09
Original geschrieben von Gast
Anyway, ich denke, die Benches haben ne gewisse Aussagekraft, jedenfalls glaube ich nicht, dass ein anderes Setup plötzlich die FX Serie als strahlenden DX9 Prtformer dargestellt hätte. Naja, wir werden sehen...
Ja, das werden wir. Ich glaube auch nicht, dass die FXen die Radeons in der final von HL2 plötzlich in Grund und Boden rendern, aber so schlecht, wie sie jetzt aussehen, sind sie IMHO nicht. :)
Original geschrieben von Quasar
Ja, das werden wir. Ich glaube auch nicht, dass die FXen die Radeons in der final von HL2 plötzlich in Grund und Boden rendern, aber so schlecht, wie sie jetzt aussehen, sind sie IMHO nicht. :)
Von der Performance her glaub ich auch, dass noch bissi was drin ist. Man kann aber irgendwie bisher nicht sagen, ob das substanziell so viel wird, dass der Abstand deutlich verringert wird.
Ob die Deto 50er Optimierungen tatsächlich die dx9 Fähigkeiten verbessern..da hab ich irgendwie nach dem nVidia Kommentar zu den Benches Zweifel. Ich glaub irgendwie, das Sillizium gibt nicht mehr her, wäre aber erfreut, wenn es anders wäre :)
Und ob Qualität des Bildes bei den FX nicht doch leidet in diesem Mixed Mode?
Die gelbe Eule
2003-09-13, 19:48:22
den neuesten ergebnissen vom AM3 nach, ist die ultra vorne. also denke ich das da noch so einiges geht. und da kam mehr als 20 % bei rum.
LovesuckZ
2003-09-13, 19:49:41
Original geschrieben von die elektrische eule
den neuesten ergebnissen vom AM3 nach, ist die ultra vorne. also denke ich das da noch so einiges geht. und da kam mehr als 20 % bei rum.
Wie stark der Leistungsanstieg mit dem 51.75 seien werde, kann keiner genau wissen. Denn HL2 ist ein must-Have titelt, dass bedeutet, Nvidia wird auf jedenfalls mehr HL2 Optimierungen reinstecken als bei anderen Spielen.
Demirug
2003-09-13, 20:21:02
Da wir es hier ja schonmal von dem Shadercompiler hatten hier ein paar Aussagen die nVidia (Sim Dietrich) jetzt zu dem Thema gemacht hat:
- Der MS-HLSL arbeitet sehr gut (excellent)
- Allerdings stehen dem Compiler nicht genügend Informationen zur verfügung um einen Idealen NV3X Shader zu erzeugen.
- Der erste Grund ist das alle NV3X Chips sich minimal unterscheiden was Auswirkungen auf die idealen Shaderstruktur hat.
-Bestimmte Renderoptionen (z.B. Nebel) erfordern es das der Treiber die Shader um zusätzliche Anweisungen ergänzt.
-Benutzt man AF oder tri filter ist der ideale Shader ein anderer als bei einem reinen bi filter.
-Es gibt noch mehr dinge welche einen Einfluss haben.
Der Treiber restrukturiert deswegen jeden Shader situationsabhängig. Die 4X.XX sollen dabei nicht wirklich brauchbar sein.
Black-Scorpion
2003-09-13, 20:39:08
Original geschrieben von Demirug
Da wir es hier ja schonmal von dem Shadercompiler hatten hier ein paar Aussagen die nVidia (Sim Dietrich) jetzt zu dem Thema gemacht hat:
- Der MS-HLSL arbeitet sehr gut (excellent)
- Allerdings stehen dem Compiler nicht genügend Informationen zur verfügung um einen Idealen NV3X Shader zu erzeugen.
- Der erste Grund ist das alle NV3X Chips sich minimal unterscheiden was Auswirkungen auf die idealen Shaderstruktur hat.
-Bestimmte Renderoptionen (z.B. Nebel) erfordern es das der Treiber die Shader um zusätzliche Anweisungen ergänzt.
-Benutzt man AF oder tri filter ist der ideale Shader ein anderer als bei einem reinen bi filter.
-Es gibt noch mehr dinge welche einen Einfluss haben.
Der Treiber restrukturiert deswegen jeden Shader situationsabhängig. Die 4X.XX sollen dabei nicht wirklich brauchbar sein.
Dumme Frage.
Bedeutet das, das ein Entwickler garnicht für alle NV3x optimieren kann?
Er müßte ja dann für jeden NV3x einen "anderen" Shader schreiben.
perforierer
2003-09-13, 20:41:49
Original geschrieben von die elektrische eule
den neuesten ergebnissen vom AM3 nach, ist die ultra vorne. also denke ich das da noch so einiges geht. und da kam mehr als 20 % bei rum.
Was ist denn AM3?
LovesuckZ
2003-09-13, 20:42:48
Original geschrieben von perforierer
Was ist denn AM3?
Aquamark 3: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=93672
perforierer
2003-09-13, 20:47:57
Aso klar, mit der Abkürzung konnt ich nix anfangen. Dachte, Du meinst ne Netzseite :)
Demirug
2003-09-13, 20:48:32
Original geschrieben von Anonym_001
Dumme Frage.
Bedeutet das, das ein Entwickler garnicht für alle NV3x optimieren kann?
Er müßte ja dann für jeden NV3x einen "anderen" Shader schreiben.
Nein, es gibt ein paar Grundregeln für jeden Chip um die Details wird sich dann der Treiber kümmern..
Black-Scorpion
2003-09-13, 20:56:19
Original geschrieben von Demirug
Nein, es gibt ein paar Grundregeln für jeden Chip um die Details wird sich dann der Treiber kümmern..
Danke, wieder was dazu gelernt.
Die gelbe Eule
2003-09-13, 21:08:51
und 2.0 wurde ja erst ab 44.67 angesprochen ...
Original geschrieben von Demirug
Da wir es hier ja schonmal von dem Shadercompiler hatten hier ein paar Aussagen die nVidia (Sim Dietrich) jetzt zu dem Thema gemacht hat:
- Der MS-HLSL arbeitet sehr gut (excellent)
- Allerdings stehen dem Compiler nicht genügend Informationen zur verfügung um einen Idealen NV3X Shader zu erzeugen.
- Der erste Grund ist das alle NV3X Chips sich minimal unterscheiden was Auswirkungen auf die idealen Shaderstruktur hat.
-Bestimmte Renderoptionen (z.B. Nebel) erfordern es das der Treiber die Shader um zusätzliche Anweisungen ergänzt.
-Benutzt man AF oder tri filter ist der ideale Shader ein anderer als bei einem reinen bi filter.
-Es gibt noch mehr dinge welche einen Einfluss haben.
Der Treiber restrukturiert deswegen jeden Shader situationsabhängig. Die 4X.XX sollen dabei nicht wirklich brauchbar sein.
Und warum kommt dann nichts dabei raus, wenn man den PS2.0_a Pfad benutzt? (siehe Technologieforum)
Liegt das wirklich nur am Treiber?
LovesuckZ
2003-09-13, 21:13:26
Original geschrieben von Gast
Und warum kommt dann nichts dabei raus, wenn man den PS2.0_a Pfad benutzt? (siehe Technologieforum)
Liegt das wirklich nur am Treiber?
Demirug: "das 2.A mit 4X.XX Treibern nur in Ausnahmefällen was bringt wurde von nv inzwischen öffentlich bestätigt."
mezzo
2003-09-14, 00:57:23
Original geschrieben von Keel
dass Valve den Erstverkaufstag von Half Life 2 gerade von November 2003 auf Februar 2004 verschoben hat
Bitte, bitte nicht!
Anscheinend doch erst am 2.2.2004:
http://www.gamestop.com/product.asp?cookie%5Ftest=1&product_id=645118&affid=1
Die gelbe Eule
2003-09-14, 01:52:27
kommt eher drauf an wann steam richtig läuft, damit sie das dort verkaufen können. bisher klappt das so gut wie gar nicht, das heißt die server sind überlastet und die files nicht richtig downloadbar.
aber is ja noch ein bissl =)
sun-man
2003-09-14, 03:07:27
Gamestop weiß mehr als alle anderen ?
http://www.gamestop.com/product.asp?product%5Fid=640700
:D
MFG
Exxtreme
2003-09-14, 11:35:17
Ohne Worte:
http://hardforum.com/showthread.php?threadid=665926
:lol:
LovesuckZ
2003-09-14, 11:38:41
Original geschrieben von Exxtreme
Ohne Worte:
http://hardforum.com/showthread.php?threadid=665926
:lol:
aehm, was denn davon?
Exxtreme
2003-09-14, 11:40:37
Original geschrieben von LovesuckZ
aehm, was denn davon?
Lies dir den ganzen Thread durch. ;)
Salvee
2003-09-14, 12:33:38
Original geschrieben von Exxtreme
Ohne Worte:
http://hardforum.com/showthread.php?threadid=665926
:lol:
:rofl:
Allein schon der erste Post ist köstlich.
Wow, HB gibt Nachhilfe in 'GPU-Architektur' statt den Jong umzuflamen. Erstaunlich ... ;)
Exxtreme
2003-09-14, 13:25:26
Original geschrieben von Salvee
Wow, HB gibt Nachhilfe in 'GPU-Architektur' statt den Jong umzuflamen. Erstaunlich ... ;)
Hat mich auch gewundert. ;)
Cool ist auch der Vergleich zwischen den GPU-Architekturen und einem Dual-Channel-Speicherinterface. :lol:
Demirug
2003-09-14, 13:34:09
Ich sollte langsam Geld für das Quoten verlangen. Witzig ist aber das scheinbar jedes Lager eine Stelle findet die sie bestätigt.
LovesuckZ
2003-09-14, 14:00:13
Original geschrieben von Demirug
[...] Shadercompiler [...]
Arbeitet der Shadercompiler im 51.75 überhaupt richtig?
Tomb Raider 6 soll nur 5% zulegen, die eine DX9 Demo (mit den Kugeln, Schaedel etc.) legt nur laecherliche 10% zu (Beyond3d.com Forum: 5600 von 3.44 FPS auf 4FPS...)
Irgendwie scheint die CineFX I u. II doch ein klarer Fehlschlag gewesen zu sein.
Winter[Raven]
2003-09-14, 14:20:39
Original geschrieben von LovesuckZ
Arbeitet der Shadercompiler im 51.75 überhaupt richtig?
Tomb Raider 6 soll nur 5% zulegen, die eine DX9 Demo (mit den Kugeln, Schaedel etc.) legt nur laecherliche 10% zu (Beyond3d.com Forum: 5600 von 3.44 FPS auf 4FPS...)
Irgendwie scheint die CineFX I u. II doch ein klarer Fehlschlag gewesen zu sein.
Abwarten ... Morgen bzw. in den nächsten Tage nwissen wir mehr. Ich hoffe wirklich und irgend wo rechne ich noch damit das Nvidia doch noch schafft den ruder zu drehen.
dürfen wir dann wieder auf gut "optimierte" treiber hoffen?
Razor
2003-09-14, 14:27:24
Original geschrieben von die elektrische eule
zwischen beta 51.75 und whql 51.75 werden welten liegen, doch kann es nur noch ne woche dauern, da ja dann die computex anfängt.
wir werden sehen was das alles bringt, wenn wir selbst benchen dürfen und so spezifischer diskutieren können, da wir unabhängiger sind...
Zwischen einem nonWHQL und einem WHQL liegt rein gar nichts... ausser eine ".CAT"-Datei, die dem Treiber ein digitales Zertifikat gibt und meist 1-2 Wochen bei Microsoft braucht.
Soweit ich aber in Erinnerung habe, wird der offizille Treiber wohl so bei ca. 55.xx liegen (ich weiß Genaueres, sage aber nichts ;-), der 51.75 wohl nur so eine Art 'Preview'-Version ist. Man darf gespannt bleiben. Ich persönlich werde a) nix zu diesem Themenkomplex sagen und b) nur den Rat geben, einfach abzuwarten.
Dieser HL2-Bench ist Null und nichtig, da a) falsch verglichen wird und b) das Teil nicht einmal Beta-Status hat. Die sollen mal lieber dafür sorgen, dass das Zeugs wenigstens zum Release des R360 fertig wird. Wenn das mit Anfang 2004 stimmt, dann kann Vlave gleich ganz einpacken...
Razor
ich meinte mit optimiert das auf einermal treiber auftauchen die um einiges schnell sind aber qualitätsverluste mit sich bringen. wär ja nicht das erste mal das falsch gefiltert wird oder das nur jedes zweite frame gerendert wird, das eine grafikkarte besser erscheint als diese in wirklichkeit ist.
Demirug
2003-09-14, 14:49:11
Original geschrieben von LovesuckZ
Arbeitet der Shadercompiler im 51.75 überhaupt richtig?
Tomb Raider 6 soll nur 5% zulegen, die eine DX9 Demo (mit den Kugeln, Schaedel etc.) legt nur laecherliche 10% zu (Beyond3d.com Forum: 5600 von 3.44 FPS auf 4FPS...)
Irgendwie scheint die CineFX I u. II doch ein klarer Fehlschlag gewesen zu sein.
In einem Satz: nVidia drückt sich um eine klare Aussage.
Es kommen nur so Sachen wie die 50er sind dabei viel besser als die 40er.
Zudem sind laut nv die Ergebnisse zwischen NV30, NV31, NV34 und NV35 nicht übertragbar. AF/Tri hat ebenfalls viel mehr Einfluss als bisher angenommen weil dadurch sich irgendwas am Timeing ändert. AA scheint auch noch eine Rolle zu spielen.
CineFX wurde für Vorraussetzungen entwickelt die nicht vollständig eingetroffen sind. nv sitzt jetzt auch einem Pixelprozessor welcher für komplexe Situationen gebaut wurde aber die Situation wurde so sehr vereinfacht das man jetzt zwar die Kosten für die Komplexität bezahlt aber nichts davon hat.
nagus
2003-09-14, 14:55:04
Original geschrieben von Razor
Dieser HL2-Bench ist Null und nichtig, da a) falsch verglichen wird und b) das Teil nicht einmal Beta-Status hat. Die sollen mal lieber dafür sorgen, dass das Zeugs wenigstens zum Release des R360 fertig wird. Wenn das mit Anfang 2004 stimmt, dann kann Vlave gleich ganz einpacken...
Razor
das musst du uns jetzt aber genauer erklären? was hat nichtmal beta status und warum sind die vergleiche null und nichtig?
... und warum kann valve "einpacken" wenn HL2 sich verstätet?
StefanV
2003-09-14, 14:56:33
Original geschrieben von Razor
Dieser HL2-Bench ist Null und nichtig, da (...) b) das Teil nicht einmal Beta-Status hat. Die sollen mal lieber dafür sorgen, dass das Zeugs wenigstens zum Release des R360 fertig wird. Wenn das mit Anfang 2004 stimmt, dann kann Vlave gleich ganz einpacken...
Razor
:rofl:
Nur weil Heise mal gesagt hat, daß HL2 verschoben wird??
Nur zur Info: es kann durchaus sein, daß Heise isch geeirrt hat und HL wie geplant Gold geht und entsprechend ausgeliefert wird.
BTW: gibts nicht 'ne Ankündigung, daß HL2 am XX Gold geht?!
gRoUnD
2003-09-14, 14:57:01
Was interessieren denn alle anderen User was für Probleme nVidia wieder mal hat Razor? Ist mir egal was es diesmal wieder für ne Ausrede gibt, nVidia ist den Usern vernünftige Treiber schuldig.
StefanV
2003-09-14, 14:57:52
Original geschrieben von Demirug
In einem Satz: nVidia drückt sich um eine klare Aussage.
Es kommen nur so Sachen wie die 50er sind dabei viel besser als die 40er.
Zudem sind laut nv die Ergebnisse zwischen NV30, NV31, NV34 und NV35 nicht übertragbar. AF/Tri hat ebenfalls viel mehr Einfluss als bisher angenommen weil dadurch sich irgendwas am Timeing ändert. AA scheint auch noch eine Rolle zu spielen.
CineFX wurde für Vorraussetzungen entwickelt die nicht vollständig eingetroffen sind. nv sitzt jetzt auch einem Pixelprozessor welcher für komplexe Situationen gebaut wurde aber die Situation wurde so sehr vereinfacht das man jetzt zwar die Kosten für die Komplexität bezahlt aber nichts davon hat.
Mit anderen Worten:
Es ist noch viel schlimmer als es aussieht und nV drückt sich drum, es zuzugeben...
Schade eignetlich, daß sie versuchen heile Welt zu spielen, anstatt die Karten auf den Tisch zu legen...
Wobei die Frage ist, wieviele Kunden sie durch ihre jetzige Taktik verloren haben bzw wieviele sie hätten gewinnen können...
LovesuckZ
2003-09-14, 14:58:15
Original geschrieben von gRoUnD
Ist mir egal was es diesmal wieder für ne Ausrede gibt, nVidia ist den Usern vernünftige Treiber schuldig.
Ich hab schon vernünftige Treiber für meine 5800. :)
Razor
2003-09-14, 14:58:50
Original geschrieben von Gast
ich meinte mit optimiert das auf einermal treiber auftauchen die um einiges schnell sind aber qualitätsverluste mit sich bringen. wär ja nicht das erste mal das falsch gefiltert wird oder das nur jedes zweite frame gerendert wird, das eine grafikkarte besser erscheint als diese in wirklichkeit ist.
Und ich meinte damit, dass dieser Treiber nicht einmal Beta ist und der Öffentlichkeit vorenthalten ist. Warte einfach einen verfügbaren Treiber ab und teste dann selbst. Dann weißt Du auch ob da Äpfel mit Birnen verglichen werden, oder nicht.
Der 51.75 war offensichtlich, wie die ersten 20'er bei der gf3 damals, nur für HL2 und AM3 vorgesehen. Valve hat nVidia einen Strich durch die Rechnung gemacht (und belegt dies nicht einmal mit Screen-Shots !), bei AM3 klappt's, aber irgend etwas anderes scheint da im Busch zu liegen.
Wie gesagt, der 51.75 wird wohl nicht das Licht der Welt erblicken.
Insofern bleibt nur: "Abwarten !" ... auch wenn's langsam langweilig wird...
:D
Razor
Original geschrieben von Razor
[...]Wenn das mit Anfang 2004 stimmt, dann kann Vlave gleich ganz einpacken...
Razor
genauso wie 3drealms, idsoft, legend und wie sie alle heissen...?!
StefanV
2003-09-14, 14:59:10
Original geschrieben von gRoUnD
Was interessieren denn alle anderen User was für Probleme nVidia wieder mal hat Razor? Ist mir egal was es diesmal wieder für ne Ausrede gibt, nVidia ist den Usern vernünftige Treiber schuldig.
Entweder das oder aber eine wirklich glaubwürdige Erklärung.
Und nicht nur Hinhalte-Salami-Taktik...
gRoUnD
2003-09-14, 15:02:38
Grats LoveSuckZ, dann brauchst du ja auch sicher keine "optimierten" Treiber mehr für HL2 um vernünftig zocken zu können, oder ? Oder am besten wir warten alle einfach bis nVidia einen Treiber irgendwann mal rausbringt und wir benchen dann erst, sonst ist das ja alles unfair für nVidia.
LovesuckZ
2003-09-14, 15:05:05
Original geschrieben von gRoUnD
Grats LoveSuckZ, dann brauchst du ja auch sicher keine "optimierten" Treiber mehr für HL2 um vernünftig zocken zu können, oder ? Oder am besten wir warten alle einfach bis nVidia einen Treiber irgendwann mal rausbringt und wir benchen dann erst, sonst ist das ja alles unfair für nVidia.
Ist HL2 schon draußen? Noe.
Als ATi gesagt hat, sie werden optimierte Treiber beim erscheinen von Doom3 haben, hat da jemand geschrieen, sie sollten jez welche bringen?
Der 45.23 laeuft erste Sahne, bis auf die 2 PS2 Spiele.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.