PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : (P)Reviews zu R520 (X1800)


Seiten : 1 2 3 4 5 [6] 7 8 9 10

misterh
2005-10-10, 09:27:26
also nochmal

als ich mein 7800GT noch hatte, war es auch mehr %, wenn man beide übertaktet hat

Core 400 -> 500 = 25%
Mem 500 -> 620 = 24%
FPS 30 -> 41 = 36%

Kommt immer auf game/benchmark an.

bleibt dabei

dann mein

CPU 1800 -> 2500 = 39%
DDR400 -> DDR500 = 25% + wegen 2-2-2-5 timing.

usw....

Dann stimmt es auch mit mein 36% durch beide oc, da cpu 39% oc ist.

Aber so ganz will ich nicht verstehen, was damit zu tun hat.

Grestorn
2005-10-10, 09:30:36
CPU 1800 -> 2500 = 39%
DDR400 -> DDR500 = 25% + wegen 2-2-2-5 timing.

usw....

Dann stimmt es auch mit mein 36% durch beide oc, da cpu 39% oc ist.

Aber so ganz will ich nicht verstehen, was damit zu tun hat.Ich verstehe Deinen Beitrag nicht ganz. Dein System hat in diesem Beispiel insgesamt 36% Gewinn, wenn ich Dich richtig verstehe?

Da Du Deine CPU um 39% übertaktet hast, ein durchaus mögliches Ergebnis (allerdings nur in nahezu rein CPU limitierten Benchmarks).

Mehr als 39% wirst Du aber nicht erreichen, egal wieviele andere Komponenten Du übertaktest, so lange Du jede einzelne Komponente nicht mehr als 39% übertaktest.

Übertaktest Du ausnahmslos alle Komponenten exakt um 39% hast Du garantiert einen Gesamtgewinn von exakt 39%

misterh
2005-10-10, 09:36:06
Ich verstehe Deinen Beitrag nicht ganz. Dein System hat in diesem Beispiel insgesamt 36% Gewinn, wenn ich Dich richtig verstehe?

Da Du Deine CPU um 39% übertaktet hast, ein durchaus mögliches Ergebnis (allerdings nur in nahezu rein CPU limitierten Benchmarks).

Mehr als 39% wirst Du aber nicht erreichen, egal wieviele andere Komponenten Du übertaktest, so lange Du jede einzelne Komponente nicht mehr als 39% übertaktest.

Übertaktest Du ausnahmslos alle Komponenten exakt um 39% hast Du garantiert einen Gesamtgewinn von exakt 39%

hab ich da was von mehr als 39% geschrieben? ich hab allein zuerst wegen Graka 36% geschrieben. und das sollte passen. Aber wenn es richtig Graka lastige spiele gibt? dann sollte doch noch mehr rauskommen können.

Grestorn
2005-10-10, 09:48:42
hab ich da was von mehr als 39% geschrieben? ich hab allein zuerst wegen Graka 36% geschrieben. und das sollte passen. Aber wenn es richtig Graka lastige spiele gibt? dann sollte doch noch mehr rauskommen können.
Du hast ursprünglich geschrieben:


Core 400 -> 500 = 25%
Mem 500 -> 620 = 24%
FPS 30 -> 41 = 36%


Und das ist für sich alleine gesehen nicht möglich. Wenn Du aber gleichzeitig auch noch


CPU 1800 -> 2500 = 39%
DDR400 -> DDR500 = 25% + wegen 2-2-2-5 timing.


gemacht hast, dann ist es möglich, dass Du wie oben geschrieben einen Gewinn von 36% hast. Allerdings nur dann, wenn das Spiel ziemlich stark durch den CPU-Takt limitiert ist. Denn du hast den Prozessor mehr als 36% übertaktet.

Probier es einfach aus, Du wirst keine Konstellation schaffen, wo der Gesamtgewinn größer ist, als der größte einzelne Übertaktungswert.

tombman
2005-10-10, 10:30:09
Hmm, hab es mir nochmal durch den Kopf gehen lassen, und ich denke grestorn hat Recht :)

Die Szenarien, die ich mir ausgedacht hatte sind nicht möglich, da ein Teil der Leistung automatisch den anderen Teilen sozusagen den "Einflußfaktor" wegnimmt. Also wenn zb die Gesamtleistung 100% von Teil A abhängt, bleibt eben für Teil B nur mehr 0 übrig, und dann isses egal wie hoch ich B dann noch zusätzlich beschleunige, es hat keinen Einfluß mehr.

Tomcat70
2005-10-10, 10:44:14
Es bleibt als Gesetz: Wenn Du x Komponenten hast, und jede Komponente um einen unterschiedlichen Grad beschleunigst, so kann das Gesamtsystem nicht stärker beschleunigt sein, als die Betragsmäßig größte Beschleunigung einer Einzelkomponente.

Das Gesamtsystem kann bei diesen Werten nie mehr als 30% schneller werden, wahrscheinlich ist es aber sehr viel weniger. Und dieses Gesetz gilt, egal wie man die Zahlen verteilt.

welches gesetz? hängt doch alles von dem inhalt der jeweiligen blackbox ab. für eine blackbox x=b1+b2+b3+b4 mag das ja stimmen, aber für x=b1*b2*b3*b4?

Grestorn
2005-10-10, 10:54:26
welches gesetz? hängt doch alles von dem inhalt der jeweiligen blackbox ab. für eine blackbox x=b1+b2+b3+b4 mag das ja stimmen, aber für x=b1*b2*b3*b4?Das wäre eine tolle Blackbox :)

So was gibt es nicht. Leistungen kann man nicht multiplizieren.

Man kann sie auch nicht addieren. Die Einzelkomponenten haben keine so einfache Abhängigkeit.

Wenn man schon eine Formel machen wollte (für eine Momentaufnahme), dann müsste sie in etwa so aussehen:

(Leistung = L, Anteil Komponente in diesem Moment an der Gesamtleistung = A)

Gesamtleistung = L1 * A1 + L2 * A2 + L3 * A3...

Die Anteile A1+A2+A3 usw. ergeben in der Summe immer 1 (100%).


Das Gesetz ist dieses hier:

Wenn Du x Komponenten in einem System hast, und jede Komponente um einen unterschiedlichen Grad beschleunigst, so kann das Gesamtsystem nicht stärker beschleunigt sein, als die betragsmäßig größte Beschleunigung einer Einzelkomponente.

Odal
2005-10-10, 11:04:14
also so ganz schlau werd ich aus den geposteten folien von Demirug nicht.
Also ich bin gerade etwas verwirrt.

Armaq
2005-10-10, 11:44:08
Grestorn, dein Argument ist sicherlich verständlich, aber ...


Wenn ich bei Spiel X eine Limitierung habe und sie nicht näher spezifizieren kann, aufgrund der Limitierung meine Grafikkarte übertakte, samt RAM, kann es dann nicht sein, dass ich diese Limitierung umgehe bzw. verschiebe und ich einen höheren Gewinn in Sachen fps habe, als eine lineare Steigerung gleich der Takterhöhung?


theoretische Beispiel:

Doom 3 läuft bei 32 fps

Grafikkarte XYZ

Ohne unser Wissen um den genauen Flaschenhals übertakten wir unsere Grafikkarte (300 Mhz Core und 500 MHz Speicher auf 320/550).

Nach unserer Übertaktung haben wir nun 41 fps.

Grund? Ein Flaschenhals innerhalb der Grafikkartenarchitektur wurde durch unsere Übertaktung so kompensiert, dass die Grafikkarte insgesamt besser mit dem Ergebnis zurecht kommt, als die von dir erwähnte lineare Steigerung.
Sie kann ihre Stärken besser ausspielen. Die Schwächen wollten wir ja "ausbügeln".

Bei der Komplexität moderner Pixelwerfer bin ich mir nicht ganz sicher, ob es nicht doch ein wenig umfangreicher ist.

Zum Rennwagen, wir erhöhen alles um 10%. Prima, was aber, wenn das Rennauto eigentlich nur 10% mehr Motorleistung gebraucht hätte?
Die Reifen und Aerodynamik erlauben uns jetzt Kurven nochmal 10% schneller anzugehen. Da Kurven das Rennen am stärksten ausbremsen, was die Durchschnittsgeschwindigkeit angeht, hast du am Ende mehr als 10% Gewinn.
Warum? Du bremst später an, gibst früher Gas, fährst agressivere Winkel.
Das erhöht den Durchschnitt stärker als 10%, gerade weil die absoluten Tiefpunkte/Schwierigkeiten besser gemeistert werden.
Auf der langen geraden wirst du die 10% mehr Motorleistung spüren und vielleicht auch 10% mehr Grip in der Beschleunigung, aber die Kurven ...

Marc-
2005-10-10, 11:51:19
Also egal was jetzt der theoretische Hintergrund für die einzelnen bottlenecks ist, eines ist durch die PRAXIS ganz klar bewiesen:

Man kann SEHR WOHL mehr Leistung erhalten indem man den core UND den mem Takt erhöht.

Es gibt nämlich niemals nur EIN bottleneck, also niemals nur 100% Speicher limitiert oder 100% core limitiert.

Deshalb wird es natürlich immer einen performance Schub geben wenn man den core erhöht, auch wenn das bottelneck ÜBERWIEGEND (absichtlich keine % Zahl :naughty: )
der Speicher ist.

Klar ist es immer das beste man findet zuerst mal das größte bottleneck und verbessert dort, aber deshalb zu sagen die Gesamtperformance kann nicht mehr weiter angehoben werden sobald das schwerste bottleneck überwunden wurde entspricht einfach nicht der Realität in der Praxis. Denn kein Teil einer Graka arbeitet 100% effizient und am Limit! Das ist wie ein riesiges Logistikunternehmen in Nano- und Lightspeedbereich :cool:

Ich mein, eigentlich ist die gesamte Grafikkarte das bottleneck, denn ein NULL Renderdevice ist sicher schneller als jede Graka ;) Und dann ist wieder die cpu das bottleneck, dann vielleicht der Hauptspeicher, Bildschirm... und irgendwann zum Schluß mein Hirn und noch weiter am Schluß die Lichtgeschwindigkeit ;D

Tut mir leid... deiner argumentation ist nicht zu folgen. Das prinzip eines flaschenhalses ist das, das der durchfluss begrenzt ist. Das heisst es gibt ein theoretisches und praktisches maximum. Egal was vor diesem durchfluss an daten ankommt, welche menge und mit welcher geschwindigkeit, das ist egal... abgearbeitet werden (durchfliessen) kann eben nur der maximale durchsatz. Deshalb kannst du egal was du anstellst nichts verändern oder beschleunigen solange du nicht den flaschenhals erweiterst.
Dem ist nunmal einfach so, und da kann man eigentlich auch nicht gross drüber diskutieren, weil so einfach mal die definition ist.
Ändert sich was dadurch das etwas veränderst ohne den flaschenhals zu erweitern liegt kein flaschenhals vor sondern etwas anderes, beispielsweise das 2 komponenten nicht proportional skalieren, was du offensichtlich mit flaschenhals verwechselst.

Marc-
2005-10-10, 12:22:14
lange rede kurzer sinn....

Grestorn hat 100ig recht. Das lehrt einen einerseits die einfachste praktische erfahrung als auch sämtliche grundregeln der physik und mathematik.
Eine leistungssteigerung aller beteiligten komponenten um 10% entspricht nichts anderem als die multiplikation der einzelleistungen um den faktor 1,1. Was ist dann das ergebnis auf der anderen seite der gleichung? Richtig, das um den faktor 1,1 erhöhte vorgängerergebnis.

Vorraussetzung ist natürlich das eine lineare/unendliche (zumindest im betroffenen bereich) skalierung jeder einzelnen komponente vorliegt, ansonsten kann die leistungssteigerung nur unter 10% liegen, niemals aber über 10%. Die 10% wären ein idealfall.
Was hier wohl häufig uebersehen wird, ist das es sich bei diesem versuchsaufbau nicht um die addition der einzelleistungssteigerung geht, sondern das auf beiden seiten der gleichung (wenn man das denn umstellt) der faktor 1,1 ausgeklammert werden kann. somit dürfte klar sein, das das ergebnis maximal 10% sein kann, niemals aber grösser.

Sollte das ergebnis wie hier mehrmals geschildert grösser sein, kann es sich nur um messungenauigkeiten und fehler im versuchsaufbau handeln. Das mag einerseits an der ungenauigkeit nahezu sämtlicher über gängige software benchmarks liegen, zum anderen daran, dass es den allermeisten kaum möglich sein sollte exakt gleiche messbedingungen und versuchsbedingungen bei 2 messungen (oder mehr um messungenauigkeiten zu eleminieren) zu schaffen. Allein aufgrund dessen das im windows selber jede menge prozesse autark im hintergrund laufen ist keine wirklich genaue messung möglich. Man kann dies nur durch möglichst hohe zahl von messungen vermindern indem man die streuung verringert und eine tendenz erfasst.
Für genaue messungen sind für normalsterbliche einfach die unabdingbaren exakt gleichen vorraussetzungen unmöglich zu schaffen. Das könnte man nur unter einem EXAKT kontrollierbaren Betriebssystem mit EXAKT kontrollierbarer software.

Armaq
2005-10-10, 12:29:18
So einfach kann es nicht sein.
Dann hätte man dafür schon eine Formel.
Jeder, der ein Problem in seiner Architektur sieht würde diese Formel anwenden und somit auf ein Ergebnis kommen, dass sein Problem genau spezifiziert. Das gilt für alle Branchen, in denen es um die Steigerung einer bisher erbrachten Leistung geht, sei es Logistik, Rennsport, Fliegerei etc...

Eine solche Formel existiert nicht und es ist bei weitem nicht alles linear.

-=CHICKEN=-
2005-10-10, 12:33:28
Das Gesetz ist dieses hier:

Wenn Du x Komponenten in einem System hast, und jede Komponente um einen unterschiedlichen Grad beschleunigst, so kann das Gesamtsystem nicht stärker beschleunigt sein, als die betragsmäßig größte Beschleunigung einer Einzelkomponente.

tja, jetzt hab ichs auch kapiert :) und natürlich hattest du recht!

dein erwähntes gesetz hab ich auch mal in meiner ausbildung gelernt, aber mit der zeit total vergessen, obwohls doch so logisch ist :rolleyes:

Grestorn
2005-10-10, 12:34:33
Sorry, Armaq, aber ich mag jetzt nicht zum x-ten Mal alles schreiben.

Überleg Dir das mal in Ruhe, mach Dir ein Beispiel auf dem Blatt, und Du wirst merken, dass Du niemals mehr Leistungsgewinn kriegst.

Wenn Du bei Deinem Rennwagen (der lt. Deinem Beispiel voll am Motor hängt), den Motor um 10% beschleunigst und die Reifen um 10% verbesserst, dann hast Du trotzdem nur 10% Gesamtgewinn und die Reifen haben lediglich weitehin viel Spielraum, den sie aber nicht benötigen.

Erst wenn Du den Motor um 20% verbesserst, so dass sich Reifen und Motor auf dem selben Niveau befinden, hast Du auch eine theoretische Gesamtverbesserung um 20%.

Grestorn
2005-10-10, 12:38:29
So einfach kann es nicht sein.
Dann hätte man dafür schon eine Formel.Das Gesetz sagt lediglich aus, was der theoretisch maximal zu erreichende Gewinn ist. Ohne jegliche Kenntnisse über das betrachtete System übrigens. Also eigentlich eine sehr schwache Aussage.

Der tatsächliche Gewinn ist sehr viel komplexer, bei Grafikkarten nahezu unmöglich zu berechnen. Aber er ist auf jeden Fall geringer als der maximal errechnete Gewinn.

Crushinator
2005-10-10, 12:40:27
Das war kein Spam, sondern eine Feststellung. :)
Falls du der Meinung bist, dass es Spam war, nehme ich den Punkt gerne mit...
Spam ist eine völlig irrelevante Bemerkung. Erst recht, wenn sie so formuliert ist, daß sie zu Flames führen würde. Jetzt kennst Du meine Meinung, und ich hoffe Du läßt sie in Zukunft gänzlich ungeachtet. :)

Nun Schluß mit OT, thx.

reunion
2005-10-10, 12:43:39
Also du behauptest wenn man den Speicher 10% übertaktet und den core um 10%, daß man nicht mehr als 10% mehr fps bekommen kann?


Exakt, die Karte kann nicht schneller werde, als der limitierende Faktor schneller wurde. Limitieren mehrere Faktore, so kann man durch die Beschleunigung eines dieser Faktoren nie den vollen Leistungsgewinn erreichen, da eben auch noch andere Faktoren limitieren. Ist das wirklich so schwer einzusehen?

-=CHICKEN=-
2005-10-10, 12:50:04
hier noch mal ein anderes beispiel mit äpfel und birnen:

wir haben 10 äpfel ( -->100% äpfel)
und 10 birnen ( -->100% birnen)
zusammen ergibt das 20 früchte ( -->100% früchte bestehend aus 50% Äpfel und 50% birnen)

wenn ich jetzt 2 äpfel hinzufüge (-->120% äpfel), dann hab ich 22 Früchte ( -->110% früchte)
wenn jetzt noch 2 birnen hinzu kommen (-->120% birnen), dann hab ich 24 Früchte ( -->120% früchte)!

der ganze denkfehler an der sache war, das wir bei jeder einzelkomponente immer mit 100% gerechnet haben, aber jede komponente ja nur einen teil der "gesamtleistung" entspricht, also 50% äpfel (10 stück) + 50% birnen (10 stück) = 100% früchte (20 stück)!

wenn ich die äpfel um 20% ( 10+2 stück) erhöhe, dann hab ich bei der "geamtleistung" eine erhöhung von 10% (20+2), weil die äpfel ja nur 50% ausmachen!

hoffe, jetzt versteht es jeder, der genau so wie ich anfangs daran gezweifelt hat. :)

Hakkerstiwwel
2005-10-10, 12:50:24
Ich würde noch etwas weiter lesen.
Seite 6
"can be both transform and fill bound over the course of a single frame"

reunion
2005-10-10, 13:07:17
Wenn ich bei Spiel X eine Limitierung habe und sie nicht näher spezifizieren kann, aufgrund der Limitierung meine Grafikkarte übertakte, samt RAM, kann es dann nicht sein, dass ich diese Limitierung umgehe bzw. verschiebe und ich einen höheren Gewinn in Sachen fps habe, als eine lineare Steigerung gleich der Takterhöhung?


Nein, wenn die Limitierung umgangen/verschoben wird, bedeutet dies zwangsläufig, dass etwas anders limitiert hat, bevor ich die lineare Leistungssteigerung erziehlen konnte. Das heißt, du hast dann weniger Leistungsgewinn.


theoretische Beispiel:

Doom 3 läuft bei 32 fps

Grafikkarte XYZ

Ohne unser Wissen um den genauen Flaschenhals übertakten wir unsere Grafikkarte (300 Mhz Core und 500 MHz Speicher auf 320/550).

Nach unserer Übertaktung haben wir nun 41 fps.

Grund? Ein Flaschenhals innerhalb der Grafikkartenarchitektur wurde durch unsere Übertaktung so kompensiert, dass die Grafikkarte insgesamt besser mit dem Ergebnis zurecht kommt, als die von dir erwähnte lineare Steigerung.
Sie kann ihre Stärken besser ausspielen. Die Schwächen wollten wir ja "ausbügeln".


Wie soll das gehen?
Die Leistung steigt maximal linear mit dem Takt.


Zum Rennwagen, wir erhöhen alles um 10%. Prima, was aber, wenn das Rennauto eigentlich nur 10% mehr Motorleistung gebraucht hätte?


Dann haben alle anderen Verbesserungen null Auswirkung auf die Geschwindigkeit. Was sicherlich realitätsfremd ist.

Die Reifen und Aerodynamik erlauben uns jetzt Kurven nochmal 10% schneller anzugehen. Da Kurven das Rennen am stärksten ausbremsen, was die Durchschnittsgeschwindigkeit angeht, hast du am Ende mehr als 10% Gewinn.


Deshalb erhält man durch die Erhöhung der Motorleistung um 10% in der Regel auch keine Performancesteigerung von 10%, da eben auch noch andere Faktoren limitieren.

Ùnregistered
2005-10-10, 13:31:55
wie kommt dann so etwas zu stande?

als ich mein 7800GT noch hatte, war es auch mehr %, wenn man beide übertaktet hat

Core 400 -> 500 = 25%
Mem 500 -> 620 = 24%
FPS 30 -> 41 = 36%

Kommt immer auf game/benchmark an.

Grestorn
2005-10-10, 13:34:08
wie kommt dann so etwas zu stande?So gar nicht, siehe das spätere Posting von misterh und meine Antwort darauf.

Ùnregistered
2005-10-10, 13:35:29
So gar nicht, siehe das spätere Posting von misterh und meine Antwort darauf.

ich hab ihn selbst gefragt, er hatte nur den takt der grafikkarte geändert. der rest war die ganze zeit übertaktet.

Grestorn
2005-10-10, 13:39:09
ich hab ihn selbst gefragt, er hatte nur den takt der grafikkarte geändert. der rest war die ganze zeit übertaktet.Dann sind die Werte schlicht so unmöglich, Punkt.

Er sollte die tatsächlich anliegenden Taktfrequenzen mit RivaTuner kontrollieren. Und nochmal checken, ob auch wirklich alle sonstigen Einstellungen identisch sind.

HOT
2005-10-10, 13:45:35
wie kommt dann so etwas zu stande?
So einfach ist das nicht. Bei diesem Beispiel erhöht man nur den GPU Takt oder nur der RAM Takt, wodurch die andere Komponente zwangsläufig zum Flaschenhals wird. Erst durch anheben beider Takte wird der Flaschenhals gelöst. Dein Beispiel hat eigentlich nichts mit dem weiter oben besprochenen Problem zu tun. Das weiter oben besprochene Problem ist das Problem, dass eine reale Leistungssteigerung niemals über die theoretische Limitierung wachsen kann. Aber Theorie und Praxis sind nunmal 2 unterschiedliche Dinge - wir müssen dabei bedenken, dass sich der Effizienzgrad der GPU veringert, je unoptimaler das Verhältnis GPU/RAM wird.
Erhöht man nur den GPU Takt, steigt zwar die Leistung, aber der Effizienzgrad sinkt ab. Du hast also mit dem Anheben beider Takte eine nahezu lineare Steigerung im Idealfall, mit der Steigerung nur eines Taktes nimmt der Ertrag früher ab.

HOT
2005-10-10, 13:49:13
Dann sind die Werte schlicht so unmöglich, Punkt.

Er sollte die tatsächlich anliegenden Taktfrequenzen mit RivaTuner kontrollieren. Und nochmal checken, ob auch wirklich alle sonstigen Einstellungen identisch sind.

So ein Quatsch, sorry. Der untere Wert ist der, der der linearen Steirung näher kommt als die beiden Einzeltakterhöhungen. Du nimmst die falsche Takterhöhung und setzt sie als Standard voraus.

Vielleicht wird es so klarer: Die GPU muss bei niedrigerem Takt mehr Wartezyklein Einlegen um unter Lastzeitpunkten, da der Speicher limitiert und umgekehrt muss der Speicher auf die GPU öfter warten, weil die GPU mit ihrer Füllrate nicht mehr klarkommt. Je höher du taktest, desto weniger solcher Flaschenhälse hast du, weil der zu Rendernde Content gleich bleibt.

Hakkerstiwwel
2005-10-10, 13:53:52
@hot
lies bitte Seite 6 in dem von Demirug verlinkten Dokument:
es kann mehr als einen Flaschenhals pro Frame geben

Grestorn
2005-10-10, 13:54:30
So ein Quatsch, sorry. Der untere Wert ist der, der der linearen Steirung näher kommt als die beiden Einzeltakterhöhungen. Du nimmst die falsche Takterhöhung und setzt sie als Standard voraus.Ich tu was?! Redest Du mit mir? Wie meinen?

Core 400 -> 500 = 25%
Mem 500 -> 620 = 24%
FPS 30 -> 41 = 36%

Eine Steigerung um 36% ist schlicht unmöglich bei einer Steigerung von 25% des Coretaktes und 24% des RAM-Taktes. Punkt aus. Die maximal zu erzielende Leistungssteigerung wäre in diesem Fall 25%.

Wenn ich das mal so sagen darf: Sieht für mich so aus, als wäre der erste Wert mit aktiviertem VSync entstanden. Kann natürlich auch Zufall sein.

deekey777
2005-10-10, 14:09:29
X1800 (R520), X1600 (RV530) und X1300 (RV515): Teil 2 (http://www.ixbt.com/video2/r520-part2.shtml)
Den zweiten Teil gibt's zunächst nur auf Russisch, irgendwie dauert es noch, bis die englische Version bei Digit-Life erscheint.

Linkschutz...

aths
2005-10-10, 14:13:19
So und jetzt bilden wir uns mal ein wenig weiter:

Lesen (http://developer.nvidia.com/docs/IO/10878/ChinaJoy2004_OptimizationAndTools.pdf)->Verstehen->WeiterpostenDanke, solche Folien hatte ich bislang nur ohne Kommentare.

aths
2005-10-10, 14:15:47
Ich tu was?! Redest Du mit mir? Wie meinen?

Core 400 -> 500 = 25%
Mem 500 -> 620 = 24%
FPS 30 -> 41 = 36%

Eine Steigerung um 36% ist schlicht unmöglich bei einer Steigerung von 25% des Coretaktes und 24% des RAM-Taktes. Punkt aus.Im 3DMark 2001 hab ich mal eine übertriebene fps-Steigerung nachgemessen. War allerdings ein Cheat-Treiber, der den Vertexshader ersetzt. Dies tut der Treiber jedoch bei jedem Takt.

Verbessert man zwei Komponenten um 20%, sehe ich kein Problem warum die Endleistung nicht überhalb von 20% liegen sollte. In den meisten Fällen wird die Endleistung wohl aber (teilweise deutlich) weniger steigen, unterhalb des Mehrtaktes.

Doch wenn z. B. erhöhter Speichertakt dafür sorgt, dass bestimmte Wartezyklen wegfallen, kann das durchaus in mehr erhöhter Performance resultieren als man vermuten würde. Angenommen, man übertaktet CPU und die gesamte Graka um 20%. Einfaches Modell: CPU liefert 20% schneller Daten, die von der GPU 20% schneller verarbeitet werden. So einfach muss das nicht immer sein. Die CPU kommuniziert mit dem Gesamtsystem und u. a. mit der GPU, und wird dabei öfter mal zum Warten gezwungen. In der Regel sollte die Leistungssteigerung deshalb unterhalb von 20% liegen. Man kann sich aber auch Fälle konstruieren, wo einige Wartezeiten gleich ganz wegfallen und das System insgesamt schneller als nur 20% wird.

Coda
2005-10-10, 14:35:50
Irgendwie finde ich aber auch keinen Fehler in Grestorns Logik. Sieht ihn sonst jemand?

Die Zeit-Beschleunigung ist gar nicht so doof. Wenn eine Sekunde 20% länger wäre (was ja eigentlich Taktbeschleunigung von 20% entspricht von allen Bauteilen) dann kommen ja auch nicht unlinear mehr FPS raus.

Aber das widerspricht ja anscheinend den Beobachtungen von manchen hier.

HOT
2005-10-10, 14:46:54
Ich tu was?! Redest Du mit mir? Wie meinen?

Core 400 -> 500 = 25%
Mem 500 -> 620 = 24%
FPS 30 -> 41 = 36%

Eine Steigerung um 36% ist schlicht unmöglich bei einer Steigerung von 25% des Coretaktes und 24% des RAM-Taktes. Punkt aus. Die maximal zu erzielende Leistungssteigerung wäre in diesem Fall 25%.

Wenn ich das mal so sagen darf: Sieht für mich so aus, als wäre der erste Wert mit aktiviertem VSync entstanden. Kann natürlich auch Zufall sein.

Sicher red ich mit dir, weil es IMHO einfach Quatsch ist ;)

Je höher du taktest, desto weniger kommen Flaschenhälse zum Tragen, bei gleichem Content der gerendert werden muss. Je höher du taktest, desto weniger muss der Chip auf den RAM warten und umgekehrt, daher die Effizienzsteigerung. Bei wenig Takt -> laaange Wartezeiten und viiiiel Lehrlauf, bei hohem Takt -> winzige Wartezeiten. Das was zu rendern ist, bleibt ja konstant bei der Sache.
Der Ertrag nimmt zu mit steigendem Takt. Das Ganze geschieht natürlich nur innerhalb der theoretischen Maximalleistung, die der Chip unter optimalen Bedingenen liefern würde (z.B. unendlich schneller Speicher). Die Praxis ist hier das Problem.

Coda
2005-10-10, 14:53:27
Je höher du taktest, desto weniger muss der Chip auf den RAM warten und umgekehrt, daher die Effizienzsteigerung.Bei gleichförmiger Takterhöhung müssten diese Stalls genau gleich häufig vorkommen wie vorher. Du vergisst, dass der Chip ja auch x% häufiger Daten braucht.

Der Ertrag nimmt zu mit steigendem Takt.Eigentlich müsste er sinken, weil die Busanbindung und der Rest des PCs nicht mitskaliert.

Tomcat70
2005-10-10, 14:59:28
Irgendwie finde ich aber auch keinen Fehler in Grestorns Logik. Sieht ihn sonst jemand?

Die Zeit-Beschleunigung ist gar nicht so doof. Wenn eine Sekunde 20% länger wäre (was ja eigentlich Taktbeschleunigung von 20% entspricht von allen Bauteilen) dann kommen ja auch nicht unlinear mehr FPS raus.

Aber das widerspricht ja anscheinend den Beobachtungen von manchen hier.

man stelle sich mehrere balken vor, sagen wir 6 stück.
die fläche der balken ergibt ein äquivalent der vollbrachten leistung pro zeiteinheit.
alle balken hängen voneinander ab.
2 balken sind am oberen limit, sagen wir balken 1 und 6.
nun erhöhe man balken 1 um 10%, das wirkt sich zu beispielsweise in form von 8% auf balken 2, 3, 4 und 5 aus.
ergibt eine steigerung der gesamtfläche unter 10%.
nun erhöhen wir balken 6 ebenfalls um 10%.
dies wirkt sich in form von 9% auf balken 2, 3, 4 und 5 aus (1 ist nach wie vor am limit).
ergibt eine steigerung der fläche um (nun in summe) mehr als 10%.

Coda
2005-10-10, 15:01:25
Du vergisst, dass alle Balken um den exakt gleichen Prozentsatz höher werden. Und nein die Fläche der Balken ist nicht die Leistung, sondern das was am Ende rauskommt. Die GPU ist ja auch schon in eigene Subsysteme gegliedert, wenn man dort um 20% übertaktet kommen ja auch nicht 30% Mehrleistung raus.

Nehmen wir mal an der Speicher wäre als eDRAM auf der GPU eingebettet. Wenn ich diesen Chip um 20% beschleunige kommen auch keine 30% mehr Leistung raus.

Grestorn müsste also imho recht haben, außer ich übersehe was gravierendes. Eigentlich müssten die Signallaufzeiten, die externe Busanbindung und das CPU-Limit dafür sorgen, dass die Effizienz sogar deutlich unter den 20% liegt.

zeckensack
2005-10-10, 15:08:54
Unfassbar ...

Ich mähe den Rasen mit einem Handrasenmäher.
Wenn ich zwei Rasenmäher hätte, wäre ich doppelt so schnell fertig.

Ich setze mich auf mein Fahrrad und fahre zum ALDI.
Wenn ich zwei Fahrräder hätte, wäre ich doppelt so schnell da.

Etc pp usw ... Unsinn!

Ein Gesamtsystem kann man immer nur um dann um X% beschleunigen, wenn man alle Teile um X% beschleunigt. Dabei ist es aber völlig unerheblich wie viele Teile existieren!

Wenn dem so wäre wäre das toll. Anstatt zu versuchen pro Tag 10% mehr zu arbeiten als bisher, könnte ich versuchen zwischen 8 und 9 10% mehr zu schaffen, zwischen 9 und 10 10% mehr zu schaffen usw und zwischen 18 und 19 Uhr 10% mehr zu schaffen. Dann hätte ich mit gleichem Aufwand, nur durch Umdeutung meiner Arbeitsleistung 160% mehr pro Tag geschafft. Super!

Tomcat70
2005-10-10, 15:12:57
Ich mähe den Rasen mit einem Handrasenmäher.
Wenn ich zwei Rasenmäher hätte, wäre ich doppelt so schnell fertig.


hehe, wird immer lustiger die diskussion ;)

zum beispiel 1 würd ich sagen in etwa ja :D einen in der linken, einen in der rechten hand halt ;D


Ich setze mich auf mein Fahrrad und fahre zum ALDI.
Wenn ich zwei Fahrräder hätte, wäre ich doppelt so schnell da.



zum beispiel 2 würd ich sagen nein :D

Mr. Lolman
2005-10-10, 15:13:30
GPU(ROP, max): ---|---|---|---|---|---|---|---|---|---|--
Speicher(Tex b/w): ----|----|----|----|----|----|----|----|--
GPU(ROP, tatsächlich): -------|---|---|---|-------|---|---|---|--
Speicher(Framebuffer): ---------|----|----|---------|----|----|--

GraKa kann nur 3/5 Takte verwerten.
Speicher 20% OC:

GPU(ROP, max): ---|---|---|---|---|---|---|---|---|---|--
Speicher(Tex b/w): ---|---|---|---|---|---|---|---|---|---|--
GPU(ROP, tatsächlich): ---|---|---|---|---|---|---|---|---|---|--
Speicher(Framebuffer): ---|---|---|---|---|---|---|---|---|---|--


Leistung, Original vs OC:
Speicher(Framebuffer): ---------|----|----|---------|----|----|--
Speicher(Framebuffer): ---|---|---|---|---|---|---|---|---|---|--

Leistung 66% höher bei 20% SpeicherOC.



Natürlich ein Extrembeispiel und so in der Praxis nicht anzutreffen, aber es zeigt was theoretisch alles möglich wäre...

Coda
2005-10-10, 15:15:21
Die Speicherlatenzen werden bei den GPUs durch große Fifos und Prefetches weitgehendst kaschiert. Gerade R520 sollte da fast perfekt sein.

Außerdem bleiben die Stalls etc. exakt an den gleichen Punkten wenn alle Systeme um den gleichen Prozentsatz übertaktet werden.

Coda
2005-10-10, 15:16:26
hehe, wird immer lustiger die diskussion ;)

zum beispiel 1 würd ich sagen in etwa ja :D



zum beispiel 2 würd ich sagen nein :DIch glaube nicht, dass das als Frage-Antwort-Spiel gedacht war. Aber man kann ja alles ins Lächerliche ziehen, wenn einem die Argumente ausgehen.

Hakkerstiwwel
2005-10-10, 15:16:34
Unfassbar ...

Ich mähe den Rasen mit einem Handrasenmäher.
Wenn ich zwei Rasenmäher hätte, wäre ich doppelt so schnell fertig.

Ich setze mich auf mein Fahrrad und fahre zum ALDI.
Wenn ich zwei Fahrräder hätte, wäre ich doppelt so schnell da.

Etc pp usw ... Unsinn!

Ein Gesamtsystem kann man immer nur um dann um X% beschleunigen, wenn man alle Teile um X% beschleunigt. Dabei ist es aber völlig unerheblich wie viele Teile existieren!

Wenn dem so wäre wäre das toll. Anstatt zu versuchen pro Tag 10% mehr zu arbeiten als bisher, könnte ich versuchen zwischen 8 und 9 10% mehr zu schaffen, zwischen 9 und 10 10% mehr zu schaffen usw und zwischen 18 und 19 Uhr 10% mehr zu schaffen. Dann hätte ich mit gleichem Aufwand, nur durch Umdeutung meiner Arbeitsleistung 160% mehr pro Tag geschafft. Super!
zu bsp 1: du verdoppelst gleichzeitig deine eigene Geschwindigkeit, wie lange brauchst du dann noch?

Coda
2005-10-10, 15:18:20
zu bsp 1: du verdoppelst gleichzeitig deine eigene Geschwindigkeit, wie lange brauchst du dann noch?Dann aber nur mit einem Rasenmäher, sonst wäre es eine vervierfachung, weil die Systeme "Geschwindigkeit" und "Anzahl der Rasenmäher" nicht gekoppelt sind.

StefanV
2005-10-10, 15:18:24
Bei gleichförmiger Takterhöhung müssten diese Stalls genau gleich häufig vorkommen wie vorher. Du vergisst, dass der Chip ja auch x% häufiger Daten braucht.
Habt ihr auch bedacht, das die Latenz singt, wenn man den Speicher bei Grafikkarten übertaktet??

Womit der Speicher ja 'effizienter' läuft...

Tomcat70
2005-10-10, 15:18:34
Ich glaube nicht, dass das als Frage-Antwort-Spiel gedacht war. Aber man kann ja alles ins Lächerliche ziehen, wenn einem die Argumente ausgehen.

war nicht so gemeint wie du es verstehst :)
bissl humor darf man wohl noch mit humor beantworten, oder muss ich dich da etwa um erlaubnis fragen?

Coda
2005-10-10, 15:19:09
Habt ihr auch bedacht, das die Latenz singt, wenn man den Speicher bei Grafikkarten übertaktet??

Womit der Speicher ja 'effizienter' läuft...Die GPU braucht aber auch X% öfter Daten. Die Stalls bleiben an den gleichen Stellen, überleg dir's nochmal.

Mr. Lolman
2005-10-10, 15:19:43
*edit*

Coda
2005-10-10, 15:20:27
Ein Viertel so lang wie ursprünglich. Also 75% mehr Leistung bei jew 50% Leistungssteigerung. Das Beispiel ist perfekt :DNein, das Beispiel ist einfach unpassend, weil die Systeme nicht gekoppelt sind.

:tongue:

Hakkerstiwwel
2005-10-10, 15:22:30
Dann aber nur mit einem Rasenmäher, sonst wäre es eine vervierfachung, weil die Systeme "Geschwindigkeit" und "Anzahl der Rasenmäher" nicht gekoppelt sind.
nein, analog zu Ram und Core Anhebung, hebst du Geschwindigkeit und Flaeche an. In Zeckensacks bsp hast du 2 Flaschenhaelse: die Flaeche des Rasenmaehers und die Geschwindigkeit des Maehmannes(tm)

Coda
2005-10-10, 15:24:35
nein, analog zu Ram und Core Anhebung, hebst du Geschwindigkeir und Flaeche an. In Zeckensacks bsp hast du 2 Flaschenhaelse: die Flaeche des Rasenmaehers und die Geschwindikeit des Maehmannes(tm)Eben nicht. Wenn ich 3x so schnell renne hab ich doch nicht auf einmal 3 Rasenmäher in der Hand X-D Oder verdoppeln sich die GPUs bei dir im Rechner auch? Das Beispiel von dir passt hier einfach nicht, weil "Anzahl der Rasenmäher" und "Geschwindigkeit" nicht zusammengehört.

Das wäre ja wie wenn ich anstatt einer GPU bei 50Mhz, 2 GPUs bei 100Mhz betreibe. Also effektiv habe ich 2 verschiedene Dinge die die Leistung beeinflussen aber nicht voneinander abhängen verändert. Macht keinen Sinn in dem Kontext.

misterh
2005-10-10, 15:26:31
ich hatte doch auch mal takt vergleiche gemacht mit 7800GT

hier http://www.forum-3dcenter.org/vbulletin/showthread.php?t=249191&highlight=skalierung

wie zb

Far Cry
1280x1024 4xAA 16xAF

GPU 200 -> 500 = 250%
MEM 225 -> 620 = 276%
FPS 32.69 -> 90.86 = 278%

Grestorn
2005-10-10, 15:27:00
Irgendwie finde ich aber auch keinen Fehler in Grestorns Logik. Sieht ihn sonst jemand?

Die Zeit-Beschleunigung ist gar nicht so doof. Wenn eine Sekunde 20% länger wäre (was ja eigentlich Taktbeschleunigung von 20% entspricht von allen Bauteilen) dann kommen ja auch nicht unlinear mehr FPS raus.

Aber das widerspricht ja anscheinend den Beobachtungen von manchen hier.
Solche Effekte kann es nur geben, wenn es nicht-lineare Einflüsse gibt.

Ein VSync kann z.B. so etwas sein. Man erhält beim Benchen konstant 30 fps. Man erhöht einen Takt um 10% und bekommt plötzlich 60 fps.

Scheinbar eine deutlich überproportionale Steigerung. Aber es dürfte klar sein, woher die kommt.

Auch wenn man VSync außer Acht lässt, ist es nicht auszuschließen, dass ähnliche Blockadesituationen, die nicht-lineare Sprünge mit sich bringen, auch im Chip sind. Aber das dürften seltene Ausnahmefälle sein, mit weit aus kleineren Effekten wie beim VSync Beispiel.

Hakkerstiwwel
2005-10-10, 15:30:21
Eben nicht. Wenn ich 3x so schnell renne hab ich doch nicht auf einmal 3 Rasenmäher in der Hand X-D

Oder verdoppeln sich die GPUs bei dir im Rechner gespenstisch?
ueberlies noch mal: die Zahl der Maeher erhoeht sich nicht weil ich schneller gehe, sondern ich gehe schneller und nehme mehr Rasenmaeher. Ich erhoehe zwei Faktoren in meinem Gesamtsystem um 100% und erreiche eine Steigerung der Arbeitsgeschwindigkeit um 200%. Kappisch?

Coda
2005-10-10, 15:30:45
Bei G70 muss man beachten, dass die PS immer in 27Mhz Schritten springen.

Aber bei ATi gibt es soweit ich weiß nur eine Taktdomäne - zumindest ist nichts anderes durchgesickert bisher.

ueberlies noch mal: die Zahl der Maeher erhoeht sich nicht weil ich schneller gehe, sondern ich gehe schneller und nehme mehr Rasenmaeher. Ich erhoehe zwei Faktoren in meinem Gesamtsystem um 100% und erreiche eine Steigerung der Arbeitsgeschwindigkeit um 200%. Kappisch?Die beiden hängen nicht direkt voneinander ab. Du verändert 2 Faktoren, obwohl wir hier nur von einem Faktor reden.

Oder wo siehst du die Kopplung zwischen "Anzahl der Rasenmäher" und "Geschwindigkeit"? Nach e=mc² wird das Ding wohl irgendwann doppelt so schwer, aber ob zwei draus werden, hmm...

zeckensack
2005-10-10, 15:32:14
zu bsp 1: du verdoppelst gleichzeitig deine eigene Geschwindigkeit, wie lange brauchst du dann noch?Halb so lang? :rolleyes:
Gratulation! Du hast erkannt dass die Geschwindigkeits des Prozesses "Rasenmähen", ausgeführt von einer Person, die einen Rasenmäher schiebt, dadurch limitiert wird wie schnell sich die Person mit dem Rasenmäher fortbewegt.

Wenn ich jetzt mal darauf bestehe dass ein Rasenmäher mit zwei Händen zu schieben ist kann ich mit einem zweiten Rasenmäher nichts mehr anfangen. Allerdings ermöglicht ein zweiter Rasenmäher sehr woll die Verdopplung des Rasenabriebs pro Zeiteinheit: mit einer zweiten (gleich schnell schiebenden) Mähpersonaleinheit.

Skalierung von Ressourcen eben. Mit doppelt so vielen Leuten und doppelt so vielen Mähern kann man in gleicher Zeit doppelt so viel Rasen mähen.
Wenn ich zu wenig Leute habe, brauche ich mir über die Menge der Mäher keine Sorgen machen, und umgekehrt, denn eine weitere Erhöhung bringt nichts.

Was Tomcat70 uA hier behaupten bedeutet auf dieses bescheurte Beispiel übertragen:
"Zwei Personen mit zwei Rasenmähern können bis zu viermal so schnell Rasen mähen wie eine Person mit einem Rasenmäher."
Und das können sie nicht.

Grestorn
2005-10-10, 15:33:10
Bei G70 muss man beachten, dass die PS immer in 27Mhz Schritten springen.
Genau. Man erhöht im Panel die Frequent um 1 MHz (also < 0.2%) und bekommt auf einmal 5% mehr Leistung... Was natürlich nur daran liegt dass der eigentliche Takt um 27MHz, also mehr als 5% gestiegen ist.

Horimoto
2005-10-10, 15:34:22
http://www.hkepc.com/bbs/viewthread.php?tid=486092

Was soll das jetzt? nVidia mit 1.26ns Samsungspeicher aber guckt mal auf die Beuaweise........

misterh
2005-10-10, 15:34:34
Genau. Man erhöht im Panel die Frequent um 1 MHz (also < 0.2%) und bekommt auf einmal 5% mehr Leistung... Was natürlich nur daran liegt dass der eigentliche Takt um 27MHz, also mehr als 5% gestiegen ist.

Bei mir war diese geo takt erhöhung ausgeschaltet. somit 100% genaue takt übernommen.

Coda
2005-10-10, 15:35:46
Die Pixelshader springen immer in 27Mhz schritten, da kann der Geo-Takt-Offset auch nix dran ändern.

Grestorn
2005-10-10, 15:37:49
Bei mir war diese geo takt erhöhung ausgeschaltet. somit 100% genaue takt übernommen.
Ich habe schon mehrfach geschrieben, dass Du den Takt mit RivaTuner kontrollieren sollst, um eine eindeutige Aussage zu erhalten. Wieso tust Du das nicht?

misterh
2005-10-10, 15:38:14
Die Pixelshader springen immer in 27Mhz schritten, da kann der Geo-Takt-Offset auch nix dran ändern.

Was mit dir los? klar kann das ändern und wenn man diese ausschaltet. taktet es nicht mehr alle 27mhz, sondern eher alle 1-3mhz

misterh
2005-10-10, 15:39:22
Ich habe schon mehrfach geschrieben, dass Du den Takt mit RivaTuner kontrollieren sollst, um eine eindeutige Aussage zu erhalten. Wieso tust Du das nicht?

ist das mein problem? ich hab schon lange festgestellt und passen thread geöffnet.

hier:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=247860&highlight=geo+takt

Coda
2005-10-10, 15:40:26
Soweit ich weiß wird der PS-Takt durch einen 27Mhz Oszilator und einem Multiplikator erzeugt, also eher nein.

Das kann auch ein Auslesefehler seitens RivaTuner sein. Hast du da mal z.B. mit 486 und einmal mit 485 die Füllrate gemessen?

zeckensack
2005-10-10, 15:40:41
Bescheurtes Beispiel #3:
Heute ist Hochbetrieb auf der Rheinfähre Mondorf.
Auf der Westseite steigen heute 20% mehr Leute ein als gestern. Und auf der Ostseite steigen 20% mehr Leute aus als gestern. Insgesamt haben also mit dieser Fähre von Westen nach Osten 44% mehr Personen den Rhein überquert als gestern :|

Jetzt klar?

misterh
2005-10-10, 15:40:56
Soweit ich weiß wird der PS-Takt durch einen 27Mhz Oszilator und einem Multiplikator erzeugt, also eher nein.

Wie kommst du drauf, dass durch den Geo-Offset dieser Effekt eintritt?

schau mal link darüber.

Coda
2005-10-10, 15:42:17
Ja hab's schon editiert.

misterh
2005-10-10, 15:44:34
Ja hab's schon editiert.

hab es immer alle takt getestet gehabt. hat auch immer genau übernommen wie man wollte. und nicht mehr alle 27mhz

wenn ich da 500mhz diese erhöhung nicht ausgeschaltet hätte, wäre dann bei 513mhz und nicht 501

Coda
2005-10-10, 15:46:56
Zeigen das auch die Fillrate-Benchmarks?

misterh
2005-10-10, 15:47:27
Zeigen das auch die Fillrate-Benchmarks?

Jo 3dmark2001 MT ca 9.9xx

aber hab die karte jetzt leider nicht mehr. So kann ich nicht mehr testen.

Edit:

hatte dir auch gesagt, dass ich 2 vorteile bekommen hatte, durch deaktivieren.

1. Takt wird genau übernommen, wie man haben möchte.

2. Könnte noch höher takten. Sonst wäre nur 480/520/620 möglich, und diese 520mhz war bei mein 7800er leider zu hoch.

Hakkerstiwwel
2005-10-10, 15:52:30
Wenn ich jetzt mal darauf bestehe dass ein Rasenmäher mit zwei Händen zu schieben ist kann ich mit einem zweiten Rasenmäher nichts mehr anfangen. Allerdings ermöglicht ein zweiter Rasenmäher sehr woll die Verdopplung des Rasenabriebs pro Zeiteinheit: mit einer zweiten (gleich schnell schiebenden) Mähpersonaleinheit.....

Und das können sie nicht.
wenn ich einhaendig maehen kann werde ich es tun, wer sagt dass das gleiche der GPU verboten ist (bildlich gesehen @coda). Es haengt einzig und alleine vom Flaschenhals ab. Obschon mein technisches Verstaendnis hierin sicher nicht an das verschiedener anderer hier im Forum herankommt, kann ich genuegend Englisch um die Seite 6 des von Demirug gelinkten Dokumentes interpretieren zu koennen, und die entsprechenden Schluesse daraus zu folgern. (Falls ich falsch liegen sollte bitte um Aufklaerung unter Bezugnahme auf das Dokument)

reunion
2005-10-10, 15:54:52
Irgendwie finde ich aber auch keinen Fehler in Grestorns Logik. Sieht ihn sonst jemand?


Fehler?
Das ist IMHO mehr als logisch, sollte wirklich jedem einleuchten.
Wie kommt man überhaupt auf die Idee, da irgendetwas miteinander zu multiplizieren?
Zeckensack macht durch seine Beispiele ja deutlich, wie lächerlich diese Diskussion eigentlich ist.

Coda
2005-10-10, 15:54:55
Also nochmal von vorne, leuchtet es euch ein, dass folgende zwei Sachen identische Ergebnisse liefern oder nicht:

- Verändern der Definition von "Sekunde" auf 120%
- Beschleunigung der Grafikkarte um 120% (d.h. sämtliche Bauteile schalten 20% schneller)

Und zwar jetzt nur auf das Bezogen was pro Sekunde hinten rauskommen kann. Wenn nicht, dann lass ich die Diskussion ab hier jetzt sein.

Fehler?Ich finde ja keinen. Aber hätte ja sein können, weil viele hier anscheinend vom Gegenteil überzeugt werden.

Zeckensack macht durch seine Beispiele ja deutlich, wie lächerlich diese Diskussion eigentlich ist.Ja, erinnert mich irgendwie an die Physikdiskussionen mit manchen Leuten, die glauben schwerere Sachen fallen auch schneller X-D

Aber ich glaube ich hab die Lösung des Rätsels: Der Ringbus ist in Wahrheit ein Teilchenbeschleuniger der mit zunehmendem Takt die Raumzeit verändert! Also Vorsicht Overclocker, ab 1Ghz erzeugt ihr ein schwarzes Loch, das uns alle einsaugt :upara:

misterh
2005-10-10, 15:57:59
wir sollten die sache auch schnell von tisch runternehmen. :rolleyes:

Mr. Lolman
2005-10-10, 16:00:19
Außerdem bleiben die Stalls etc. exakt an den gleichen Punkten wenn alle Systeme um den gleichen Prozentsatz übertaktet werden.

werden sie ja nicht ;)

zeckensack
2005-10-10, 16:00:25
Ja, erinnert mich irgendwie an die Physikdiskussionen mit manchen Leuten, die glauben schwerere Sachen fallen auch schneller X-D:|
Hast du in letzter Zeit B3D (http://www.beyond3d.com/forum/showthread.php?p=585850&highlight=toothpick#post585850) gelesen? :D

Quasar
2005-10-10, 16:00:52
http://www.hkepc.com/bbs/viewthread.php?tid=486092

Was soll das jetzt? nVidia mit 1.26ns Samsungspeicher aber guckt mal auf die Beuaweise........
Das ist perspektivisch verzerrt, aber die neuen GDDR3-Chips sind in der Tat ein wenig rechteckiger geworden, als die alten.

Coda
2005-10-10, 16:01:25
Hast du in letzter Zeit B3D gelesen?
Nein ;D

A question for you:
If you drop two apples, pick them back up, connect them with a toothpick and drop them again ... will they really hit the ground earliear the second time around? Der ist sehr geil :D

Aber jetzt wird's OT.

Quasar
2005-10-10, 16:07:23
Ich habe auch noch ein tolles Beispiel. =)
Mal angenommen, ich habe eine Straße, auf der nebeneinander 100 Autos fahren können. Die Autos fahren dicht an dicht, die Straße ist komplett ausgelastet. Pro Minute fahren so 10.000 Autos unter meiner Brücke, auf der ich stehe und zähle, hindurch. Ok soweit?

Nun fahren auf einmal alle Autos, die es gibt, 20% schneller. Also fahren bei mir auch 20% mehr Autos unter der Brücke pro Zeiteinheit hindurch, oder?

Wenn ich nun die Straße verbreitere, sagen wir, ebenfalls um 20% und die Autos ebenfalls um 20% schneller fahren, so können doch nun durchaus auch mehr Autos, als 12.000 (=10.000*1,2), nämlich rund unter meiner Brücke hindurchfahren, vorausgesetzt, es gibt genug Nachschub an Autos. Oder nicht?

Quasar
2005-10-10, 16:09:18
Ja, erinnert mich irgendwie an die Physikdiskussionen mit manchen Leuten, die glauben schwerere Sachen fallen auch schneller X-D

Fällt ein Ziegelstein nicht schneller als eine Daunenfeder? ;) ;) ;)

Mr. Lolman
2005-10-10, 16:09:43
Ja, erinnert mich irgendwie an die Physikdiskussionen mit manchen Leuten, die glauben schwerere Sachen fallen auch schneller X-D


Is auch so (mal abgesehen vom Vakuum, was auch überall auf der Erde zu finden ist ;))

Fällt ein Ziegelstein nicht schneller als eine Daunenfeder? ;) ;) ;)

Im Vakuum nicht.

Coda
2005-10-10, 16:09:51
Quasar, du veränderst wieder 2 Faktoren, nämlich Geschwindigkeit und Breite der Straße.

Is auch so (mal abgesehen vom Vakum, was auch überall auf der Erde zu finden ist )Och bitte nicht X-D

Eine Kugel mit Eisenoberfläche und 10cm Durchmesser wird nicht schneller fallen egal ob sie einen Neutronenstern mit 10 Milliarden Tonnen in sich hat oder leer ist. Q.E.D.

Horimoto
2005-10-10, 16:11:07
Das ist perspektivisch verzerrt, aber die neuen GDDR3-Chips sind in der Tat ein wenig rechteckiger geworden, als die alten.

Das kann auch sein, hatte mich schon gewundert^^

Trotzdem:
nVidia schenit bald seine 512MB GTX vorzustellen, so will auch inq wissen, und sogar noch VOR der XT shippen wollen sie...........
hätte nix dagegen :D

Mr. Lolman
2005-10-10, 16:11:39
Quasar, du veränderst wieder 2 Faktoren, nämlich Geschwindigkeit und Breite der Straße.

GPUtakt = Geschwindigkeit
Speichertakt = Breite der Straße

Coda
2005-10-10, 16:12:33
Nein, das ist ein Faktor. Nämlich z.B. 20% Takterhöhung auf das Gesamtsystem.

Die Busbreite zu erhöhen wäre eine breitere Straße.

Armaq
2005-10-10, 16:13:41
Worauf ich hinaus wollte ist folgendes, der Rennwagen hat aufgrund seiner Leistungssteigerung nun ein größeren Spielraum bei kritischen Passagen. Dieser Spielraum skaliert nicht linear, da die Passagen ja unterschiedlich entfallen (gleich der Minimum und Maximum fps bei nem Shooter).

Das tunen aller Teile kann also durchaus mehr bewirken als eine lineare Steigerung gemessen an den Zahlen, wobei natürlich Ungenauigkeiten über eben diesen Zugewinn entscheiden.

Eine Frage hätte ich in dem Zusammenhang;

Wir reden oft vom Flaschenhals "Speicher" bei Grafikkarten.
Ganz simpel dargestellt sieht das für mich so aus:

Datenverarbeitung per Chip - Zwischenablage Speicher - Weiterverarbeitung.

Kann der Chip, wenn er im ersten und letzten Schritt wesentlich effizienter ist, exakt die Menge an Prozent Mehrleistung herausholen, die eine evtl. Erhöhrung des Speichertaktes mit sich bringt, oder ist die Steigerung vll. sogar über 10% hinaus möglich, da die Daten im Speicher ja noch um ein vielfaches weiterverarbeitet werden müssen.

Ergo, die Instruktionen sind durch den Speicher begrenzt (im ersten Schritt)
Daten mit 100 Instruktionen bearbeitet - Speicher - Daten mit 200 Instruktionen weiterverabeitet.
10% Erhöhung des Speichertaktes.
Daten mit 110 Instrk. bearbeitet - Speicher - Daten mit 220 Instrk. weiterverarbeitet.

Verständlich was ich meine? Es geht nur um die internen Prozedere. Ziel ist es den ganzen Laden möglichst beschäftigt zu halten.

Mr. Lolman
2005-10-10, 16:14:06
Och bitte nicht X-D

Eine Kugel mit Eisenoberfläche und 10cm Durchmesser wird nicht schneller fallen egal ob sie einen Neutronenstern mit 10 Milliarden Tonnen in sich hat oder gar nix.

Beide beschleunigen gleich lang, gleich schnell bis, der Luftwiderstand größer ist, als die Gewichtskraft des leichteren, von beiden fallenden Körpern.

Coda
2005-10-10, 16:15:24
Beide beschleunigen gleich lang, gleich schnell bis, der Luftwiderstand größer ist, als die Gewichtskraft des leichteren, von beiden fallenden Körpern.Der Luftwiderstand ist identisch, weil beides eine 10cm große Eisenkugel ist.

Und nein, auch der Luftwiderstand hängt nicht von der Masse ab ;)

Quasar
2005-10-10, 16:17:33
Quasar, du veränderst wieder 2 Faktoren, nämlich Geschwindigkeit und Breite der Straße.
siehe Lolman...


Eine Kugel mit Eisenoberfläche und 10cm Durchmesser wird nicht schneller fallen egal ob sie einen Neutronenstern mit 10 Milliarden Tonnen in sich hat oder leer ist. Q.E.D.
Ich kenne schon den Begriff Terminal Velocity... Aber AFAIK befinden wir uns nicht auf einem Neutronenstern. Wenn ich einen Ziegelstein aus dem Fenster werfe und eine Daunenfeder - was liegt wohl zuerst auf dem Boden? ;) ;) ;)

Quasar
2005-10-10, 16:18:32
Die Busbreite zu erhöhen wäre eine breitere Straße.
Ich stelle dem System mehr Bandbreite zur Verfügung (im doppelten Sinne). Ob ich das über 20% mehr Takt oder 20% mehr Busbreite tue, ist doch wurscht.

Coda
2005-10-10, 16:18:36
Ich kenne schon den Begriff Terminal Velocity... Aber AFAIK befinden wir uns nicht auf einem Neutronenstern. Wenn ich einen Ziegelstein aus dem Fenster werfe und eine Daunenfeder - was liegt wohl zuerst auf dem Boden? ;) ;) ;)Im Vakuum beides gleichzeitig. Mit anderen Worten: Der cw-Wert der Feder ist viel höher als der vom Ziegelstein.

Ich stelle dem System mehr Bandbreite zur Verfügung (im doppelten Sinne). Ob ich das über 20% mehr Takt oder 20% mehr Busbreite tue, ist doch wurscht.Klar, aber dann darfst du nicht auch noch was am Takt verändern. Und die Auswirkung von mehr Takt ist positiver, weil dann auch die Latenzen sinken.

Nochmal: Ob du die Erde jetzt auf knapp unter Lichtgeschwindigkeit beschleunigt und die Grafikkarte im Weltraum lässt, damit sie mehr Takte pro Sekunde (in unserem System) macht oder das gleiche durch 20% direkt mehr Takt erzeugst ist egal. Du wirst beidesmal nur eine lineare Leistungssteigerung verzeichnen ;)

Mr. Lolman
2005-10-10, 16:22:19
Der Luftwiderstand ist identisch, weil beides eine 10cm große Eisenkugel ist.

Und nein, auch der Luftwiderstand hängt nicht von der Masse ab ;)

Eh nicht, aber die Beschleunigung ergibt sich aus der Differenz der Gewichtskraft und der Reibungskraft. Und bei deinem Neutronenstern ist die Gewichtskraft natürlich höher.

Mr. Lolman
2005-10-10, 16:24:06
Nochmal: Ob du die Erde jetzt auf knapp unter Lichtgeschwindigkeit beschleunigt und die Grafikkarte im Weltraum lässt, damit sie mehr Takte pro Sekunde (in unserem System) macht oder das gleiche durch 20% direkt mehr Takt erzeugst ist egal. Du wirst beidesmal nur eine lineare Leistungssteigerung verzeichnen ;)

Nochmal: Du meinst die Straße könne man mit Erhöhung der Busbreite vergrößern (=Erhöhung der Speicherbandbreite) Warum soll das mit SpeicherOC nicht auch gehen? (=Erhöhung der Speicherbandbreite)

Coda
2005-10-10, 16:25:30
Eh nicht, aber die Beschleunigung ergibt sich aus der Differenz der Gewichtskraft und der Reibungskraft. Und bei deinem Neutronenstern ist die Gewichtskraft natürlich höher.Stimmt, hast recht.

Nochmal: Du meinst die Straße könne man mit Erhöhung der Busbreite vergrößern (=Erhöhung der Speicherbandbreite) Warum soll das mit SpeicherOC nicht auch gehen? (=Erhöhung der Speicherbandbreite)Das geht, aber du darfst nicht gleichzeitig den Takt erhöhen, weil du dann 2 Faktoren veränderst.

Grestorn
2005-10-10, 16:30:28
Ich habe auch noch ein tolles Beispiel. =)
Mal angenommen, ich habe eine Straße, auf der nebeneinander 100 Autos fahren können. Die Autos fahren dicht an dicht, die Straße ist komplett ausgelastet. Pro Minute fahren so 10.000 Autos unter meiner Brücke, auf der ich stehe und zähle, hindurch. Ok soweit?

Nun fahren auf einmal alle Autos, die es gibt, 20% schneller. Also fahren bei mir auch 20% mehr Autos unter der Brücke pro Zeiteinheit hindurch, oder?

Wenn ich nun die Straße verbreitere, sagen wir, ebenfalls um 20% und die Autos ebenfalls um 20% schneller fahren, so können doch nun durchaus auch mehr Autos, als 12.000 (=10.000*1,2), nämlich rund unter meiner Brücke hindurchfahren, vorausgesetzt, es gibt genug Nachschub an Autos. Oder nicht?Das stimmt. Aber es werden nur Taktraten erhöht, also Zeitbasierte Leistungssteigerung.

Deine Verbreiterung der Autobahn käme eine Installation einer weiteren Pipe gleich. Und damit eine weitere Erhöhung der Kapazität in der GPU. Damit hast Du die "BrückenGPU" um insgesamt 40% Leistungserweitert.

Alles klar?

Quasar
2005-10-10, 16:33:49
Im Vakuum beides gleichzeitig. Mit anderen Worten: Der cw-Wert der Feder ist viel höher als der vom Ziegelstein.
Der Luftwiderstand war nicht Bestandteil deiner ursprünglichen These: "Ja, erinnert mich irgendwie an die Physikdiskussionen mit manchen Leuten, die glauben schwerere Sachen fallen auch schneller X-D".

Wenn es dir behagt, können wir uns auch gerne auf zwei Daunenfedern mit identischem Äußeren einigen. Eine wiegt das, was sie in Wirklichkeit wiegen würde (keine Ahnung, vielleicht ein halbes Gramm?) und die andere 5kg. Welche fällt schneller?

Nun, Feder 1 beschleunigt langsamer als Feder 2. Wenn wir beide lang genug für die Terminal Velocity fallen lassen, werden sie irgendwann dieselbe Fallgeschwindigkeit erreicht haben. Feder 2 wird bis dahin aber einen wesentlich weiteren Weg zurückgelegt haben und bis dahin auch "schneller" gefallen sein, richtig? Da beide am Ende dieselbe Geschwindigkeit haben, kann Feder 1 diesen Vorsprung auch niemals aufholen, oder?

Quasar
2005-10-10, 16:36:08
Das stimmt. Aber es werden nur Taktraten erhöht, also Zeitbasierte Leistungssteigerung.

Deine Verbreiterung der Autobahn käme eine Installation einer weiteren Pipe gleich. Und damit eine weitere Erhöhung der Kapazität in der GPU. Damit hast Du die "BrückenGPU" um insgesamt 40% Leistungserweitert.

Alles klar?
Nein, ich sehe den Unterschied zwischen "Bandbreite aus Taktrate" und Bandbreite aus Busbreite" für diesen Fall nicht.

Coda
2005-10-10, 16:37:37
Du hast schon recht, aber nur in der Atmosphäre. Bei genügend schweren Objekten (100t vs. 1000t) und einer Tropfenform würden beide absolut gleich schnell fallen, weil der Luftwiderstand dann vernachlässigend klein ist.

Ich zitiere mal frei nach Zeckensack: Wenn du zwei Äpfel fallen lässt die Zeit mist, dann einen langen dünnen Stab nimmst um die beiden zu verbinden und sie dann nochmal fallen lässt, sind sie dann wirklich schneller? ;)

Nein, ich sehe den Unterschied zwischen "Bandbreite aus Taktrate" und Bandbreite aus Busbreite" für diesen Fall nicht.Gibt es nicht, aber du darfst nicht beides gleichzeitig erhöhen, weil du dann zwei unabhängige Faktoren änderst.

Grestorn
2005-10-10, 16:39:46
Ich stelle dem System mehr Bandbreite zur Verfügung (im doppelten Sinne). Ob ich das über 20% mehr Takt oder 20% mehr Busbreite tue, ist doch wurscht.
Du erhöhst die selbe Komponente (Bandbreite in diesem Fall) um je 20%. Also insgesamt um 40%.

Im Falle der GPU werden aber zwei verschiedene Flaschenhälse um je 20% beschleunigt.

Grestorn
2005-10-10, 16:41:21
Nein, ich sehe den Unterschied zwischen "Bandbreite aus Taktrate" und Bandbreite aus Busbreite" für diesen Fall nicht.
Eben, da gibt es auch keinen Unterschied. Deswegen hast Du zweimal die selbe Komponente beschleunigt. Deswegen addieren sich in diesem Fall die Werte.

Du kannst in einer GraKa auch die RAM-Bandbreite durch höheren Takt oder durch Verbreiterung des Buses erhöhen. In beiden Fällen beschleunigst Du die selbe Komponente.

GPU Takt und RAM-Takt sind aber zwei verschiedene, von einander abhängige Komponenten.

Auf Dein Automodell bezogen: Maximales zulässiges Gesamtgewicht der Brücke wäre die eine Kenngröße und die Straßenbreite die andere. Du kannst die eine erhöhen so viel Du willst, wenn Du die andere nicht auch erhöhst, wirst Du ans Limit stoßen.

Und wenn Du beide erhöhst, erhöht sich die Gesamtkapazität maximal nur um den jeweils stärker erhöhten Wert.

Mr. Lolman
2005-10-10, 16:47:39
Da gibt es aber keinen Unterschied. Deswegen hast Du zweimal die selbe Komponente beschleunigt.

Du kannst in einer GraKa auch die RAM-Bandbreite durch höheren Takt oder durch Verbreiterung des Buses erhöhen. In beiden Fällen beschleunigst Du die selbe Komponente.

Dann fahren die Autos aber immernoch gleichschnell. Denn beide Fälle haben in Quasars Beispiel nur die Straßenbreite erhöht.

Grestorn
2005-10-10, 16:48:09
Dann fahren die Autos aber immernoch gleichschnell. Denn beide Fälle haben in Quasars Beispiel nur die Straßenbreite erhöht.
Ich hab den Beitrag noch editiert. Damit sollte es klarer sein.

Coda
2005-10-10, 16:49:50
Eigentlich sollte die Sache doch klar sein mit dem Zeitbeispiel das ich gebracht habe. Mir geht nicht in den Kopf was daran unverständlich sein soll. Außer das man es per-se nicht einsehen will.

Ob du die Erde jetzt auf knapp unter Lichtgeschwindigkeit beschleunigt und die Grafikkarte im Weltraum lässt, damit sie 20% mehr Takte pro Sekunde (in unserem System) macht oder das gleiche durch 20% direkt mehr Taktrate erzeugst ist egal. Du wirst beidesmal nur eine lineare Leistungssteigerung verzeichnenBitte den Fehler hier finden versuchen und drüber nachdenken, bevor ihr weiterpostet.

Grestorn
2005-10-10, 16:52:06
Eigentlich sollte die Sache doch klar sein mit dem Zeitbeispiel das ich gebracht habe. Mir geht nicht in den Kopf was daran unverständlich sein soll. Außer das man es per-se nicht einsehen will.Das Problem habe ich schon den ganzen Tag :)

Quasar
2005-10-10, 17:20:56
Eben, da gibt es auch keinen Unterschied. Deswegen hast Du zweimal die selbe Komponente beschleunigt. Deswegen addieren sich in diesem Fall die Werte.

Du kannst in einer GraKa auch die RAM-Bandbreite durch höheren Takt oder durch Verbreiterung des Buses erhöhen. In beiden Fällen beschleunigst Du die selbe Komponente.

GPU Takt und RAM-Takt sind aber zwei verschiedene, von einander abhängige Komponenten.

Auf Dein Automodell bezogen: Maximales zulässiges Gesamtgewicht der Brücke wäre die eine Kenngröße und die Straßenbreite die andere. Du kannst die eine erhöhen so viel Du willst, wenn Du die andere nicht auch erhöhst, wirst Du ans Limit stoßen.

Und wenn Du beide erhöhst, erhöht sich die Gesamtkapazität maximal nur um den jeweils stärker erhöhten Wert.
Ah! Ok, danke.

Mr. Lolman
2005-10-10, 17:22:05
Das Problem habe ich schon den ganzen Tag :)

Ich auch. Wie steht ihr z.B. dazu:


Digit-Life übertaktete die Hercules 9700pro von 325/310 auf 420/375. Eine Taktsteigerung ~29% @GPU und ~21% beim Speicher. Folgendes haben sie erbencht: http://www.digit-life.com/articles2/radeon/r9700pro-oc.html

Da waren bis zu 61% Mehrleistung drinnen. Eure Begründung? Ein ganzes Review falsch gebencht? Oder schlechte, sich bei jedem Test ändernde Settings? Ein komplett gefakter Test? Und hier? http://www.digit-life.com/articles2/radeon/r9800xt-4.html Noch ein gefakter Test? :ulol:

deekey777
2005-10-10, 17:40:39
Architecture Analysis – R520 v G70 (http://www.driverheaven.net/articles/efficiency/)

Der R520 hat da nicht viel zu lachen.

Quasar
2005-10-10, 17:47:50
Architecture Analysis – R520 v G70 (http://www.driverheaven.net/articles/efficiency/)

Der R520 hat da nicht viel zu lachen.
"Next up we used Powerstrip to set the 7800 to a clock which was as close as possible to the R520. The clocks we settled on which provided no artifacting etc were 450/1000."

Was ist das denn für ein "BS"?
edit:
Wenn DH die Taktraten irgendwo zwischen 446 und 472 MHz gesetzt hat, lief nur die Geometry-Clock mit diesem Takt. ROPs und Shader laufen dabei mit 459MHz (laut RT und unter der Annahme, dass sich das Verhalten mit zwei deaktivierten Quads nicht ändert.

Grestorn
2005-10-10, 17:49:12
Ich auch. Wie steht ihr z.B. dazu:


Digit-Life übertaktete die Hercules 9700pro von 325/310 auf 420/375. Eine Taktsteigerung ~29% @GPU und ~21% beim Speicher. Folgendes haben sie erbencht: http://www.digit-life.com/articles2/radeon/r9700pro-oc.html

Da waren bis zu 61% Mehrleistung drinnen. Eure Begründung? Ein ganzes review falsch gebencht? Oder schlechte, sich bei jedem Test ändernde Settings? Ein komplett gefakter Test? Und hier? http://www.digit-life.com/articles2/radeon/r9800xt-4.html Noch ein gefakter Test? :ulol:Definitiv völliger Blödsinn. Das muss ich mir gar nicht ansehen, das sagt der gesunde Menschenverstand schon.

Zum zweiten Link: Eigentlich passt da doch alles. Schauen wir uns mal dieses Bild an:

http://www.ixbt.com/video2/images/r9800xt-4/16.png

Die eine Komponente wird von 412 auf 600 übertaktet (+45%)
Die andere wird von 730 auf 860 erhöht (+18%)

Die Leistungssteigerung liegt bei 31%. Also absolut im Rahmen. Dass die Linie steiler wirkt liegt nur an der etwas merkwürdigen Skalierung.

Das selbe gilt für alle anderen Diagramme entsprechend.

deekey777
2005-10-10, 17:53:54
"Next up we used Powerstrip to set the 7800 to a clock which was as close as possible to the R520. The clocks we settled on which provided no artifacting etc were 450/1000."

Was ist das denn für ein "BS"?

Wie meinen?
Entweder war der Takt der bei 459MHz oder sie haben nur den Geometrie-Takt herabgesetzt.

Quasar
2005-10-10, 17:57:14
Wie meinen?
Entweder war der Takt der bei 459MHz oder sie haben nur den Geometrie-Takt herabgesetzt.
siehe mein edit. Und dazu hatten sie nirgends geschrieben, dass sie von einer XL ausgegangen sind. Ist aber jetzt auch egal.

Hakkerstiwwel
2005-10-10, 17:59:15
Definitiv völliger Blödsinn. Das muss ich mir gar nicht ansehen, das sagt der gesunde Menschenverstand schon.

Zum zweiten Link: Eigentlich passt da doch alles. Schauen wir uns mal dieses Bild an:

http://www.ixbt.com/video2/images/r9800xt-4/16.png

Die eine Komponente wird von 412 auf 600 übertaktet (+45%)
Die andere wird von 730 auf 860 erhöht (+18%)

Die Leistungssteigerung liegt bei 31%. Also absolut im Rahmen. Dass die Linie steiler wirkt liegt nur an der etwas merkwürdigen Skalierung.

Das selbe gilt für alle anderen Diagramme entsprechend.

lBlödsinn gelöscht

Mr. Lolman
2005-10-10, 18:04:21
Architecture Analysis – R520 v G70 (http://www.driverheaven.net/articles/efficiency/)

Der R520 hat da nicht viel zu lachen.

Wobei die Gametest da schlechte Beispiele sind, da die BQ wiedermal nicht vergleichbar war. Vergleicht man das Driverheaven Launchreview mit dem von Computerbase sieht man (@1600x1200/4xAA/8xAF) bei Computerbase 43fps vs. 53fps (+23%) und Driverheaven 46fps vs 74fps (+61%). Ausgehend von den Computerbase Werten hätte die 7800GTX mit dem 78.03 statt 74fps nur mehr 56fps. Rechnet man die ~24% runter die der G70 verliert , hätte er bei dem Diagramm statt 48fps nur mehr 36fps und läge somit nur mehr knapp vorm R520: http://www.driverheaven.net/articles/efficiency/flashers/doom3.jpg :tongue:

deekey777
2005-10-10, 18:04:35
siehe mein edit. Und dazu hatten sie nirgends geschrieben, dass sie von einer XL ausgegangen sind. Ist aber jetzt auch egal.

Dein Edit habe ich verpaßt, da ich die Thread-Seite nicht aktualisiert hatte. Hab in meinem gebrochenen Englisch die Tester darauf aufmerksam gemacht, mal sehen, was rauskommt.

Die iXbt.com Leute berichten, daß HKEPC herausgefunden haben soll, daß bald ein weiteres G70 Modell mit 1.26ns Speicher/512MB kommen soll.

http://www.ixbt.com/news/hard/index.shtml?04/84/18

Die X1800XL AIW hat auch ein grünes PCB. :D

€dit: Schaut euch mal Shadermark-Ergebnisse an, insbesondere die Tests 21-23.
"Tests 21-23 use HDR shaders with various filtering techniques. In these tests the R520 is outperforming the G70 by a significant amount."

Mr. Lolman
2005-10-10, 18:08:54
Das selbe gilt für alle anderen Diagramme entsprechend.

25.4% und 22.2% Mehrleistung bei jew 17.8% höherem Takt:

reunion
2005-10-10, 18:25:27
Die iXbt.com Leute berichten, daß HKEPC herausgefunden haben soll, daß bald ein weiteres G70 Modell mit 1.26ns Speicher/512MB kommen soll.



Da bin ich dann auf den Stromverbrauch im vergleich zur X1800XT mit 512MB RAM gespannt.

Quasar
2005-10-10, 18:30:02
€dit: Schaut euch mal Shadermark-Ergebnisse an, insbesondere die Tests 21-23.
"Tests 21-23 use HDR shaders with various filtering techniques. In these tests the R520 is outperforming the G70 by a significant amount."

http://www.forum-3dcenter.de/vbulletin/showpost.php?p=3560071&postcount=5

Grestorn
2005-10-10, 18:32:40
25.4% und 22.2% Mehrleistung bei jew 17.8% höherem Takt:
Bei 17% höherem RAM-Takt.

Der GPU Takt ist 25,4 bzw. 22,2 erhöht (blaue Linie). Offenbar hängt die Performance in diesem Test ausschließlich am GPU Takt.

Mr. Lolman
2005-10-10, 18:36:33
Bei 17% höherem RAM-Takt.

Der GPU Takt ist 25,4 bzw. 22,2 erhöht (blaue Linie). Offenbar hängt die Performance in diesem Test ausschließlich am GPU Takt.

Nein. Der GPU Takt ist fix auf 600MHz. Die rote Linie zeigt die prozentuelle Steigerung des RAMTakts, und Rosa zeigt die prozentuelle Steigerung der fps (Blaue Linie).

Grestorn
2005-10-10, 18:41:24
Nein. Der GPU Takt ist fix auf 600MHz. Die rote Linie zeigt die prozentuelle Steigerung des RAMTakts, und Rosa zeigt die prozentuelle Steigerung der fps (Blaue Linie).
Es gibt keine überproportionale Steigerung der Leistung (bei stetigen Systemen). Das ist absoluter Unfug.

Das ist ein physikalisches Gesetz, da brauchen wir gar nicht weiter drüber zu reden.

deekey777
2005-10-10, 18:44:00
http://www.forum-3dcenter.de/vbulletin/showpost.php?p=3560071&postcount=5

Argh...
Als ich gesehen hatte, in jenem Thread in blauer Schrift gepostet wurde, habe ich sein Posting nicht mehr richtig gelesen.

ATI Radeon X1800 XT & XL (http://www.behardware.com/articles/592-1/ati-radeon-x1800-xt-xl.html) bei BeHardware.
Die dritte Seite ist interessant.
Splinter Cell 3:
http://www.behardware.com/articles/592-8/ati-radeon-x1800-xt-xl.html

"Splinter cell detects the presence of Shader Model 3.0 with ATI’s card and opens the possibility to activate all effects. Since the 1.04 patch, it is possible to activate effects such as Soft Shadows, Parallax Mapping, and HDR with Pixel Shader 2.0 cards, whereas this was previously restricted to PS 3.0 cards. We noticed that HDR is far from being comparable to SM 3.0 as it is calculated in whole numbers and not in floating points.

In practice, it is unfortunately this version of HDR which is activated with the Radeon X1800 XT for an unknown reason. Results in this mode aren’t directly comparable to NVIDIA’s graphic cards, so we only compared ATI’s cards to each other. The X1800 XL is on the same level as a X850 XT PE and the X1800 XT is still in the lead with a 33% advance.
..."

Ist das auch anderen Reviewer aufgefallen?

Crushinator
2005-10-10, 18:45:17
Es gibt keine überproportionale Steigerung der Leistung (bei stetigen Systemen). Das ist absoluter Unfug.

Das ist ein physikalisches Gesetz, da brauchen wir gar nicht weiter drüber zu reden.
Du sagst es: "bei stetigen Systemen"
Da wir nicht wissen, ob durch die Takterhöhungen auf einmal ganz viele Wartezyklen überflüssig werden oder gar eine angenommene Sprungvorhersage besser zuschlägt, können wir nicht davon ausgehen daß es so stetig ist.

Grestorn
2005-10-10, 18:48:06
Du sagst es: "bei stetigen Systemen"
Da wir nicht wissen, ob durch die Takterhöhungen auf einmal ganz viele Wartezyklen überflüssig werden oder gar eine angenommene Sprungvorhersage besser zuschlägt, können wir nicht davon ausgehen daß es so stetig ist.
Das stimmt natürlich. Es kann sein, dass es Sprünge gibt. D.h. wenn man den Takt gleichmäßig erhöht und immer wieder das Resultat ansieht, kann es sein, dass es (bei Stellen, wo ein unstetiger Sprung im System ist) einen kleinen Ruck nach oben gibt, dafür die nachfolgende Steigerung wieder etwas schwächer ist bis zum nächsten Ruck usw.

Mehr ist nicht drin.

Eine überproportionale Steigerung über einen größeren Bereich ist nicht möglich. Wäre er möglich, hätte man ein leistungstechnisches Perpetuum Mobile.

Demirug
2005-10-10, 18:50:56
Der Wirkungsgrad eines Speicherkontrollers verhält sich nicht linear zum RAM-Takt. Für die Performances ist die theoretisch erreichbare Bandbreite mal dem Wirkungsgsrad wichtig. ;)

Grestorn
2005-10-10, 18:59:25
Der Wirkungsgrad eines Speicherkontrollers verhält sich nicht linear zum RAM-Takt. Für die Performances ist die theoretisch erreichbare Bandbreite mal dem Wirkungsgsrad wichtig. ;)
Der Wirkungsgrad ist aber kleiner 1 (per Definition), ein weiterer Grund warum es noch nicht mal eine 1:1 proportionale Steigerung geben kann, geschweige denn eine überproportionale.

horn 12
2005-10-10, 19:01:40
habe soeben diese emai von sapphire erhalten , da ich nachgefragt habe .
bezüglich graka auf R520 X1800 XL / (XT eventuell) auf AGP :cool:


Hallo Herr xxxx,

vielen Dank für Ihre Anfrage. Gerne beantworten wir Ihre Fragen.

Die Produkte der neuen Grafikgeneration wird es vorerst nur für PCI-Express geben. Ob es die Karten auch für AGP geben wird, steht leider noch nicht fest.

Es tut mir leid, dass ich Ihnen im Moment keine genauere Auskunft geben kann!


Beste Grüße
Tamara Geiger


:o Hoffe sie Überdenken es sich nochmals und es kommt was für AGP ( x1800 xl ) raus .

Demirug
2005-10-10, 19:02:16
Der Wirkungsgrad ist aber kleiner 1 (per Definition), ein weiterer Grund warum es noch nicht mal eine 1:1 proportionale Steigerung geben kann, geschweige denn eine überproportionale.

Und wenn der Wirkungsgrad zusammen mit der Taktfrequenz steigt bis er eben die 1 erreicht?

Grestorn
2005-10-10, 19:09:07
Und wenn der Wirkungsgrad zusammen mit der Taktfrequenz steigt bis er eben die 1 erreicht?
Der Gewinn duch den steigenden Wirkungsgrad muss aber immer kleiner sein, als der Verlust dadurch, dass der WG kleiner 1 ist.

Ich hoffe, das war nicht unklar ausgedrückt... Man könnte das auch in einer Formel hinschreiben, aber ich bin sicher, dass Du auch so verstehst, was ich meine.

Hakkerstiwwel
2005-10-10, 19:24:13
Der Gewinn duch den steigenden Wirkungsgrad muss aber immer kleiner sein, als der Verlust dadurch, dass der WG kleiner 1 ist.

Ich hoffe, das war nicht unklar ausgedrückt... Man könnte das auch in einer Formel hinschreiben, aber ich bin sicher, dass Du auch so verstehst, was ich meine.
takt wirkungsgrad takt * wg
50 0.85 42.5
55 0.95 52.25

Demirug
2005-10-10, 19:31:22
Der Gewinn duch den steigenden Wirkungsgrad muss aber immer kleiner sein, als der Verlust dadurch, dass der WG kleiner 1 ist.

Ich hoffe, das war nicht unklar ausgedrückt... Man könnte das auch in einer Formel hinschreiben, aber ich bin sicher, dass Du auch so verstehst, was ich meine.

Dieser Verlust ist aber auch schon bei Ausgangswert (vor dem Übertakten) vorhanden.

Beispiel:

Bei 100% Ramtakt haben wir 80% Effektivität. Bei 110% Ramtakt kommen wir auf 85%. Gehen wir weil es sich einfacher rechnen lässt einfach mal von 10 GB/s nominale Bandbreite bei 100% Ramtakt aus.

Also haben wir bei 100% 8 GB/s zum verbraten durch die GPU. Bei 110% kommen wir dann auf 9,35 GB/s. Das sind 1,35 GB/s oder auch ~16,9% mehr.

Es gilt trotzdem weiterhin der Grundsatz das die Performances nur um um maximal das Mass steigen kann um das der Flaschenhals vergrößert wird. Diese Vergrösserung ist abhängig vom Takt und dem Wirkungsgrad der Komponente. Der Takt einer Komponente kann den eigenen Wirkungsgrad aber auch den Wirkungsgrad anderer Komponenten beeinflussen. Dies gilt positiv wie auch negative.

Jeder Versuch eine allgemein gültige Formel aufzustellen scheitert daher bei komplexen vermaschten Systemen schon im Ansatz.

EDIT: PS: Ich glaube hier wollte jemand wissen was der Ram an Leistung zieht. ca. 2W pro Baustein.

Grestorn
2005-10-10, 19:36:52
Es gilt trotzdem weiterhin der Grundsatz das die Performances nur um um maximal das Mass steigen kann um das der Flaschenhals vergrößert wird. Diese Vergrösserung ist abhängig vom Takt und dem Wirkungsgrad der Komponente. Der Takt einer Komponente kann den eigenen Wirkungsgrad aber auch den Wirkungsgrad anderer Komponenten beeinflussen. Dies gilt positiv wie auch negative.

Jeder Versuch eine allgemein gültige Formel aufzustellen scheitert daher bei komplexen vermaschten Systemen schon im Ansatz.Ich habe schon vor einigen Seiten geschrieben, dass dieses Problem mathematisch nicht lösbar ist.

Ich habe lediglich das Gesetz für die maximal mögliche Steigerung aufgestellt. Und ich bin ziemlich sicher, dass dieses Gesetz - abgesehen von lokalen Unstetigkeitseffekten auch stimmt.

Tomcat70
2005-10-10, 19:53:45
Es gibt keine überproportionale Steigerung der Leistung (bei stetigen Systemen). Das ist absoluter Unfug.

Das ist ein physikalisches Gesetz, da brauchen wir gar nicht weiter drüber zu reden.

also so einen test kann man jederzeit selbst nachmachen.
funktioniert sogar bei uralter hardware schon.

z.b. 9800 pro mit p4 3,0 3dmark03 800x600 6aa/16af game test battle of proxycon
bei 6 durchläufen immer dasselbe ergebnis:

304/304: 10,9 fps
358/358: 13,2 fps

steigerung der takte jeweils 17,7%, steigerung der average fps 21,1%

Mr. Lolman
2005-10-10, 19:57:36
Du sagst es: "bei stetigen Systemen"
Da wir nicht wissen, ob durch die Takterhöhungen auf einmal ganz viele Wartezyklen überflüssig werden oder gar eine angenommene Sprungvorhersage besser zuschlägt, können wir nicht davon ausgehen daß es so stetig ist.

Der Wirkungsgrad eines Speicherkontrollers verhält sich nicht linear zum RAM-Takt. Für die Performances ist die theoretisch erreichbare Bandbreite mal dem Wirkungsgsrad wichtig. ;)

also so einen test kann man jederzeit selbst nachmachen:

z.b. 9800 pro mit p4 3,0 3dmark03 800x600 6aa/16af battle of proxycon
bei 6 durchläufen immer dasselbe ergebnis:

304/304: 10,9 fps
358/358: 13,2 fps

steigerung der takte jeweils 17,7%, steigerung der average fps 21,10%

Na eben!

Quasar
2005-10-10, 21:38:14
Wobei die Gametest da schlechte Beispiele sind, da die BQ wiedermal nicht vergleichbar war. Vergleicht man das Driverheaven Launchreview mit dem von Computerbase sieht man (@1600x1200/4xAA/8xAF) bei Computerbase 43fps vs. 53fps (+23%) und Driverheaven 46fps vs 74fps (+61%). Ausgehend von den Computerbase Werten hätte die 7800GTX mit dem 78.03 statt 74fps nur mehr 56fps. Rechnet man die ~24% runter die der G70 verliert , hätte er bei dem Diagramm statt 48fps nur mehr 36fps und läge somit nur mehr knapp vorm R520: http://www.driverheaven.net/articles/efficiency/flashers/doom3.jpg :tongue:
DH hat Ultra-Quality für Doom3 (ich vermute, du beziehst dich darauf, gelle?) benutzt.

Mr. Lolman
2005-10-10, 22:10:50
DH hat Ultra-Quality für Doom3 (ich vermute, du beziehst dich darauf, gelle?) benutzt.

Computerbase nicht?

Armaq
2005-10-10, 22:21:21
Grestorn hat bei simpel gehaltenen Systemen zu 100% recht.
Wenn das ganze aber in Wechselwirkung tritt, denke ich zumindest, trifft deine Aussage nicht mehr zu.

deekey777
2005-10-10, 22:26:37
iXBT haben auch den dritten Teil (http://www.ixbt.com/video2/r520-part3.shtml) ihres X1000er Reviews veröffentlicht. Es ist zwar noch in Russisch, doch es wird in den nächsten Tagen auch auf Digit-Life in Englisch veröffentlicht. Die Tests wurden auch mit HQ-AF und AdAA gemacht.

Tomcat70
2005-10-10, 22:26:45
Grestorn hat bei simpel gehaltenen Systemen zu 100% recht.

das stand imo eh nicht wirklich in frage.
nur ist halt eine moderne grafikkarte kein so einfaches system.

Grestorn
2005-10-10, 22:36:11
das stand imo eh nicht wirklich in frage.
nur ist halt eine moderne grafikkarte kein so einfaches system.
Jetzt muss man mir nochmal erklären, was an einem komplexen System so anders sein soll... Aber lassen wir das. Das bringt nix.

Quasar
2005-10-10, 22:45:07
Computerbase nicht?
Steht da nicht explizit - keine Ahnung. Mail an den Autor??

up¦²
2005-10-10, 23:05:29
War das schon bekannt?:
What to expect from NVIDIA (http://www.techpowerup.com/reviews/ATI/WhatToExpect)

I got these slides in my inbox on friday, the sender did not even mention if they were made by a manufacturer or if they are user-made.
When asked, he only revealed that the presentation is not user made, but he can't reveal his source..

So please take the information presented with a grain of salt. As I see it, this presentation could come from:

ATI
NVIDIA
User side
Ask yourself who has something to gain from making it.

... :confused:

Tomcat70
2005-10-10, 23:11:45
War das schon bekannt?:
What to expect from NVIDIA (http://www.techpowerup.com/reviews/ATI/WhatToExpect)



... :confused:

jo, habs schon gesehen aber ich finds einfach nur wenig anregend daß sich die beiden immer mehr mit dreck bewerfen. wo soll das noch hinführen frag ich mich.
naja, er schreibt ja das er keinen quellennachweis hat, vielleicht nur ein scherz eines fanboys?

deekey777
2005-10-10, 23:17:04
Die Seite bringt meinen Opera-Browser aus dem Tritt.

Ich tippe, es ist von kritischen Leuten gemacht worden, aber ich spüre, daß diese Präsentation mehr enthalten könnte, als man sieht, wie es bei der nVidia kritischen Folie gegen ATis CrossFire der Fall war.

Armaq
2005-10-10, 23:37:12
Jetzt muss man mir nochmal erklären, was an einem komplexen System so anders sein soll... Aber lassen wir das. Das bringt nix.

Die Wechselwirkung, vor zurück zur Seite ran.
Ich kann mir einfach nur nicht vorstellen, dass dein Satz "universell" gültig ist. Demirug's Rechenbeispiel ist ein schönes Beispiel.
Ich habe auch nicht wirklich viel Ahnung von Grafikkarten und deren Aufbau, weiss aber mit Sicherheit, das komplexe Systeme meistens universell gültige Theorien und math. Beweise entschärfen.

Auch die Einteilung zwischen Komplex und Simpel möchte ich nicht vornehmen.

Wie schon gesagt, du hast sicher Recht, aber wenn es "kompliziert" wird scheint mir deine Feststellung nicht mehr 100% zuzutreffen.

Coda
2005-10-11, 00:13:43
jo, habs schon gesehen aber ich finds einfach nur wenig anregend daß sich die beiden immer mehr mit dreck bewerfen. wo soll das noch hinführen frag ich mich.
naja, er schreibt ja das er keinen quellennachweis hat, vielleicht nur ein scherz eines fanboys?Nene, das sind typische Sell-Papers. Gibt's von nVIDIA genau die gleichen.

Was da drin steht ist natürlich mal wieder sehr einseitig betrachtet ;)

MadManniMan
2005-10-11, 01:18:39
Und wenn der Wirkungsgrad zusammen mit der Taktfrequenz steigt bis er eben die 1 erreicht?

Warum sollte sich der Wirkungsgrad erhöhen?

StefanV
2005-10-11, 04:56:06
Warum sollte sich der Wirkungsgrad erhöhen?
Latenz sinkt, wie ich vor ein paar Seiten schrieb...

StefanV
2005-10-11, 05:09:48
Nene, das sind typische Sell-Papers. Gibt's von nVIDIA genau die gleichen.

Was da drin steht ist natürlich mal wieder sehr einseitig betrachtet ;)
dieses (http://www.techpowerup.com/reviews/ATI/WhatToExpect/images/WhatToExpect-18.jpg) find ich irgendwie recht 'lustig', zumal Punkt 2, 4 und 5 auch noch recht gemein sind weil durchaus Wahr...

Ebenso Seite 8, womit ATi wohl nicht ganz unrecht haben könnte...

tombman
2005-10-11, 05:39:12
Du sagst es: "bei stetigen Systemen"
Da wir nicht wissen, ob durch die Takterhöhungen auf einmal ganz viele Wartezyklen überflüssig werden oder gar eine angenommene Sprungvorhersage besser zuschlägt, können wir nicht davon ausgehen daß es so stetig ist.

genau, hatte ich schon früher mit dem Beispiel und den beiden Frequenzen A-B genannt...

tombman
2005-10-11, 05:53:36
btw, netter Test mit dem G70vsR520 @same gpu/mem/pipes.

Erstaunlich wie gut der G70 abschneidet in echten games...

Demirug
2005-10-11, 07:53:21
War das schon bekannt?:
What to expect from NVIDIA (http://www.techpowerup.com/reviews/ATI/WhatToExpect)



... :confused:

Seite 16 ist ganz lustig vorallem wenn man diese "Reports" schon mal in echt gesehen hat. Der gezeigte Abschnitt enthält nämlich die gefixten "Bugs" und nicht die offenen (die wären darüber).

Ist aber sowieso immer das gleiche. Ich erwarte eigentlich noch die grüne Schmäschrift zum Thema X1x00.

Demirug
2005-10-11, 07:56:57
btw, netter Test mit dem G70vsR520 @same gpu/mem/pipes.

Erstaunlich wie gut der G70 abschneidet in echten games...

Das wurde auf B3D von zwei ATI Mitarbeiter schon schwer kritisiert. Man dürfte das nicht tun weil der R520 ja für höhere Taktfrequenzen ausgelegt wäre. Es wäre also völlig irrelevant. Im Prinzip haben sie damit ja sogar recht. Solange nVidia keinen 90nm G70 baut und mit der gleiche Taktfrquenz verkauft hat man hier eben unterschiedliche Ansätze zum erreichen der Leistung. Das ist wie Intel vs. AMD.

Marc-
2005-10-11, 10:04:09
Das wurde auf B3D von zwei ATI Mitarbeiter schon schwer kritisiert. Man dürfte das nicht tun weil der R520 ja für höhere Taktfrequenzen ausgelegt wäre. Es wäre also völlig irrelevant. Im Prinzip haben sie damit ja sogar recht. Solange nVidia keinen 90nm G70 baut und mit der gleiche Taktfrquenz verkauft hat man hier eben unterschiedliche Ansätze zum erreichen der Leistung. Das ist wie Intel vs. AMD.

Und genau dieses argument ist richtig. Der R520 wurde von vorneherein für hoehere taktfrequenzen ausgelegt, wie stark der einbruch bei niedrigeren taktfrequenzen bei der architektur ist, konnte man ja allein schon bei den tests der XL modelle sehen... das ist weitaus heftiger als bei dem G70. Ein chip wird in aller regel mit einer festen zielvorgabe entwickelt, und ich denke der R520 wurde entwickelt um nach und nach noch deutlich schnellere core speeds und memory speeds zu verwalten. Insofern kann man schon davon ausgehen das auch sämtliche timings, die auch übergabe zwischen core und speicher angehen auf entsprechend schnelle geschwindigkeiten ausgelegt sind.
Das beispiel Intel und AMD ist tatsächlich nicht schnell... vergleiche beide cpus bei gleichem REAL core und das ergebnis ist absolut verfälscht. Einfach weil die eine cpu auf schnelleren speed ausgelegt ist. bzw die cpu zur gleichen leistung höhere reale taktung braucht. Genauso arbeiten beide cpus mit unterschiedlichen caches und registergrössen. Folgt man eurer argumentation waere der einzig faire vergleich der, indem man alles egalisiert... damit wuerde man beiden architekturen nicht gerecht und würde ein total nichtsaussagendes ergebnis erhalten.

TrigPe
2005-10-11, 10:32:32
Hallo,

gibts eigentlich schon Benches des R520 unter Linux?

MfG

mapel110
2005-10-11, 12:54:20
Hallo,

gibts eigentlich schon Benches des R520 unter Linux?

MfG
Gibts überhaupt schon Linuxtreiber für R520?!

btw nett nett, was da ATI fabriziert hat. Aber warum 321 Mio Transistoren?! Wofür sind die denn drauf gegangen, wenn da doch nun wieder einiges fehlt?

Hoffentlich gibts dennoch einen kleinen Preiskampf im High End Bereich. Ist ja zu befürchten, dass das wieder ausbleibt, wenn die XT nicht großflächig verfügbar ist. ;(

Crushinator
2005-10-11, 13:03:13
(...) btw nett nett, was da ATI fabriziert hat. Aber warum 321 Mio Transistoren?! Wofür sind die denn drauf gegangen, wenn da doch nun wieder einiges fehlt? (...)
Die sind wohl für's AA trotz FP16-Alphablending, die Branchleistung und das Speicherinterface drauf gegangen, jetzt mal abgesehen vom weniger winkelabhängigen AF-Kern. Ein unerheblicher Anteil dürfte auch der Stabilisierung des DIE dienen.

MadManniMan
2005-10-11, 13:16:51
Latenz sinkt, wie ich vor ein paar Seiten schrieb...

Du hast zwar geschrieben, daß das passiert, aber nicht inwiefern das die Effizienz steigern soll :|

Mr. Lolman
2005-10-11, 14:10:21
Du hast zwar geschrieben, daß das passiert, aber nicht inwiefern das die Effizienz steigern soll :|

So z.B.: http://www.forum-3dcenter.de/vbulletin/showpost.php?p=3561268&postcount=1289

Coda
2005-10-11, 14:16:16
Lolman, vor und nach den jeweiligen Pipelines ist ein ziemlicher dicker Fifo, da muss einiges passieren bis sowas durchschlägt. Dann wird halt einen Takt oder zweit Takte gewartet bis man es rausschreibt. Das gibt keinen Stall.

reunion
2005-10-11, 15:33:11
Passive X1600pro:

http://pics.computerbase.de/news/12011/1.jpg

http://pics.computerbase.de/news/12011/2.jpg

http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/oktober/asus_radeon_x1600_pro/

deekey777
2005-10-11, 16:59:03
ATI Technologies' counter-offensive: RADEON X1800 (R520), X1600 (RV530), and X1300 (RV515) Series, Part 2: Video cards' features, synthetic tests.

http://www.digit-life.com/articles2/video/r520-part2.html

Schaut euch das Foto mit dem polnischen Tester an. :biggrin:

sklave_gottes
2005-10-11, 17:02:45
Schaut euch das Foto mit dem polnischen Tester an
russe

deekey777
2005-10-11, 17:09:49
russe

(Pavel Pilarchik from PCLab.pl (Poland) is wrestling with R520 tests at Ibiza).

sklave_gottes
2005-10-11, 18:19:51
ok sorry dachte wäre eine russische seite

mindfaq
2005-10-11, 18:22:53
Ist es doch auch. ;)

deekey777
2005-10-12, 17:36:13
Die russische Seite iXBT hat jetzt den vierten Teil (http://www.ixbt.com/video2/r520-part4-a.shtml#p1) ihres X1000 Reviews veröffentlicht, in dem es um die Bildqualität geht.

In SS2 verursacht auf der 7800GTX Fehler/Blockbildung bei den Spiegelungen.



http://www.digit-life.com/articles2/video/r520-part3.html

PingpiN
2005-10-12, 18:30:34
Die russische Seite iXBT hat jetzt den vierten Teil (http://www.ixbt.com/video2/r520-part4-a.shtml#p1) ihres X1000 Reviews veröffentlicht, in dem es um die Bildqualität geht.

In SS2 verursacht auf der 7800GTX Fehler/Blockbildung bei den Spiegelungen.



http://www.digit-life.com/articles2/video/r520-part3.html

Ich bin kein Bildvergleich Profi,aber bei Doom 3 sieht mann kaum AA auf der 7800.Auf kein einzigen Bild sind die rillen langezogen auf einer 7800. :D Überall sind kleine zacken drin soaws soll doch das aa beheben oder nicht ?
Für mich als Grafik noobie steht nach denn bildern fest das Ati klar die bessere Bildquali hat.!?
Hq-AF sieht mann ja wirklich. :hammer: :love4:

Quasar
2005-10-12, 18:44:55
Jedenfalls wundert mich jetzt die angeblich so tolle Performance der X1800 bei der Fear SP-Demo nicht mehr. *g*

http://www.ixbt.com/video2/images/r520/fear_rx1800_aa4x_af16x_s.jpghttp://www.ixbt.com/video2/images/r520/fear_rx850_aa4x_af16x_s.jpg


Schaut mal auf die "Softshadows", die extrem viel Leistung ziehen.

Mr. Lolman
2005-10-12, 18:50:13
Schaut mal auf die "Softshadows", die extrem viel Leistung ziehen.

Da dürfts überhaupt einige Probleme geben. Bei beiden Karten sind die an stellen soft wo sies garnicht sein sollten (bei NV noch mehr als bei ATi, dafür fehlt bei ATi an manchen Stellen der weiche Übergang generell.

A.Wesker
2005-10-12, 18:51:33
Ich bin kein Bildvergleich Profi,aber bei Doom 3 sieht mann kaum AA auf der 7800.Auf kein einzigen Bild sind die rillen langezogen auf einer 7800. :D Überall sind kleine zacken drin soaws soll doch das aa beheben oder nicht ?
Für mich als Grafik noobie steht nach denn bildern fest das Ati klar die bessere Bildquali hat.!?
Hq-AF sieht mann ja wirklich. :hammer: :love4:
splintercell und HL2 sehen auf der Geforce 7 besser aus

seahawk
2005-10-12, 18:51:59
Jedenfalls wundert mich jetzt die angeblich so tolle Performance der X1800 bei der Fear SP-Demo nicht mehr. *g*

http://www.ixbt.com/video2/images/r520/fear_rx1800_aa4x_af16x_s.jpghttp://www.ixbt.com/video2/images/r520/fear_rx850_aa4x_af16x_s.jpg


Schaut mal auf die "Softshadows", die extrem viel Leistung ziehen.

Ich sehe keine :biggrin:

mindfaq
2005-10-12, 18:53:21
Ob das die Lösung ist ?

Hat mich eh von Anfang an verwundert, dass die ATI-Karten auf einmal so schnell sind in Fear SP Demo, wo es in der MP Beta noch ganz anders aussah.

Wenn das keinem "Reviewer" aufgefallen ist, dann ist das echt ein Armutszeugnis...

Mr. Lolman
2005-10-12, 18:57:48
splintercell und HL2 sehen auf der Geforce 7 besser aus

Naja, das AA sieht bei HL² auf der Ati zT deutlich besser aus (die Stromkabel vor der Sonne sind bei Nv überhaupt nicht geglättet). außerdem gibts bei NV-Shot ein paar Polygonglitches um den 4. Zebrastopper. Dafür fehlen bei Ati 2 Grasbüschel

A.Wesker
2005-10-12, 18:59:23
Naja, das AA sieht bei HL² auf der Ati zT deutlich besser aus (die Stromkabel vor der Sonne sind bei Nv überhaupt nicht geglättet). außerdem gibts bei NV-Shot ein paar Polygonglitches um den 4. Zebrastopper. Dafür fehlen bei Ati 2 Grasbüschel
wobei die hinteren stromkabel auf der ati in der farbtiefe stark abgeschwächt sind

Mr. Lolman
2005-10-12, 18:59:27
Ich sehe keine :biggrin:

X-D

BTW: Ich seh grad, dass NV an ein paar Stellen auch so komisch "unsofte" Abstufungen hat, wos bei ATi ok ist...

Mr. Lolman
2005-10-12, 19:03:25
wobei die hinteren stromkabel auf der ati in der farbtiefe stark abgeschwächt sind

Naja, eher noch die Äste der Bäume, die Stromkabel sind imo in Ordnung und insgesamt gefällt mir der ATi Shot besser...

Blaire
2005-10-12, 19:04:52
Für mich sieht das 7800GTX Gesamtbild deutlich besser aus, bei Ati sehen die Schatten richtig grob aus.

http://www.ixbt.com/video2/r520-part4-f.shtml

Leider haben die Bilder wohl einen Linkschutz...

Horimoto
2005-10-12, 19:08:13
Kommt es mir nur so vor, oder ist HDR bei Ati karten (SC3) nicht on?

Quasar
2005-10-12, 19:09:00
Kommt es mir nur so vor, oder ist HDR bei Ati karten (SC3) nicht on?
Doch, aber es wurde/wird anders realisiert als das bei Nvidia. Daher das unterschiedliche Endergebnis.

Quasar
2005-10-12, 19:10:10
Da dürfts überhaupt einige Probleme geben. Bei beiden Karten sind die an stellen soft wo sies garnicht sein sollten (bei NV noch mehr als bei ATi, dafür fehlt bei ATi an manchen Stellen der weiche Übergang generell.
Wo meinst du zum Beispiel?

Horimoto
2005-10-12, 19:12:01
Das Bild mit HDR sieht aber echt 'mässig' aus, nVidia hat da deutlich mehr tiefe wie ich finde. Dafür hat ATi die klar besseren texturen und AA

Mr. Lolman
2005-10-12, 19:13:25
Für mich sieht das 7800GTX Gesamtbild deutlich besser aus, bei Ati sehen die Schatten richtig grob aus.


...und bei NV dafür falscher. Warum wirft bei NV das Geländer hinten einen doppelten Schatten? Warum wird gibts zw. Schatten und Waffe weiche Abstufungen?

Außerdem scheint mir, dass die Artefakte technikbedingt sind und sich mit dem jew. Blickwinkel ändern. (dafür spricht dass bei ATi komplett andere Winkel glatt sind als bei NV). IdF ists dann natürlich sehr wahrscheinlich, dass bei einem anderen Blinkwinkel Ati insgesam etwas besser wirkt...


just my 0.2€

betasilie
2005-10-12, 19:15:13
Jedenfalls wundert mich jetzt die angeblich so tolle Performance der X1800 bei der Fear SP-Demo nicht mehr. *g*

http://www.ixbt.com/video2/images/r520/fear_rx1800_aa4x_af16x_s.jpghttp://www.ixbt.com/video2/images/r520/fear_rx850_aa4x_af16x_s.jpg


Schaut mal auf die "Softshadows", die extrem viel Leistung ziehen.
Ich sehe da Softshadows, nur nicht zwischen den beiden Stangen. ist wohl keine Absicht, denn danben sehen die Softshadows genauso aus wie bei NV.

Mr. Lolman
2005-10-12, 19:16:15
Wo meinst du zum Beispiel?

Beim Water-tank ist NV gröber und rund um die Waffe und dem braunen Rohr (beim Watertank) falsch abgestuft.

Mr. Lolman
2005-10-12, 19:19:07
Jedenfalls wundert mich jetzt die angeblich so tolle Performance der X1800 bei der Fear SP-Demo nicht mehr. *g*

[-img]http://www.ixbt.com/video2/images/r520/fear_rx1800_aa4x_af16x_s.jpg[/img][-img]http://www.ixbt.com/video2/images/r520/fear_rx850_aa4x_af16x_s.jpg[/img]


Schaut mal auf die "Softshadows", die extrem viel Leistung ziehen.

Ich sehe da Softshadows, nur nicht zwischen den beiden Stangen. ist wohl keine Absicht, denn danben sehen die Softshadows genauso aus wie bei NV.

BTW: Links = Ati , rechts = NV (nur um Mißverständnissen vorzubeugen;))

seahawk
2005-10-12, 19:27:32
Naja, eher noch die Äste der Bäume, die Stromkabel sind imo in Ordnung und insgesamt gefällt mir der ATi Shot besser...

Geschmackssache imho. Dafür sehen die dünneren ATI Kabel eher wie Gleiderkettenaus. Aber das ist imho ne Grundsatzfrage, was ma npersönlich bevorzugt.

Blaire
2005-10-12, 19:30:10
...und bei NV dafür falscher. Warum wirft bei NV das Geländer hinten einen doppelten Schatten? Warum wird gibts zw. Schatten und Waffe weiche Abstufungen?

Außerdem scheint mir, dass die Artefakte technikbedingt sind und sich mit dem jew. Blickwinkel ändern. (dafür spricht dass bei ATi komplett andere Winkel glatt sind als bei NV). IdF ists dann natürlich sehr wahrscheinlich, dass bei einem anderen Blinkwinkel Ati insgesam etwas besser wirkt...


just my 0.2€

Mir scheint eher so , als wären auf den Screens garkein Softshadows bei Ati aktiv, dann wundern mich die besseren Benchmarks auch garnicht.

seahawk
2005-10-12, 19:31:12
Kommt es mir nur so vor, oder ist HDR bei Ati karten (SC3) nicht on?

Sieht eigentlich genau wie die X850 aus.

Mr. Lolman
2005-10-12, 19:35:35
Mir scheint eher so , als wären auf den Screens garkein Softshadows bei Ati aktiv, dann wundern mich die besseren Benchmarks auch garnicht.

Mich wundern sie auch nicht mehr - nachdem ich einige andere, theoretische Benchmarks gesehen hab. Imo wird die Kluft R520/G70 in Zukunft sogar noch größer werden. Gerade dann wenn man Branching ins Spiel bringt. (neue Unrealengine :naughty: )

/edit: BTW: Es gibt auf dem Screenshot genug Schatten diebei NV schlechter geglättet sind. Anhand von dem einzelnen Screen, Rückschlüsse auf etwaige Performancevorteile zu machen wär mir imo zu gewagt..

Blaire
2005-10-12, 19:36:56
Mich wundern sie auch nicht mehr - nachdem ich einige andere, theoretische Benchmarks gesehen hab. Imo wird die Kluft R520/G70 in Zukunft sogar noch größer werden. Gerade dann wenn man Branching ins Spiel bringt. (neue Unrealengine :naughty: )

Bis dahin sind wir schon 2 Grafikkartengenerationen weiter. ;)

Quasar
2005-10-12, 19:39:53
BTW: Links = Ati , rechts = NV (nur um Mißverständnissen vorzubeugen;))
Links ATi, rechts auch ATi. =)

Mal abgesehen davon, daß ich so häßliche Softshadows wie bei FEAR für sinnlos halte, denke ich, sollte man schon schauen, ob sie auch korrekt dargestellt werden. Und zwar so (häßlich), wie sie der Entwickler vorgesehen hat.

edit:
Du brauchst auch gar nicht mit NV vergleichen. Schau dir doch einfach das andere ATi-Bild an...dort sehen die Soft-Shadows korrekt aus.

Mr. Lolman
2005-10-12, 19:45:11
Links ATi, rechts auch ATi. =)

Hoppla :redface:


Mal abgesehen davon, daß ich so häßliche Softshadows wie bei FEAR für sinnlos halte, denke ich, sollte man schon schauen, ob sie auch korrekt dargestellt werden. Und zwar so (häßlich), wie sie der Entwickler vorgesehen hat.

Vll. kann ja mal ein Guru erörtern wie solche Unterschiede zustande kommen. denn x850 und g70 rechnen ja auch gleich häßlich ;)

betasilie
2005-10-12, 19:49:24
BTW: Links = Ati , rechts = NV (nur um Mißverständnissen vorzubeugen;))
OK, jetzt wissen wir ja das beide mit ATI Karten gemacht wurden. Mir ging es um das linke Pic, von der X1800. Dort sind Softshadows zu sehen, nur scheint da mal wieder jemand manipulieren zu wollen, indem er ein Pic nimmt, wo an einer Stelle wohl durch einen Bug bedingt kein Softshadow zu sehen ist. Und das nur partiell:

http://img435.imageshack.us/img435/1329/fearrx1800aa4xaf16xs5su.jpg

Hier sieht man ganz deutlich, dass Softshadows berechnet werden, nur in dem kleinem Teil in der Mittel nicht, was sicher ein Bug ist. Damit erklären zu wollen, wieso die ATIs so wegziehen in FEAR, ist wohl nur wieder ein klassischer Flameversuch.

Blaire
2005-10-12, 19:57:04
Nö nicht nur dort schau mal schau z.b. hinter den Kisten den Schatten, das sind keine Softshadows viel zu eckig. Die doppelten Schatten kommen durch den Softshadowseffekt.

deekey777
2005-10-12, 20:05:02
Kommt es mir nur so vor, oder ist HDR bei Ati karten (SC3) nicht on?

Es steht doch im Text, daß auf der X1800er das "SM2.0-HDR" zu sehen ist, wurde übrigens schon mehrmals erwähnt. X-D

In HL2 scheint die Gamma-Korrektur bei der 7800GTX nicht zu funktionieren, erst mit High Quality gibt es die gleiche Filterqualität wie bei den Radeon, AF-HQ scheint nicht viel zu bringen. In Doom 3 kommt die 7800er in Sachen Anisotropie nicht an die Radeon heran, dagegen will die X1800 erst dann AF-HQ einschalten, wenn das AI aus ist, a muß noch was gefixt werden. In SC3 ist eigentlich alles gleich, die Dunkelheit "versteckt" die Filtersünden der 7800er, keine Vorteile des AF-HQ. Bei FEAR scheint es einen Fehler bei der X1800 zu geben, doch alle versagen beim Filtern des Bodengitters, die 7800 schafft es auf HQ geradenoch, aber auch hier wird gemoggelt. In SS2 reicht FP16 für die Spiegelungen an den Fenstern der Gebäude im Hintergrund nciht aus, sonst ist alles gleich, das AF-HQ zeigte zum ersten Mal dessen Vorteile.

PS: Habt ihr alle den gleichen Bildschirm?

Quasar
2005-10-12, 20:31:48
OK, jetzt wissen wir ja das beide mit ATI Karten gemacht wurden. Mir ging es um das linke Pic, von der X1800. Dort sind Softshadows zu sehen, nur scheint da mal wieder jemand manipulieren zu wollen, indem er ein Pic nimmt, wo an einer Stelle wohl durch einen Bug bedingt kein Softshadow zu sehen ist. Und das nur partiell:

http://img435.imageshack.us/img435/1329/fearrx1800aa4xaf16xs5su.jpg

Hier sieht man ganz deutlich, dass Softshadows berechnet werden, nur in dem kleinem Teil in der Mittel nicht, was sicher ein Bug ist. Damit erklären zu wollen, wieso die ATIs so wegziehen in FEAR, ist wohl nur wieder ein klassischer Flameversuch.
Verzeihung beta, aber schau dir bitte mal die kompletten PNGs bei xBit an, bevor du hier wieder Flames witterst.
X1800:http://www.ixbt.com/video2/images/r520/fear_rx1800_aa4xa_af16xhq_aioff.png
X850:http://www.ixbt.com/video2/images/r520/fear_rx850_aa4x_af16x_aioff.png

Dann wirst du sehen, daß es nicht nur deine eine Stelle im Geländer ist, sondern eigentlich beinahe das gesamte Bild betroffen ist. Was mir allerdings ein Rätsel bleibt, woher die miese Bildqualität der PNGs stammt.

deekey777
2005-10-12, 20:56:28
In FEAR scheinen die X1800 und die 7800 richtig und falsch zu rendern. Schaut euch die ganzen Screenshots an und nicht nur einen Ausschnitt: Da sind einige Unterschiede zu sehen, ohne das es einen "Sieger" gibt.

Coda
2005-10-12, 20:57:38
Naja der Unterschied zwischen X850 und X1800 deutet schon auf einen Treiberbug bei der X1800 hin.

betasilie
2005-10-12, 21:10:54
Verzeihung beta, aber schau dir bitte mal die kompletten PNGs bei xBit an, bevor du hier wieder Flames witterst.
X1800:http://www.ixbt.com/video2/images/r520/fear_rx1800_aa4xa_af16xhq_aioff.png
X850:http://www.ixbt.com/video2/images/r520/fear_rx850_aa4x_af16x_aioff.png

Dann wirst du sehen, daß es nicht nur deine eine Stelle im Geländer ist, sondern eigentlich beinahe das gesamte Bild betroffen ist. Was mir allerdings ein Rätsel bleibt, woher die miese Bildqualität der PNGs stammt.
Stimmt allerdings, es sind schon mehrere Stellen. ;) Trotzdem würde ich sowas erstmal klar als Treiberbug bewerten. Ich wette drauf, dass das mit einer der nächsten Treiberversionen behoben sein wird, denn die Karte ist halt neu und Spiel und Karte nichtmal auf dem Markt. Mal gucken was Schatten und Performance dann sagen.

Quasar
2005-10-12, 21:13:06
Stimmt allerdings, es sind schon mehrere Stellen. ;) Trotzdem würde ich sowas erstmal klar als Treiberbug bewerten. Ich wette drauf, dass das mit einer der nächsten Treiberversionen behoben sein wird, die Karte ist halt neu und das Spiel nicht mal auf dem Markt. Mal gucken was Schatten und Performance dann sagen.
Ja, schauen wir mal. Ich sehe das natürlich auch als Bug, nicht als Cheat oder so. Dafür, dass die Performance deutlich sinken wird, spricht allerdings die Multi-Player-Demo (beide Multi-Player-Demos), wo Soft-Shadows korrekt funktionieren (aber andere Bugs zu finden sind) und die X1800 eben nicht die angegebenen 75% schneller ist. Ein anderes Indiz ist der generell starke Einbruch durch Softshadows an sich in diesem Game.

betasilie
2005-10-12, 21:17:48
Ja, schauen wir mal. Ich sehe das natürlich auch als Bug, nicht als Cheat oder so. Dafür, dass die Performance deutlich sinken wird, spricht allerdings die Multi-Player-Demo (beide Multi-Player-Demos), wo Soft-Shadows korrekt funktionieren (aber andere Bugs zu finden sind) und die X1800 eben nicht die angegebenen 75% schneller ist. Ein anderes Indiz ist der generell starke Einbruch durch Softshadows an sich in diesem Game.
Sehe ich auch so. Ist nicht unwahrscheinlich, dass die Balken Federn lassen müssen. Warten wir mal ab.

BTW: Das erste FEAR Review soll angeblich heute noch auf IGN kommen.

deekey777
2005-10-12, 21:19:38
IMO scheinen die Softshadows auf dem Screenshot der X1800 "richtiger" verteilt zu sein, wobei es einige Fehler gibt; näher an der Lichtquelle sind die Schatten härter, weiter entfernt werden die Schatten weicher und - rein subjektiv - auch hübscher.

Quasar
2005-10-12, 21:20:30
Hm? Das gibt's doch schon seit Wochen in der PCGH. =)

betasilie
2005-10-12, 21:21:39
IMO scheinen die Softshadows auf dem Screenshot der X1800 "richtiger" verteilt zu sein, wobei es einige Fehler gibt; näher an der Lichtquelle sind die Schatten härter, weiter entfernt werden die Schatten weicher und - rein subjektiv - auch hübscher.
Mhhh. Aber das >*< (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3569102&postcount=1442) ist damit nicht zu erklären. Aber ne nette Interpretation. :D

deekey777
2005-10-12, 21:33:37
Mhhh. Aber das >*< (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3569102&postcount=1442) ist damit nicht zu erklären. Aber ne nette Interpretation. :D

Das ist keine Interpretation; es gibt mehrere Fehler bei der X1800, zB im Kreis auf dem Screenshot, was ich nicht bezweifle, doch das Bild der X1800 ist für mich echter.

Hier die 7800:
http://img420.imageshack.us/img420/4584/fear6hs.th.jpg (http://img420.imageshack.us/my.php?image=fear6hs.jpg)

Ist ja logisch, wenn's doppelt berechnet wird, daß es mehr Leistung kostet. :biggrin:

betasilie
2005-10-12, 22:16:51
Das ist keine Interpretation; es gibt mehrere Fehler bei der X1800, zB im Kreis auf dem Screenshot, was ich nicht bezweifle, doch das Bild der X1800 ist für mich echter.

Hier die 7800:
http://img420.imageshack.us/img420/4584/fear6hs.th.jpg (http://img420.imageshack.us/my.php?image=fear6hs.jpg)

Ist ja logisch, wenn's doppelt berechnet wird, daß es mehr Leistung kostet. :biggrin:
Hmm, mag sein, aber für mich sieht es eher danach aus, dass diese Methode Softshadows zu generieren nicht klappt bei "dünnen" Objekten, weil keine Überlappung mehr stattfindet. Ein Paradebeispiel für Softshadows ist es ganz sicher nicht. Eigentlich müsste man bei solchen Schatten wirklich die Outline scharf lassen, um solche Fehler zu vermeiden - jedenfalls bei FEAR.

Coda
2005-10-12, 23:33:04
Das ist keine Interpretation; es gibt mehrere Fehler bei der X1800, zB im Kreis auf dem Screenshot, was ich nicht bezweifle, doch das Bild der X1800 ist für mich echter.

Hier die 7800:
http://img420.imageshack.us/img420/4584/fear6hs.th.jpg (http://img420.imageshack.us/my.php?image=fear6hs.jpg)

Ist ja logisch, wenn's doppelt berechnet wird, daß es mehr Leistung kostet. :biggrin:Das mathematisch korrekte Ergebnis des Shaders und das was die Entwickler damit bezwecken wollen ist trotzdem das Ergebnis von G70/R420.

Wahrscheinlich optimiert der R5xx Shadercompiler zuviel davon weg.

tombman
2005-10-13, 03:16:03
Das mathematisch korrekte Ergebnis des Shaders und das was die Entwickler damit bezwecken wollen ist trotzdem das Ergebnis von G70/R420.

Wahrscheinlich optimiert der R5xx Shadercompiler zuviel davon weg.

Eben, und damit ist klar, warum die X1800XT in FEAR so schnell ist

1.) rechnet deutlich weniger bei SS
2.) 512mb ram
3.) 750mhz ram

Damit demystifiziert sich die X1800XT so langsam aber sicher immer mehr ;)

Btw, also das "HDR" der X1800/X800 Serie bei Splinter Cell 3 ist ja wohl ein Witz, KEINE Chance in der Bildqualität gegenüber einer 7800GTX ;)

Und bei HL2 frißt das AAA die halben Pixel weg ....lol.

Spasstiger
2005-10-13, 03:35:19
Btw, also das "HDR" der X1800/X800 Serie bei Splinter Cell 3 ist ja wohl ein Witz, KEINE Chance in der Bildqualität gegenüber einer 7800GTX ;)

Die X1800 und die X800 bekommen doch gar nicht das gleiche HDR in Splinter Cell 3, die X1800 sollte ja auch im SM3-Pfad laufen und das vollwertige HDR abbekommen können (soll jetzt nicht heißen, dass HDR von SM3 abhängt, nur wird eben über die Auswahl des SM-Pfades auch die Art des HDR entschieden).

seahawk
2005-10-13, 09:15:54
Die X1800 und die X800 bekommen doch gar nicht das gleiche HDR in Splinter Cell 3, die X1800 sollte ja auch im SM3-Pfad laufen und das vollwertige HDR abbekommen können (soll jetzt nicht heißen, dass HDR von SM3 abhängt, nur wird eben über die Auswahl des SM-Pfades auch die Art des HDR entschieden).

Lies den Text und sieh die Screenshots X1800 = X800

Gaestle
2005-10-13, 11:04:16
...und bei NV dafür falscher. Warum wirft bei NV das Geländer hinten einen doppelten Schatten? Warum wird gibts zw. Schatten und Waffe weiche Abstufungen?

Außerdem scheint mir, dass die Artefakte technikbedingt sind und sich mit dem jew. Blickwinkel ändern. (dafür spricht dass bei ATi komplett andere Winkel glatt sind als bei NV). IdF ists dann natürlich sehr wahrscheinlich, dass bei einem anderen Blinkwinkel Ati insgesam etwas besser wirkt...


just my 0.2€

Nochmal kurz zu dem Doppelschatten am Geländer:
Die X850 hat den auch.
Außerdem scheint mir (vielleicht seh' ich's ja falsch), dass sowohl die Tanks, als auch die erhöhte Lauffläche sowieso zwei Schatten haben, einen relativ starken und einen relativ schwachen, der etwas versetzt ist. Oder täusche ich mich? Kann es sein, dass die Lampe als zwei Lichtquellen definiert ist und dadurch die Doppelschatten zustande kommen ???

Grüße

Gaestle
2005-10-13, 11:06:05
Die X1800 und die X800 bekommen doch gar nicht das gleiche HDR in Splinter Cell 3, die X1800 sollte ja auch im SM3-Pfad laufen und das vollwertige HDR abbekommen können (soll jetzt nicht heißen, dass HDR von SM3 abhängt, nur wird eben über die Auswahl des SM-Pfades auch die Art des HDR entschieden).

Bei irgendeinem Review stand, dass der R520 bei HDR-SC3 den ATi-SM2-Pfad zugewiesen bekommt. Vielleicht ist es ja nur ein Bug.

Grüße

Horimoto
2005-10-13, 11:11:03
Bei irgendeinem Review stand, dass der R520 bei HDR-SC3 den ATi-SM2-Pfad zugewiesen bekommt. Vielleicht ist es ja nur ein Bug.

Grüße

Ich schätzte mal, dass Sc3 einfach cnoh cniht den SM3 Pfad des R5xx erkennt, weswegen nur das Sm2 HDR (ich weiss dass SM nix mit HDr zu tun hat) verwendet wird.

Demirug
2005-10-13, 11:11:51
Bei irgendeinem Review stand, dass der R520 bei HDR-SC3 den ATi-SM2-Pfad zugewiesen bekommt. Vielleicht ist es ja nur ein Bug.

Grüße

Nein, die logische Konsequenz daraus das der R520 eben nicht alles hat was der SM3 Pfad von SC3 braucht.

deekey777
2005-10-13, 11:34:03
Nein, die logische Konsequenz daraus das der R520 eben nicht alles hat was der SM3 Pfad von SC3 braucht.

Wiederum nein, denn bei iXBT hieß, daß die X1800er zwar auf das "SM2.0"-HDR ausweichen mußte, sonst aber normal den SM3.0 Pfad (HDR aus) verwendete.

http://www.digit-life.com/articles2/video/r520-part3.html
"Splinter Cell Chaos of Theory v.1.04 (Ubisoft) — DirectX 9.0, multitexturing, maximum test settings, shaders 3.0 (for NVIDIA cards)/shaders 2.0 (for ATI cards); HDR OFF!"

Hm, das steht im Widerspruch, was in der russischen Version steht.
http://www.ixbt.com/video2/r520-part3.shtml:
Splinter Cell Chaos of Theory v.1.04 (Ubisoft) — DirectX 9.0, multitexturing, maximum test settings, SM 3.0 (for NVIDIA cards and ATI X1xxx)/shaders 2.0 (for ATI X8xx cards); HDR OFF!


Ach keine Ahnung, alle Reviewer wissen mehr als die anderen...

misterh
2005-10-13, 19:46:46
X1800XL kann man schon jetzt nur sehr gering bestellen, da ja schon verfügtbar ist.

Unter anderen bei Atelco hab ich mir 1 bestellt. Sie haben noch 3stück auf Lager, hiess es. :wink:

P.S.: Ich erhalte die Karte am Samstag.

Coda
2005-10-13, 19:49:54
Wiederum nein, denn bei iXBT hieß, daß die X1800er zwar auf das "SM2.0"-HDR ausweichen mußte, sonst aber normal den SM3.0 Pfad (HDR aus) verwendete.

http://www.digit-life.com/articles2/video/r520-part3.html
"Splinter Cell Chaos of Theory v.1.04 (Ubisoft) — DirectX 9.0, multitexturing, maximum test settings, shaders 3.0 (for NVIDIA cards)/shaders 2.0 (for ATI cards); HDR OFF!"

Hm, das steht im Widerspruch, was in der russischen Version steht.
http://www.ixbt.com/video2/r520-part3.shtml:
Splinter Cell Chaos of Theory v.1.04 (Ubisoft) — DirectX 9.0, multitexturing, maximum test settings, SM 3.0 (for NVIDIA cards and ATI X1xxx)/shaders 2.0 (for ATI X8xx cards); HDR OFF!


Ach keine Ahnung, alle Reviewer wissen mehr als die anderen...Kann gut sein. Das einzige was fehlen wird ist FP-Filtering für's Tonemap-Downsampling (kann man auch mit Point-Filtering machen, braucht aber andere Shader).

Tomcat70
2005-10-13, 19:59:17
was isn das nun wieder? ATi scheint sich ja echt anzustrengen....

ATI produce tool to increase Doom3 scores 'up to 35%' with AA enabled
-----
As well as supporting Doom3, the tool is said to increase performance in all OpenGL titles when using antialiasing. With Doom3 the poster child for that graphics API, ATI's willingness to promote the increases in that application in particular are understandable.

The fix will shortly be rolled into CATALYST 5.11 according to ATI sources and a beta drop of that driver will be made available for testing in due course, before the final WHQL driver from Terry Makedon's CATALYST team is made available for public download in November.
-----


http://www.hexus.net/content/item.php?item=3668

Coda
2005-10-13, 20:04:03
Hört sich nach nem neuen OpenGL-Treiber an.

Tomcat70
2005-10-13, 20:16:45
Hört sich nach nem neuen OpenGL-Treiber an.

ja, scheint so.
hier noch ein statement dazu:
-----
This change is for the X1K family. The X1Ks have a new programmable memory controller and gfx subsystem mapping. A simple set of new memory controller programs gave a huge boost to memory BW limited cases, such as AA (need to test AF). We measured 36% performance improvements on D3 @ 4xAA/high res. This has nothing to do with the rendering (which is identical to before). X800's also have partially programmable MC's, so we might be able to do better there too (basically, discovering such a large jump, we want to revisit our previous decisions).

But It's still not optimal. The work space we have to optimize memory settings and gfx mappings is immense. It will take us some time to really get the performance closer to maximum. But that's why we designed a new programmable MC. We are only at the beginning of the tuning for the X1K's.

As well, we are determined to focus a lot more energy into OGL tuning in the coming year; shame on us for not doing it earlier.
-----

-----
It's a mixture of Z and Blend. Not sure which one gained more. I haven't seen 6xAA tested (or can't remember), but it's probably better too. I'm hoping that within a few weeks, we can tune most of this to get much better in all AA & AF modes. Can't promise any performance deltas, but I think it's fair to say that there's more in there. Given the immense space of possibilities, tuning of the X1k products will take some time. We are just at the beginning...
-----
quelle:
http://www.beyond3d.com/forum/showpost.php?p=595463&postcount=155

Coda
2005-10-13, 20:24:37
Ach so, das Thema hat Demirug auch schon angeschnitte. ATi kann anscheinend den Speichercontroller sehr gut auf Apps anpassen.

Das läuft dann aber auf Treiberprofile hinaus mit allen Vor- und Nachteilen. Neue Games brauchen dann erstmal nen neuen Treiber um besser zu laufen.

Tomcat70
2005-10-13, 20:28:22
Ach so, das Thema hat Demirug auch schon angeschnitte. ATi kann anscheinend den Speichercontroller sehr gut auf Apps anpassen.

Das läuft dann aber auf Treiberprofile hinaus mit allen Vor- und Nachteilen. Neue Games brauchen dann erstmal nen neuen Treiber um besser zu laufen.

so genau trau ich mir das derzeit nicht zu beurteilen.
selbst wenn seh ich da durch den monatlichen treiberzyklus von ati kein grösseres prob.
allerdings klingt das ganze in meinen ohren nicht so sehr nach profilen alleine sondern durchaus auch nach allgemein nutzbaren aspekten. wird man ja an den nächsten catalysts sehen wie es sich dann auswirkt.

Demirug
2005-10-13, 20:36:51
Es ist schon allgemein nutzbar muss aber für jedes Spiel angepasst werden für optimale Performances. Das System ist nicht in der Lage selbst die optimale Einstellung zu finden.

Das Problem dabei ist das diese Einstellung sogar von Level zu Level unterschiedlich sein könnte. Dadurch müsste man im Prinzip Spiele mehrfach komplett durchspielen um genügend Daten zu sammeln um die besten Einstellungen zu finden.

Darum bin ich eben kein Freund von Dingen die Einstellbar sind sich aber nicht selbst kalibrieren können.

Tarkin
2005-10-13, 20:38:42
Ach so, das Thema hat Demirug auch schon angeschnitte. ATi kann anscheinend den Speichercontroller sehr gut auf Apps anpassen.

Das läuft dann aber auf Treiberprofile hinaus mit allen Vor- und Nachteilen. Neue Games brauchen dann erstmal nen neuen Treiber um besser zu laufen.

kann man so nicht sagen...

http://www.beyond3d.com/forum/showpost.php?p=595223&postcount=133

"aja sent the file to me at 3AM, before Bania sent it on elsewhere - unusually I was asleep! But, yes, the fix is supposed to be generic for OpenGL"

GENERIC for OpenGL ... also keine speziellen "Profile" erforderlich

und bzgl. "Given the immense space of possibilities, tuning of the X1k products will take some time. We are just at the beginning..."

... na dass ist mal ne Ansage :). Da steckt also noch einiges an Optimierungspotential drin.

Tomcat70
2005-10-13, 20:42:39
Darum bin ich eben kein Freund von Dingen die Einstellbar sind sich aber nicht selbst kalibrieren können.

naja, kann man das zum jetzigen zeitpunkt schon so genau abschätzen obs nicht einen weg gibt diese art autokalibrierung zu ermöglichen? irgendein algo muss ja dahinterstehen. muss ja nicht immer gleich das absolute optimum sein.

Demirug
2005-10-13, 20:46:22
naja, kann man das zum jetzigen zeitpunkt schon so genau abschätzen obs nicht einen weg gibt diese art autokalibrierung zu ermöglichen? irgendein algo muss ja dahinterstehen. muss ja nicht immer gleich das absolute optimum sein.

ATI hat das durch die Blume selbst zugegeben.

Horimoto
2005-10-13, 20:47:07
Sehe ich das richtig, dass ATi dann mit AA und AF nVidia in allen OGl Spielen überholen WÜRDE?
Mit 30% mehrleistung wäre d3, CoR usw. doch eigntlich zu holen, oder?
Das wäre ein derber Rücksclag für nVidia falls das stimmen würde........

Mr. Lolman
2005-10-13, 20:49:27
ATI hat das durch die Blume selbst zugegeben.

Das klingt so negativ. Im Sinne von: "Tut uns leid, wir müssen euch ein weiteres mal enttäuschen. Mehrperformance gibts schon, aber leider können wir nicht immer und automatisch das Optimum bieten"

So ein Mist aber auch X-D

Coda
2005-10-13, 20:54:56
Naja, man sollte das schon kritisch sehen. Es kann z.B. sein, dass man nur auf oft gebenchte Timedemos optimiert und dabei den Rest des Spiels dann vernachlässigt. Sowas könnte ich mir in FarCry z.B. vorstellen, aber da benchen sie zum Glück ja immer Innen- und Außenlevel.

Mir wäre es lieber wenn der Chip sowas selbst kalibrieren könnte, kostet halt wieder Transistoren.

Ach ja: Es ist ja nicht nur ein Performancevorteil, sondern auch ein möglicher Nachteil, wenn das generische Profil mal nicht passt. Naja, muss man halt bis zum nächsten Treiber warten dann ;)

Mr. Lolman
2005-10-13, 21:02:46
Ach ja: Es ist ja nicht nur ein Performancevorteil, sondern auch ein möglicher Nachteil, wenn das generische Profil mal nicht passt. Naja, muss man halt bis zum nächsten Treiber warten dann ;)

LT. ATi sollte das aber maximal bei R420 Karten passieren, da deren Speichercontroller nicht ganz so flexibel ist.

Quasar
2005-10-13, 21:04:28
Es hiess schon beim R420, er habe einen programmierbaren Speichercontroller. Und so stark, wie ATi ihre Speicher- und Cachebelegung auf einzelne Games anpassen kann, muss es für sie wirklich kritisch sein, da das Optimum zu finden.

Ein Indiz für die Veränderungen, die wir noch sehen werden, könnte die schiere Größe des Launch-Treibers sein.

Quasar
2005-10-13, 21:05:23
Sehe ich das richtig, dass ATi dann mit AA und AF nVidia in allen OGl Spielen überholen WÜRDE?
Mit 30% mehrleistung wäre d3, CoR usw. doch eigntlich zu holen, oder?
Das wäre ein derber Rücksclag für nVidia falls das stimmen würde........
"Bis zu..." ;)

deekey777
2005-10-13, 21:05:33
kann man so nicht sagen...

http://www.beyond3d.com/forum/showpost.php?p=595223&postcount=133

"aja sent the file to me at 3AM, before Bania sent it on elsewhere - unusually I was asleep! But, yes, the fix is supposed to be generic for OpenGL"

GENERIC for OpenGL ... also keine speziellen "Profile" erforderlich

und bzgl. "Given the immense space of possibilities, tuning of the X1k products will take some time. We are just at the beginning..."

... na dass ist mal ne Ansage :). Da steckt also noch einiges an Optimierungspotential drin.
Bei dem Häufchen an OpenGL Spielen braucht man eigentlich nur ein Profil.
...

Das Problem dabei ist das diese Einstellung sogar von Level zu Level unterschiedlich sein könnte. Dadurch müsste man im Prinzip Spiele mehrfach komplett durchspielen um genügend Daten zu sammeln um die besten Einstellungen zu finden.
...

Da melde ich mich als Freiwilliger. :biggrin:

Demirug
2005-10-13, 21:07:52
Das klingt so negativ. Im Sinne von: "Tut uns leid, wir müssen euch ein weiteres mal enttäuschen. Mehrperformance gibts schon, aber leider können wir nicht immer und automatisch das Optimum bieten"

So ein Mist aber auch X-D

Je großartiger ein Feature in den Marketing Papieren Angepriesen wird desto skeptischer werde ich. Und diese Kalibrierung haben sie angepriesen wie frischen Aal.

Ganz am Schluss kommt dann noch das es Applikationsspezifisch ist.

reunion
2005-10-13, 21:14:07
Und was hat das dann mit OpenGL bzw. Doom3 zu tun?
Hat man bis jetzt nur D3D optimiert, oder wie?

Coda
2005-10-13, 21:19:38
Vielleicht. Aber bei OpenGL ist sicher nicht nur der Speichercontroller das Problem vermutlich.

Lässt sich halt schwer sagen alles ohne den Source-Code von ATis Treiber zu haben X-D

Tomcat70
2005-10-13, 21:20:59
Je großartiger ein Feature in den Marketing Papieren Angepriesen wird desto skeptischer werde ich. Und diese Kalibrierung haben sie angepriesen wie frischen Aal.

Ganz am Schluss kommt dann noch das es Applikationsspezifisch ist.

skepsis hin oder her, es ist für mich in jedem fall eine positive nachricht.
für die endanwender spielt der genaue ansatz, wie er auch immer im endeffekt aussehen wird, kaum eine rolle.

Tarkin
2005-10-13, 21:23:02
http://www.beyond3d.com/forum/showpost.php?p=595519&postcount=165

"You can imagine that AA, for example, changes significantly the pattern of access and the type of requests that the different clients make (for example, Z requests jump up drastically, so do rops). We need to re-tune for different configs. In this case, the OGL was just not tuning AA performance well at all. We did a simple fix (it's just a registry change) to improve this significantly. In future drivers, we will do a much more proper job"


... der MC ist wirklich ein delikates Stück Technik IMO! Sehr hoch entwickelt und die Performance ist noch lange nicht ausgereizt.

Vielleicht hört sich das jetzt nach plumpen ATi-Fanboy-Geplapper an aber ich für meine Teil finde die X1800 von Tag zu Tag interessanter. Ich meine wenn die schon durch einen einfachen Registry-Hack 30% Mehrleistung rausholen können :eek:

Coda
2005-10-13, 21:23:32
Das Problem ist daran nur, dass ATI nicht für jedes Spiel ein Profil anlegen kann.

... der MC ist wirklich ein delikates Stück Technik IMO! Sehr hoch entwickelt und die Performance ist noch lange nicht ausgereizt.Ehm, "hoch entwickelt" würde ich sagen, wenn er sich selbständig auf Gegebenheiten einstellt, so werden es eher parameterisierbare Timing-Parameter sein, etc. Nichts was man zum Himmel loben muss.

nVIDIA kann daran auch schon seit der GeForce 3 etwas verstellen wenn ich mich richtig erinnere.

deekey777
2005-10-13, 21:28:05
Das Problem ist daran nur, dass ATI nicht für jedes Spiel ein Profil anlegen kann.

Ich tippe auf Doom 3, Riddick, (Quake 4), Pacific Fighters und vielleicht noch IL2.

Coda
2005-10-13, 21:29:23
Ich tippe auf Doom 3, Riddick, (Quake 4), Pacific Fighters und vielleicht noch IL2.Ich versuche mich immer in etwas diplomatischerer Ausdrucksweiße ;)

Demirug
2005-10-13, 21:30:08
Das Problem ist daran nur, dass ATI nicht für jedes Spiel ein Profil anlegen kann.

Es ist ja eigentlich noch schlimmer: "We need to re-tune for different configs"

Wie es scheint hat man aber im OpenGL Treiber noch nicht mal ein ordentliches Default Profile für AA Configs angelegt.

Ehm, "hoch entwickelt" würde ich sagen, wenn er sich selbständig auf Gegebenheiten einstellt, so werden es eher parameterisierbare Timing-Parameter sein, etc. Nichts was man zum Himmel loben muss.

Es sind im wesentlichen Prioritäten für die unterschiedlichen Verbraucher.

nVIDIA kann daran auch schon seit der GeForce 3 etwas verstellen wenn ich mich richtig erinnere.

nVidia verändert lieber die Memorymap. Also wo etwas abgelegt wird.

Tomcat70
2005-10-13, 21:30:55
Das Problem ist daran nur, dass ATI nicht für jedes Spiel ein Profil anlegen kann.

Ehm, "hoch entwickelt" würde ich sagen, wenn er sich selbständig auf Gegebenheiten einstellt, so werden es eher parameterisierbare Timing-Parameter sein, etc. Nichts was man zum Himmel loben muss.

nVIDIA kann daran auch schon seit der GeForce 3 etwas verstellen wenn ich mich richtig erinnere.

lol, also manchmal bringst du mich durchaus zum lachen......
warum war mir irgendwie klar das nvidia das alles (und natürlich noch viel mehr) schon seit ewigkeiten kann??

die frage stellt sich allerdings hier nicht, es geht um zukünftige verbesserungen der performance in ogl-games auf breiter basis bei ati-karten.
warum sieht man sich genötigt etwas als schlecht hinzustellen das erstens noch nicht mal in finaler form vorliegt und zweitens sich in vielen fällen positiv auf die performance auswirkt???

deekey777
2005-10-13, 21:35:42
Ich versuche mich immer in etwas diplomatischerer Ausdrucksweise ;)
There is a time for diplomacy and a time for action. Diplomacy is dead.

(Ist ein gutes Zitat für den "Berühmte Filmzitate raten" (http://www.forum-3dcenter.org/vbulletin/forumdisplay.php?f=66)-Thread.)

Coda
2005-10-13, 21:36:18
warum war mir irgendwie klar das nvidia das alles (und natürlich noch viel mehr) schon seit ewigkeiten kann??Wer redet von alles? Ich sagte nur, dass es schon seit der GeForce 3 Ansätze von konfigurierbarem Speichercontroller gibt.
Ich wollte nur Tarkin wiedersprechen, dass ATi hier was weltbewegendes Entdeckt hat mit der R5xx, und da schien mir ein nV-Beispiel ganz passend. Die Radeon 8500 hatte das wahrscheinlich auch schon in einfacherer Form.

Und nein, ich bin nicht Pro-Irgendwas. Ich bin nur Anti-Hype. Und gerade ist eben mal wieder ATi mit dem Hype dran. Du wirst zum NV4x-Launch sicher ähnliche Posts von mir hier im Forum finden. Mit solch radikalen Einstellungen kann man hier nämlich sicher keine sachlichen Diskussionen führen.

Aber was nicht in sein eigenes Weltbild passt, wird ja gleich angemacht, gelle?

Tomcat70
2005-10-13, 21:42:22
Wer redet von alles? Ich sagte nur, dass es schon seit der GeForce 3 Ansätze von konfigurierbarem Speichercontroller gibt.
Ich wollte nur Tarkin wiedersprechen, dass ATi hier was weltbewegendes Entdeckt hat mit der R5xx, und da schien mir ein nV-Beispiel ganz passend. Die Radeon 8500 hatte das wahrscheinlich auch schon in einfacherer Form.

Und nein, ich bin nicht Pro-Irgendwas. Ich bin nur Anti-Hype. Und gerade ist eben mal wieder ATi mit dem Hype dran. Du wirst zum NV4x-Launch sicher ähnliche Posts von mir hier im Forum finden.

Aber was nicht in sein eigenes Weltbild passt, wird ja gleich angemacht, gelle?

keine ahnung wo du hier einen hype zu erkennen vermagst.
ich kann nichts dergleichen ausmachen.
einen gegenhype zu erzeugen bevor ein hype überhaupt existiert ist im prinzip keinen deut besser.

Tarkin
2005-10-13, 21:45:40
Wer redet von alles? Ich sagte nur, dass es schon seit der GeForce 3 Ansätze von konfigurierbarem Speichercontroller gibt.
Ich wollte nur Tarkin wiedersprechen, dass ATi hier was weltbewegendes Entdeckt hat mit der R5xx, und da schien mir ein nV-Beispiel ganz passend. Die Radeon 8500 hatte das wahrscheinlich auch schon in einfacherer Form.

Und nein, ich bin nicht Pro-Irgendwas. Ich bin nur Anti-Hype. Und gerade ist eben mal wieder ATi mit dem Hype dran. Du wirst zum NV4x-Launch sicher ähnliche Posts von mir hier im Forum finden.

Aber was nicht in sein eigenes Weltbild passt, wird ja gleich angemacht, gelle?

Wer sagt hier was von weltbewegend? Ich finde es einfach nur ÄUSSERST POSITIV, dass in ATis neuem MC noch so viel an Potential steckt. (was mit hoher Wahrscheinlichkeit zu mehr als deutlichen Performance-Zuwächsen mit neuen Treibern führen wird)

und außerdem... vor hundert Jahren hatte es auch schon Ottomotoren gegeben :wink: ... will sagen dass Atis Technik einfach weiter fortgeschritten ist als die der Konkurrenz, nichts weiter. Und damit liege ich sicher nicht vollkommen daneben.

Coda
2005-10-13, 21:46:51
einen gegenhype zu erzeugen bevor ein hype überhaupt existiert ist im prinzip keinen deut besser.Ich würde es eher Bodenhaftung nennen. Die verlieren manche nämlich hier gerne wenn's um neue Hardware geht. ATi kocht nämlich wie nVIDIA auch nur mit Wasser.

Wer sagt hier was von weltbewegend? Ich finde es einfach nur ÄUSSERST POSITIV, dass in ATis neuem MC noch so viel an Potential steckt.Klar, die Karte hat zumindest in OpenGL anscheinend noch Potential, vor allem mit AA. Aber App-Profile hinterlassen immer einen faden Nachgeschmack, auch bei nVIDIA - da wird bei Doom 3 ja auch so einiges ausgetauscht.

will sagen dass Atis Technik einfach weiter fortgeschritten ist als die der Konkurrenz, nichts weiter. Und damit liege ich sicher nicht vollkommen daneben.Das kann man kaum beurteilen ohne das genau HW-Interface der Chips zu kennen und was genau einstellbar ist. Die Idee erfordert keinen großen Erfindergeist, deshalb denke ich dass nVIDIA ähnliche Techniken einsetzt.

deekey777
2005-10-13, 21:53:42
Woosah...

Part 4: Rendering Quality, New Anti-Aliasing and Anisotropic Filtering Modes (http://www.digit-life.com/articles2/video/r520-part4-a.html)

Pirx
2005-10-13, 21:55:20
lol, also manchmal bringst du mich durchaus zum lachen......
warum war mir irgendwie klar das nvidia das alles (und natürlich noch viel mehr) schon seit ewigkeiten kann??

die frage stellt sich allerdings hier nicht, es geht um zukünftige verbesserungen der performance in ogl-games auf breiter basis bei ati-karten.
warum sieht man sich genötigt etwas als schlecht hinzustellen das erstens noch nicht mal in finaler form vorliegt und zweitens sich in vielen fällen positiv auf die performance auswirkt???
Ack

Auch die Konkurrenz hat sich in der Vergangenheit und Gegenwart nicht gerade mit durchgehend guter Performance auch in nicht soo bekannten Spielen hervorgetan.

Was jetzt hier so schlimm, oder sogar noch schlimmer sein soll, kann ich auch nicht erkennen.

Coda
2005-10-13, 21:55:43
Mhm was gibt's da neues zu sehen in dem Artikel? Winkelunabhängiges AF ist bekannt und das sparsed grid Muster ist das gleiche wie bei R300.

Auch die Konkurrenz hat sich in der Vergangenheit und Gegenwart nicht gerade mit durchgehend guter Performance auch in nicht soo bekannten Spielen hervorgetan.

Was jetzt hier so schlimm, oder sogar noch schlimmer sein soll, kann ich auch nicht erkennen.Ich glaube ihr lest immer Sache aus meinen Posts raus die ich gar nicht behaupte. Mit der Aussage, dass nVIDIA auch konfigurierbare Teile in ihren Chips hat ist doch auch klar, dass sie App-Profile brauchen.