PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : (P)Reviews zu R520 (X1800)


Seiten : 1 2 3 4 [5] 6 7 8 9 10

Odal
2005-10-08, 13:08:18
cpu-limitierung?
:confused:
CPU Limitierung bei der 7800GTX/GT und bei XT nicht? obwohl letztere mehr FPS bringt? :rolleyes:

Kolos
2005-10-08, 14:56:56
Ich bin vom r520 enttäuscht. Ist euch schonmal aufgefallen, dass ATI an alle (oder fast alle) rewiever x1800xt Karten mit 512MB geschickt hat, was für ein Zufall. Ich finde es Blamabel, dass sogar bisjetzt kein einziges vernünftiges Review gegeben hat. Ich hoffe 3dcenter zieht jetzt nach mit allerneusten Treibern und ner x1800XT mit 256MB, damit entlich mal aussagekräftige Benchmarks entstehen. Bisjetzt ist die x1800xt in den meisten Benchmarks umgerechnet langsamer als die 7800gtx, da wo sie schneller ist, ist sie oft wegen den 512MB schneller. Und die x1800xl kann mit der 7800gt auch nicht mithalten.

Coda
2005-10-08, 15:00:52
Kann die als Master für ne x1x00 dienen?Nein.

Feuerteufel
2005-10-08, 15:02:17
Ich bin vom r520 enttäuscht. Ist euch schonmal aufgefallen, dass ATI an alle (oder fast alle) rewiever x1800xt Karten mit 512MB geschickt hat, was für ein Zufall. Ich finde es Blamabel, dass sogar bisjetzt kein einziges vernünftiges Review gegeben hat. Ich hoffe 3dcenter zieht jetzt nach mit allerneusten Treibern und ner x1800XT mit 256MB, damit entlich mal aussagekräftige Benchmarks entstehen. Bisjetzt ist die x1800xt in den meisten Benchmarks umgerechnet langsamer als die 7800gtx, da wo sie schneller ist, ist sie oft wegen den 512MB schneller. Und die x1800xl kann mit der 7800gt auch nicht mithalten.

Was hindert Nvidia daran ebenfalls eine 512 MB Karte in den Markt zu werfen und diese an die Reviewer zu senden? Oder wäre das dann auch wieder unfair?

MikBach
2005-10-08, 15:05:29
Ich bin vom r520 enttäuscht.
Ich nicht. :)


Ist euch schonmal aufgefallen, dass ATI an alle (oder fast alle) rewiever x1800xt Karten mit 512MB geschickt hat, was für ein Zufall.
Was für Zufall? Das ist so üblich, dass die Top-Karte verschickt wird. Wenn sie halt 512 MB hat, dann ist es eben so.
Niemand hat NV verboten 512MB-Karten den Reviewern zukommen zu lassen... :D

Ich finde es Blamabel, dass sogar bisjetzt kein einziges vernünftiges Review gegeben hat.
:confused:

Ich hoffe 3dcenter zieht jetzt nach mit allerneusten Treibern und ner x1800XT mit 256MB, damit entlich mal aussagekräftige Benchmarks entstehen.
Es wurde doch immer der neuste offizielle Treiber benutzt oder hab ich was verpasst?

Bisjetzt ist die x1800xt in den meisten Benchmarks umgerechnet langsamer als die 7800gtx, da wo sie schneller ist, ist sie oft wegen den 512MB schneller. Und die x1800xl kann mit der 7800gt auch nicht mithalten.
Was meinst du mit umgerechnet?
Und langsamer ist sie nicht. Ich würde die Performance als im Schnitt vergleichbar bezeichnen.

Kolos
2005-10-08, 15:07:41
Was hindert Nvidia daran ebenfalls eine 512 MB Karte in den Markt zu werfen und diese an die Reviewer zu senden? Oder wäre das dann auch wieder unfair?

Ich verstehe nicht worauf du anspielst. Aber mir gehts um den Grafikchip selber, unabhängig von der Speichermenge. Und um die beiden konkurierenden Graphikchip zu vergleichen, wäre es sinnvoll die selbe Speichergröße zu verwenden. Und ich hab den Eindruck, dass die 7800gtx einfach schneller ist als die x1800xt. Aber eine 7800gtx mit 512MB wirds wohl auch geben bzw. ne 1800xt mit 512MB gibts noch garnicht, genau so wie ne mit 256MB.

Kolos
2005-10-08, 15:17:35
Was für Zufall? Das ist so üblich, dass die Top-Karte verschickt wird. Wenn sie halt 512 MB hat, dann ist es eben so.
Niemand hat NV verboten 512MB-Karten den Reviewern zukommen zu lassen...

ja aber sie hätten auch welche mit 256 mb verschicken können, damits vergleichbar wird. Ich als Hersteller hätte natürlich das selbe wie ATI gemacht, aber mir gehts um die chipleistung.


Es wurde doch immer der neuste offizielle Treiber benutzt oder hab ich was verpasst?

Nein, nichtmal bei xbitlabs. Es ist auch nicht schlimm wenn das einige nicht tun. Aber was schlimm ist, dass es bis jetzt kein einziges Review gibt, dass die Kriterien für ein gutes Review erfüllt. Früher gabs da wenigstens einige wenige Reviews auf die man sich verlassen hat können.


Und langsamer ist sie nicht. Ich würde die Performance als im Schnitt vergleichbar bezeichnen.

Doch sie ist langsamer. Warte ab bis es Reviews mit 256MB Karten gibt.

Black-Scorpion
2005-10-08, 15:17:40
Es werden Karten und keine GPUs verglichen.
Wie willst du GPUs benchen?

Richtig das geht nur mit Karten.

Und wenn nVidia (noch) keine 512MB Karte hat ist das deren Problem und nicht das von ATI.

deekey777
2005-10-08, 15:17:55
Ich bin vom r520 enttäuscht. Ist euch schonmal aufgefallen, dass ATI an alle (oder fast alle) rewiever x1800xt Karten mit 512MB geschickt hat, was für ein Zufall. Ich finde es Blamabel, dass sogar bisjetzt kein einziges vernünftiges Review gegeben hat. Ich hoffe 3dcenter zieht jetzt nach mit allerneusten Treibern und ner x1800XT mit 256MB, damit entlich mal aussagekräftige Benchmarks entstehen. Bisjetzt ist die x1800xt in den meisten Benchmarks umgerechnet langsamer als die 7800gtx, da wo sie schneller ist, ist sie oft wegen den 512MB schneller. Und die x1800xl kann mit der 7800gt auch nicht mithalten.

Vernünftige Reviews? Du meinst zB CB, wo auf High Qualitiy getestet wurde?

Die bisherigen Reviews wurden hauptsächlich auf Ibiza gemacht, wo es nur Topversionen gab. Digit-Life/iXbt haben erst vorgestern eine X1800XT zum Testen bekommen, und bis ein Review fertig ist, dauert es.
Es werden bei einem guten Review keine allerneuesten Treiber benutzt, sondern nur offiziell freigegebene und am besten fertige Treiberversionen benutzt, Ausnahmen: neue Grafikkarte oder offizieller Betatreiber, dessen "Fertigversion" in Kürze erscheint.

Schonmal auch daran gedacht, daß es von der X1800XT noch keine (fertige) 256MB Versionen gibt? Auch will man sich bei einem Produktlaunch besser darstellen, darum werden kleinere Versionen auch vorenthalten.

Und wenn mich nicht alles täuscht, ist es das erste Mal seit langem, daß alle Produkte von Low- bis Highend aufeinmal präsentiert und auch getestet wurden.

€: Man sollte auch vor Augen haben, daß es noch genügend X1800XT produziert werden müssen, da diese - anders als die jetzige X1800XL - die neueste Revision 05 des R520 haben. Darum wird die X1800XT erst Ende des Monats ausgeliefert werden.

Feuerteufel
2005-10-08, 15:19:54
Ich verstehe nicht worauf du anspielst. Aber mir gehts um den Grafikchip selber, unabhängig von der Speichermenge. Und um die beiden konkurierenden Graphikchip zu vergleichen, wäre es sinnvoll die selbe Speichergröße zu verwenden. Und ich hab den Eindruck, dass die 7800gtx einfach schneller ist als die x1800xt. Aber eine 7800gtx mit 512MB wirds wohl auch geben bzw. ne 1800xt mit 512MB gibts noch garnicht, genau so wie ne mit 256MB.

Angenommen ATI brächte gar keine 256 MB auf den Markt, was dann? Sollte dann zum Test 256 MB deaktiviert werden? Macht wohl wenig Sinn. Der Anwender baut sich ja nicht einen Grafikchip sondern eine komplette Grafikkarte ein, insofern entscheidet die Gesamtleistung.

Kolos
2005-10-08, 15:22:54
Es werden Karten und keine GPUs verglichen.
Wie willst du GPUs benchen?

Richtig das geht nur mit Karten.

Und wenn nVidia (noch) keine 512MB Karte hat ist das deren Problem und nicht das von ATI.


Falch. Man kann den Faktor Speichermenge wegkkürzen, wenn beide die selbe größe haben. Andere Faktoren die ihren Uhrsprung in der Platine haben hinsichtlich der Peformance sehe ich nicht.

Coda
2005-10-08, 15:22:59
Angenommen ATI brächte gar keine 256 MB auf den Markt, was dann? Sollte dann zum Test 256 MB deaktiviert werden? Macht wohl wenig Sinn. Der Anwender baut sich ja nicht einen Grafikchip sondern eine komplette Grafikkarte ein, insofern entscheidet die Gesamtleistung.Bei Alternate ist schon eine 256MiB Version gelistet.

Kolos
2005-10-08, 15:24:10
Angenommen ATI brächte gar keine 256 MB auf den Markt, was dann? Sollte dann zum Test 256 MB deaktiviert werden? Macht wohl wenig Sinn. Der Anwender baut sich ja nicht einen Grafikchip sondern eine komplette Grafikkarte ein, insofern entscheidet die Gesamtleistung.


Macht ATI aber. Haben sie schon angekündigt. Aber du scheinst immernoch nicht zu verstehen worauf ich hinaus will. Einfach nochmal lesen.

deekey777
2005-10-08, 15:25:07
Bei Alternate ist schon eine 256MiB Version gelistet.

Im letzen Jahr wurden sehr viele 6800er und X800er gelistet, nur mangelte es stark an der Verfügbarkeit/Lieferbarkeit.

In irgendeinem Saftladen wird eine X900XT schon seit Juli gelistet. :biggrin:

tokugawa
2005-10-08, 15:25:44
Wie das bei den Computergraphik-Forschern aussieht, kann ich nichts zu sagen...
Ich denke nicht, dass die Spielentwickler erstmal in OGL mit Extensions proggen, um dann in HLSL zu schreiben...


Extensions? Das OpenGL Äquivalent zu HLSL ist GLSL.

Spieleentwickler lesen wissenschaftliche Papers und gehen auf wissenschaftliche Konferenzen. Demos der Forscher kriegen die meist als OpenGL-implementierte Demo. Wenn dieses Demo dank schlechter OpenGL-Treiber schlecht rennt, oder gar nicht rennt, werden die Spieleentwickler nicht besonders beeindruckt vom Effekt sein und diesen nicht verwenden - auch wenn er in DirectX super wäre.


Wenn du daran forschst, dann benutze doch eine NV. Ist das für Spiele relevant?

Ja, Forschung ist für Spiele relevant. Heutzutage wurde jeder Effekt der in Spielen kommt, vorher schon wissenschaftlich dokumentiert und präsentiert. Heutzutage arbeiten Spielehersteller auch eng mit der akademischen Forschung zusammen (siehe hier (http://www.gametools.org)).

Wenn man als Spieler engstirnig die Augen davor verschließt, dass Computergrafik-Forschung der Nr. 1 Motor der Grafikeffektentwicklung in Spielen ist, verliert man einen großen Teil des Horizonts.

Spieleentwickler kommen heutzutage nicht mehr aus der "ich hack mal gschwind einen Effekt rein, boa ey" Ecke. Und wenn, haben sie zumindest einen Draht zur Wissenschaft gefunden.


Fazit: Wenn ein IHV was für die Forschung tut, kommt das auch den Spielern zugute (bessere Effekte früher verfügbar -> Hardware früher ausgereizt). NVIDIA tut hier deutlich mehr als ATI.

Coda
2005-10-08, 15:30:47
Im letzen Jahr wurden sehr viele 6800er und X800er gelistet, nur mangelte es stark an der Verfügbarkeit/Lieferbarkeit.Sie ist ja nicht lieferbar. Es sieht nur so aus, als ob es auf jedenfall eine 256MiB Version gibt, mehr wollte ich gar nicht zeigen.

In irgendeinem Saftladen wird eine X900XT schon seit Juli gelistet. :biggrin:Alternate ist sicher kein Saftladen.

Black-Scorpion
2005-10-08, 15:31:05
Falch. Man kann den Faktor Speichermenge wegkkürzen, wenn beide die selbe größe haben. Andere Faktoren die ihren Uhrsprung in der Platine haben hinsichtlich der Peformance sehe ich nicht.
Un der nächste beschwert sich das eine Karte einen höheren Takt wie die Konkurenz hat.
Sorry, aber was du willst ist albern.

Was wäre gewesen wenn einer der beiden ein 384bit oder 512bit Speicherinterface hätte?
Sollte da nach deiner Meinung auch 1/3 oder die 1/2 deaktiviert werden?

Es werden die Top Karten der beiden gebencht.

up¦²
2005-10-08, 15:31:44
Ati bringt nur das referenzdisign :wink:
Wer von den "kartenbäckern" lust hat, kann es ja modifizieren ...

Coda
2005-10-08, 15:33:20
Was wäre gewesen wenn einer der beiden ein 384bit oder 512bit Speicherinterface hätte?
Sollte da nach deiner Meinung auch 1/3 oder die 1/2 deaktiviert werden?Es ist anbetracht der Tatsache, dass es bald 512MiB Karten von nVIDIA geben wird sicher nicht verkehrt auch mit 256MiB zu messen.

Ist das so schwer zu verstehen? Oder bekommt ihr dann Herzbluten, weil eure ach-so-tolle ATi auf einmal gar nicht wegen dem Chip sondern wegen der Speicherbestückung in FEAR soviel besser ist?

Kolos
2005-10-08, 15:40:35
Un der nächste beschwert sich das eine Karte einen höheren Takt wie die Konkurenz hat.
Sorry, aber was du willst ist albern.

Was wäre gewesen wenn einer der beiden ein 384bit oder 512bit Speicherinterface hätte?
Sollte da nach deiner Meinung auch 1/3 oder die 1/2 deaktiviert werden?

Es werden die Top Karten der beiden gebencht.

unglaublich, dass du es immernoch nicht verstehst. Schonmal was von absoluter und relativer Peformance gehört? Mag natürlich sein, dass die x1800xt mit 512MB schneller ist wie ne 7800gtx mit 256MB. Da hast du natürlich recht und dem widerspreche ich auch gar nicht. Aber worum es mir geht ist die relative performance, auch wenn sie für dich keine Rolle spielen möge. Besser gesagt, geht es mir um die Effiziens (alle Faktoren wie Takt, Speicherbandbreite, Pipes usw mit eingenommen) der beiden Graphikchips und da scheint die 7800gtx die etwas bessere zu sein. Mir ist egal ob das für dich relevant ist oder nicht oder ob das für dich blödsinn ist für mich nicht, zumal ich in dieser Beziehung nur die Speichermenge als Differenz sehe. So wird eine 7800gtx 512MB eine x1800xt 512MB etwas schlagen.

deekey777
2005-10-08, 15:41:19
Sie ist ja nicht lieferbar. Es sieht nur so aus, als ob es auf jedenfall eine 256MiB Version gibt, mehr wollte ich gar nicht zeigen.
Ich wollte dir auch nicht widersprechen. Daß eine X1800XT mit 256MB kommt, ist doch seit längerem klar.

Alternate ist sicher kein Saftladen.

Das habe ich auch nicht gesagt.

MikBach
2005-10-08, 15:41:41
Es ist anbetracht der Tatsache, dass es bald 512MiB Karten von nVIDIA geben wird sicher nicht verkehrt auch mit 256MiB zu messen.
Wäre sicherlich nicht verkehrt...
Ob die 512MB-VRAM bei Nvidia auch so viel bringen, wie bei ATI (vorsicht Wortspiel), weiss bisher kein Mensch.

Ist das so schwer zu verstehen? Oder bekommt ihr dann Herzbluten, weil eure ach-so-tolle ATi auf einmal gar nicht wegen dem Chip sondern wegen der Speicherbestückung in FEAR soviel besser ist?
Ist möglich, aber keine Flames bitte :wink:

Odal
2005-10-08, 15:44:07
Un der nächste beschwert sich das eine Karte einen höheren Takt wie die Konkurenz hat.
Sorry, aber was du willst ist albern.

Was wäre gewesen wenn einer der beiden ein 384bit oder 512bit Speicherinterface hätte?
Sollte da nach deiner Meinung auch 1/3 oder die 1/2 deaktiviert werden?

Es werden die Top Karten der beiden gebencht.

du verstehst es anscheinend wirklich nicht :rolleyes:
die x1800xt mit 512 MB ist nichts weiter als ATIs Prestigeobjekt.
1. es gibt sie noch garnicht
2. ist es für Hersteller von G70 Karten kein Prob. 512 MB draufzuklatschen
3. wenn man mal den Preis betrachtet (schliesslich geht es ja wie du sagst um Karten nicht chips) konkuriert die XL preislich mit der GTX und sieht nur noch die rücklichter, wäre diese herangehensweise vielleicht fairer und objektiver?
4. könnte man als Graka Hersteller theoretisch auch bei nem x1800xt 32 MB ram draufpflanzen und beim GTX 512MB und die dann gegeneinander benchen :cool:
5. wieso vergleichst du dann eigentlich immer die XT mit der GTX? nv hat doch mit 2xGTX was schnelleres zu bieten :confused:

MikBach
2005-10-08, 15:46:05
1. es gibt sie noch garnicht
Die ganzen Reviews im Netz sind also alle gefaked? :eek:

*scnr*

SentinelBorg
2005-10-08, 15:46:19
Ist es eigentlich nicht irgendwie möglich, 256 MB zu deaktivieren?
Ein fairer Vergleich wäre es halt, GTX und XT beide mit gleicher Speichermenge und gleichem Speichertakt und jeweils den Stanardtaktraten der Chips.

Sentinel

Coda
2005-10-08, 15:48:23
Ist möglich, aber keine Flames bitte :wink:Das ist nicht nur möglich sondern sehr wahrscheinlich, da in FEAR die XL langsamer ist als eine GT.

Odal
2005-10-08, 15:49:00
Die ganzen Reviews im Netz sind also alle gefaked? :eek:

*scnr*

das nicht, aber wenn man objektiv rangehen würde dürfte man nur karten vergleichen die für den endkunden (um den geht es schliesslich) auch erhältlich sind. oder hast du schon deine x1800xt mit 512MB? :eek:

deekey777
2005-10-08, 15:49:17
Ist es eigentlich nicht irgendwie möglich, 256 MB zu deaktivieren?
Ein fairer Vergleich wäre es halt, GTX und XT beide mit gleicher Speichermenge und gleichem Speichertakt und jeweils den Stanardtaktraten der Chips.

Sentinel

Gibt es einen Grund, bei einer so wichtigen Produktvorstellung fair zur Konkurrenz zu sein?
Man könnte auch alle Ergebnisse der X1800XT um 50% beschneiden, weil diese tuerer als die 7800GTX ist. Langsam wird es doch zu genau.

Crushinator
2005-10-08, 15:50:20
(...) Fazit: Wenn ein IHV was für die Forschung tut, kommt das auch den Spielern zugute (bessere Effekte früher verfügbar -> Hardware früher ausgereizt). NVIDIA tut hier deutlich mehr als ATI.
Ich verstehe eins nicht: Wenn nVIDIA bereits so viel für die scheinbar einzig wahre Forschung (OpenGL) tut, und diese Forschungsanstalten bereits ganz toll forschen können, wozu brauchen sie eine noch stärkere OpenGL-Bemühung seitens ATi? :confused:

Blaire
2005-10-08, 15:50:57
hier scheint tomshwardware mist gebenched zu haben, genauso wie bei far cry

Die Driverheaven 7800GTX Werte stimmen auch vorne wie hinten nicht. Ein Schelm wer böses dabei denkt... :tongue:

MikBach
2005-10-08, 15:54:27
Extensions? Das OpenGL Äquivalent zu HLSL ist GLSL.

Spieleentwickler lesen wissenschaftliche Papers und gehen auf wissenschaftliche Konferenzen. Demos der Forscher kriegen die meist als OpenGL-implementierte Demo. Wenn dieses Demo dank schlechter OpenGL-Treiber schlecht rennt, oder gar nicht rennt, werden die Spieleentwickler nicht besonders beeindruckt vom Effekt sein und diesen nicht verwenden - auch wenn er in DirectX super wäre.

Ja, Forschung ist für Spiele relevant. Heutzutage wurde jeder Effekt der in Spielen kommt, vorher schon wissenschaftlich dokumentiert und präsentiert. Heutzutage arbeiten Spielehersteller auch eng mit der akademischen Forschung zusammen (siehe hier (http://www.gametools.org)).
Das ist natürlich ein Argument.
Es stellt sich aber die Frage, warum OGL dann so wenig Verbreitung findet.
Warum kommen so wenig Spiele für OGL raus, wenn es GLSL gibt? :wink:


Wenn man als Spieler engstirnig die Augen davor verschließt, dass Computergrafik-Forschung der Nr. 1 Motor der Grafikeffektentwicklung in Spielen ist, verliert man einen großen Teil des Horizonts.
Als Spieler sehe ich, dass die meisten Spiele D3D sind... :D


Fazit: Wenn ein IHV was für die Forschung tut, kommt das auch den Spielern zugute (bessere Effekte früher verfügbar -> Hardware früher ausgereizt). NVIDIA tut hier deutlich mehr als ATI.
Dann kan Nvidia ja auch ein paar Kärtchen bei den Entwicklern an den Mann bringen.
Wenn sie dort besser sind, dann ist es auch verständlich und ein Pluspunkt an Nvidia.

Coda
2005-10-08, 15:56:25
Bei BF fällt mir gerade auf das das in der Tat der Fall ist, aber nur in 1600x1200 mit AA und AF. Geht die X1800 vielleicht sparsamer mit Speicher beim AA um?Ja, nVIDIA filtert erst beim Scanout, ATi beim pageflip. Damit sparen sie beim Frontbuffer die AA Samples.

Das sollte allerdings bei steigender Speicherbestückung immer weniger ins Gewicht fallen.

Warum kommen so wenig Spiele für OGL raus, wenn es GLSL gibt?MS bietet viel besseren Devsupport an.

Ich verstehe eins nicht: Wenn nVIDIA bereits so viel für die scheibar einzig wahre Forschung (OpenGL) tut, und diese Forschungsanstalten bereits ganz toll forschen können, wozu brauchen sie noch eine noch stärkere OpenGL-Bemühung seitens ATi? Wäre vorteilhaft für ATi, wenn die Algorithmen im Vorfeld gleich auch auf ihre HW optimiert werden. Es ist übrigens kein Gerücht, dass im akademischen Bereich fast ausschließlich OpenGL Verwendung findet.

MikBach
2005-10-08, 15:56:40
Ich verstehe eins nicht: Wenn nVIDIA bereits so viel für die scheibar einzig wahre Forschung (OpenGL) tut, und diese Forschungsanstalten bereits ganz toll forschen können, wozu brauchen sie noch eine noch stärkere OpenGL-Bemühung seitens ATi? :confused:
Das wollte ich mit meinem Posting auch ein wenig rüberbringen, obwohl es mir nicht ganz gelungen ist. Da hätte ich es bisschen weiter ausführen sollen.

MikBach
2005-10-08, 16:07:47
MS bietet viel besseren Devsupport an.
Deswegen ja auch der Smile, den du nicht gequotest hast.
Ohne Grund würde es ja niemand machen...

Wäre vorteilhaft für ATi, wenn die Algorithmen im Vorfeld gleich auch auf ihre HW optimiert werden. Es ist übrigens kein Gerücht, dass im akademischen Bereich fast ausschließlich OpenGL Verwendung findet.
Wäre zwar von Vorteil, aber ob ATI für die paar Spiele im Jahr den OGL-Part deutlich aufbessern will, ist fraglich.
Die haben mit dem R520 sicherlich andere Probleme. :wink:

Crushinator
2005-10-08, 16:13:03
(...) Wäre vorteilhaft für ATi, wenn die Algorithmen im Vorfeld gleich auch auf ihre HW optimiert werden. (...)
Diesen Vorteil, nämlich bei nicht mal 8% der Hauptzielgruppe davon profitieren zu können, soll sich ATi also dadurch erkaufen, daß sie wie bisher überdurchschnittlich viel Geld darein stecken OpenGL-Treiber zu entwickeln, die nur dann als "tauglich" gelten wenn sie alles andere mind. um 20% versägen würden? Ich würde sagen, es ist für ATi besser wenn die Forschung bei ihrem Lieblingslieferanten bleibt. :)
Es ist übrigens kein Gerücht, dass im akademischen Bereich fast ausschließlich OpenGL Verwendung findet.
Mir brauchst Du es nicht zu erzählen, diese ganz tollen akademischen Einrichtungen gehören zu unserem Kundenkreis.

Coda
2005-10-08, 16:13:34
Wäre zwar von Vorteil, aber ob ATI für die paar Spiele im Jahr den OGL-Part deutlich aufbessern will, ist fraglich.
Die haben mit dem R520 sicherlich andere Probleme. :wink:Wer redet denn von OpenGL? Die neu entwickelten Algorithmen lassen sich ja auch auf Direct3D verwenden.

Diesen Vorteil, nämlich bei nicht mal 8% der Hauptzielgruppe davon profitieren zu können, soll sich ATi also dadurch erkaufen, daß sie wie bisher überdurchschnittlich viel Geld darein stecken OpenGL-Treiber zu entwickeln, die nur dann als "tauglich" gelten wenn sie alles andere mind. um 20% versägen würden? Ich würde sagen, es ist für ATi besser wenn die Forschung bei ihrem Lieblingslieferanten bleibt. Siehe oben.

Crushinator
2005-10-08, 16:16:07
Wer redet denn von OpenGL? Die neu entwickelten Algorithmen lassen sich ja auch auf Direct3D verwenden.
a) Du redest von OpenGL
b) Und? Was stimmt mit der D3D-Leistung der ATis nicht?

MikBach
2005-10-08, 16:17:04
Wer redet denn von OpenGL?
Du. :rolleyes:

Wäre vorteilhaft für ATi, wenn die Algorithmen im Vorfeld gleich auch auf ihre HW optimiert werden. Es ist übrigens kein Gerücht, dass im akademischen Bereich fast ausschließlich OpenGL Verwendung findet.

Die neu entwickelten Algorithmen lassen sich ja auch auf Direct3D verwenden.
Wo ist also das Problem?

Siehe oben.
Wo? :)

Coda
2005-10-08, 16:20:59
Also nochmal langsam zum mitschreiben:

- Da die Akademiker allesamt mit OpenGL entwickeln, werden fast ausschließlich nVIDIA-Karten verwendet
- Dabei wird dann also wohl kaum auf ATi-spezifische Eigenschaften eingegangen
- Das gilt auch noch wenn man den Algorithmus auf Direct3D portiert, weil die APIs sich eh nich großartig unterscheiden

Kapische?

MikBach
2005-10-08, 16:25:43
- Da die Akademiker allesamt mit OpenGL entwickeln, werden fast ausschließlich nVIDIA-Karten verwendet
Ist schon klar.

- Dabei wird dann also wohl kaum auf ATi-spezifische Eigenschaften eingegangen
Das machen dann die Spielehersteller.
Siehe Geometry Instancing bei Eart2160, welches auf X800-Karten ausserhalb der SM2-Spezifikation läuft...

- Das gilt auch noch wenn man den Algorithmus auf Direct3D portiert, weil die APIs sich eh nich großartig unterscheiden

Kapische?
:confused:

Coda
2005-10-08, 16:27:13
Siehe Geometry Instancing bei Eart2160, welches auf X800-Karten ausserhalb der SM2-Spezifikation läuft...Oh man, das ist doch kein Algorithmus, sondern ein API-Feature.

Tomcat70
2005-10-08, 16:30:15
unglaublich,.....So wird eine 7800gtx 512MB eine x1800xt 512MB etwas schlagen.

unglaublich?.....der einzige der hier unglaublich ist bist du, lol.
traue mich fast zu wetten das du der gast (nun registrierter) bist der schon in im 3dc vs. ATi thread geposted hat ;)
durch wiederholungen wirds leider auch nicht überzeugender.
ist ja gut und schön das du die 7800 gtx mit 512mb für voraussichtlich besser hältst....ich und wie man sieht auch andere tun das nicht.
es fehlen selbst mit 512mb noch immer gewisse features und gute branching performance.

MikBach
2005-10-08, 16:31:39
Oh man, das ist doch kein Algorithmus, sondern ein API-Feature.
Dann weiss ich ehrlich gasagt nicht, worauf du hinaus willst.
Was zählt sind Features. Und ob ein Algorithmus schnell abgearbeitet wird, hängt von der Verbindung Hardware,API und Treiber ab. Wenn man diese Algorithmen unter D3D einsetzt, sehe ich keine Probleme.

Crushinator
2005-10-08, 16:33:57
(...) Kapische?
OK, klar wäre es für ATi vorteilhafter wenn man statt nVIDIA am besten nur noch ATi-Karten verwendet würde. Da dieser Fall aus heutiger Sicht aber voraussichtlich nur dann eintreten wird, wenn es nVIDIA nicht mehr geben sollte, ist dieser Vorteil für ATi halt nur von akedemischer Bedeutung. :)

Auf den Punkt gebracht: Genau so shiceegal wie ATi den Forschungsanstalten mommentan ist, ist es ATi andersrum. Aus meiner Sicht absolut nachvollziehbar.

Tomcat70
2005-10-08, 16:34:03
:confused:
CPU Limitierung bei der 7800GTX/GT und bei XT nicht? obwohl letztere mehr FPS bringt? :rolleyes:

du willst mich so oder so nicht verstehen.....
cpu-limitierung könnte dazu führen das eine grafikkarte nicht gut mit besserem takt skaliert. das heisst aber nicht das es eine andere nicht trotzdem tun kann.
für mich führt dieses hin und her zu nichts, jedem das seine würd ich sagen :)

Coda
2005-10-08, 16:34:46
Dann weiss ich ehrlich gasagt nicht, worauf du hinaus willst.Nehmen wir mal an irgendjemand setzt massiv auf Stencilshadows (Beispiel!), weil die auf nVIDIA super laufen mit dem ganzen Ultrashadow Zeugs.

Weißt du jetzt auf was ich hinaus will? Es gibt auch noch andere Sachen, wo sich ATi und nVIDIA HW anders verhält obwohl sie fast identische Featuresets haben.

Was zählt sind Features.Wie bei der GeForce FX also :|

MikBach
2005-10-08, 16:38:52
Nehmen wir mal an irgendjemand setzt massiv auf Stencilshadows, weil die auf nVIDIA super laufen mit dem ganzen Ultrashadow Zeugs.
Gutes Argument, nur gibt es nicht soo viele Spiele, die auf Stencishadows setzen. :rolleyes:

Wie bei der GeForce FX also :|
:hammer:

Coda
2005-10-08, 16:39:55
OK, klar wäre es für ATi vorteilhafter wenn man statt nVIDIA am besten nur noch ATi-Karten verwendet würde. Da dieser Fall aus heutiger Sicht aber voraussichtlich nur dann eintreten wird, wenn es nVIDIA nicht mehr geben sollte, ist dieser Vorteil für ATi halt nur von akedemischer Bedeutung. :)Das Problem ist ja, dass ATi da fast gar keine Beachtung findet. ATi tut also gut daran in Performancefragen auf ähnliche Schwerpunkte zu setzen wie nVIDIA, was sie imho auch tun.

Gutes Argument, nur gibt es nicht soo viele Spiele, die auf Stencishadows setzen. Das war ein Beispiel. Sag mal stellst du dich eigentlich mit Absicht so doof an?

Abgesehen dvaon: Deus Ex 2, F.E.A.R, Doom 3, Riddick und C&C:Generals um nur ein paar zu nennen. Und noch mehr abgesehen davon, gibt es auch andere Anwendungen für den Stencilbuffer wo ATi ähnliche Probleme hätte. Aber du schaust ja nur ungern über den Tellerrand.

Quote mich gefälligst komplett und geh auf alle meine Punkte ein und pick dir nicht immer das raus was dir gefällt. So kann man doch keine Diskussion führen.

MikBach
2005-10-08, 16:45:51
Das war ein Beispiel. Sag mal stellst du dich eigentlich mit Absicht so doof an?

Quote mich gefälligst komplett und geh auf alle meine Punkte ein und pick dir nicht immer das raus was dir gefällt. So kann man doch keine Diskussion führen.
:rolleyes:
Ich dachte, ich hätte die Essenz gequotet.
weil:

Weißt du jetzt auf was ich hinaus will? Es gibt auch noch andere Sachen, wo sich ATi und nVIDIA HW anders verhält obwohl sie fast identische Featuresets haben.
Was soll ich dazu sagen?
Kann auch an der Hardware liegen...

Coda
2005-10-08, 16:47:06
Darauf will ich doch die ganze Zeit hinaus. Es gibt eben Sachen wo sich die HW von ATI und nVIDIA unterscheiden.

Es gibt also Algorithmen die die eine oder andere Karte bevorzugen. Und wenn die Forscher mit OpenGL&nVIDIA arbeiten, welche werden dann wohl dabei rauskommen? Na?

MikBach
2005-10-08, 16:50:36
Darauf will ich doch die ganze Zeit hinaus. Es gibt eben Sachen wo sich die HW von ATI und nVIDIA unterscheiden.

Es gibt also Algorithmen die die eine oder andere Karte bevorzugen. Und wenn die Forscher mit OpenGL&nVIDIA arbeiten, welche werden dann wohl dabei rauskommen? Na?
Sieht man in D3D bisher nichts von, aber ich lasse mich gerne eines besseren belehren.
Und dass die Algorithmen auf Nvidia entwickelt werden hat auch nichts zu sagen...
Wenn ATI-Hardware dafür besser geeignet ist, wird es auch auf ATI besser laufen. Egal worauf dieser Algorithmus entwickelt wurde. :P

Crushinator
2005-10-08, 16:52:25
Das Problem ist ja, dass ATi da fast gar keine Beachtung findet. ATi tut also gut daran in Performancefragen auf ähnliche Schwerpunkte zu setzen wie nVIDIA, was sie imho auch tun.
Das Problem ist, daß es verlangt wird daß die Performance absolut gleich oder über die der Konkurrenz gehört, damit man Beachtung findet. Unter diesen Voraussetzungen ist man manchmal besser beraten sich sinnvolleren Dingen zu widmen. :D

Odal
2005-10-08, 16:52:54
du willst mich so oder so nicht verstehen.....
cpu-limitierung könnte dazu führen das eine grafikkarte nicht gut mit besserem takt skaliert. das heisst aber nicht das es eine andere nicht trotzdem tun kann.
für mich führt dieses hin und her zu nichts, jedem das seine würd ich sagen :)

doch ich will dich gern verstehen doch ich tus nicht :frown:

bei cpu limitierten games haben die grakas alle den gleich längsten (bis auf messungenauigkeiten bzw. unterschiedliche cpu last der treiber)

das is aber dort offensichtlich nicht der fall.....

eine CPU limitierung liegt vor wenn eine Graka problemlos ihre arbeit verrichten kann und die CPU einfach nicht schnell genug mit KI oder Physic berechnung etc. hinterherkommt.
es kann aber nicht sein das bei zwei karten welche CPU limitiert sein sollen die eine plötzlich 20% oder so schneller ist.
dann limitiert da was anderes....der chip oder der vram oder speicherbandbreite oder sonstwas...

Coda
2005-10-08, 16:57:02
Sieht man in D3D bisher nichts von, aber ich lasse mich gerne eines besseren belehren.Bisher kratzen wir auch nur an der Oberfläche was z.B. mit Shadern überhaupt möglich ist.

Und dass die Algorithmen auf Nvidia entwickelt werden hat auch nichts zu sagen...
Wenn ATI-Hardware dafür besser geeignet ist, wird es auch auf ATI besser laufen. Egal worauf dieser Algorithmus entwickelt wurde. :PnVIDIA sagt den Forschern dann schon, was gut auf ihrer HW läuft. Das kann dann auch gut auf ATI laufen, muss aber nicht.

Genau da liegt der Hund begraben für ATi. Es fehlt einfach der Test auf ihrer HW.

tokugawa
2005-10-08, 17:01:58
Ich verstehe eins nicht: Wenn nVIDIA bereits so viel für die scheibar einzig wahre Forschung (OpenGL) tut, und diese Forschungsanstalten bereits ganz toll forschen können,


Ich verbitte mir Flames in diesem Ton... ups ich seh grad du bist Moderator. Ich schätz mal dir selbst wirst du keine Punkte verteilen.


wozu brauchen sie noch eine noch stärkere OpenGL-Bemühung seitens ATi? :confused:

Weil wie ich geschrieben habe, idealerweise die Demos auf Hardware von beiden Herstellern läuft. Eine Demo ist zum Herzeigen. Ein Effekt der "nur auf NVIDIA" läuft, wird von Spielehersteller wohl weniger Beachtung bekommen. Vor allem wäre es toll wenn beide OpenGL Treiber eine vergleichbare Qualität hätten und vor allem sich nicht so sehr in vielen Default-States und vielem mehr unterscheiden würden (das ist oft ein Krampf im Debuggen).

Außerdem wäre es generell gut wenn jeder IHV mehr für die Forschung tut und nicht alles nur NVIDIA überlässt. Bringt uns als Spieler ja auch was.

tokugawa
2005-10-08, 17:05:33
Das ist natürlich ein Argument.
Es stellt sich aber die Frage, warum OGL dann so wenig Verbreitung findet.
Warum kommen so wenig Spiele für OGL raus, wenn es GLSL gibt? :wink:


Dafür gibt's viele Gründe, auf die ich nicht eingehen will.

Aber im Prinzip ist die API vollkommen egal, es soll auf allem laufen, denn Algorithmen sind prinzipiell und grundsätzlich. Es ist halt einfach so dass Universitäten und Forschungsinstitute hauptsächlich auf OpenGL implementieren - und diese Demos dann von Spieleentwicklern gesehen werden (und dann entschieden wird "dies kommt in unsere nächste Engine!").

Da kommt's eben nicht so gut wenn der Spieleentwickler zufällig eine ATI hat und diese Demo dann schlecht oder gar nicht läuft.


Als Spieler sehe ich, dass die meisten Spiele D3D sind... :D


Wie ich geschrieben habe, Horizont und so :D


Dann kan Nvidia ja auch ein paar Kärtchen bei den Entwicklern an den Mann bringen.
Wenn sie dort besser sind, dann ist es auch verständlich und ein Pluspunkt an Nvidia.

Tun sie ja auch. Forschern geben sie sogar einfach so Samples.

Ich finde nur der Spieler sollte das eben auch würdigen - sie verdanken eben der Forschung auch einiges.

Oder wollen Spieler keine tolle Grafik und keine Fortschritte in Grafiktechnologien? :)

Gutes Argument, nur gibt es nicht soo viele Spiele, die auf Stencishadows setzen. :rolleyes:

:hammer:

UltraShadow umfasst ja auch einen schnellen Depth-Pass, soweit ich das in Erinnerung hab.

Also auch gut für "die andere State-of-the-Art Schattentechnik" (es gibt halt nur zwei die wirklich State-of-the-Art sind), das Shadow Mapping.

MikBach
2005-10-08, 17:07:21
Bisher kratzen wir auch nur an der Oberfläche was z.B. mit Shadern überhaupt möglich ist.
Das ist auch gut so... *freu* (auf die Zukunft).

nVIDIA sagt den Forschern dann schon, was gut auf ihrer HW läuft. Das kann dann auch gut auf ATI laufen, muss aber nicht.

Genau da liegt der Hund begraben für ATi. Es fehlt einfach der Test auf ihrer HW.
Nvidia kann viel erzählen. Wenn die Forscher ein Ziel vor Augen haben, dann ist es unabhängig von der Hardware. (zwar nicht ganz, man versucht aber an die Grenzen zu gehen).

MikBach
2005-10-08, 17:09:08
Ich verbitte mir Flames in diesem Ton... ups ich seh grad du bist Moderator. Ich schätz mal dir selbst wirst du keine Punkte verteilen.
Was für Flames?
Lies den Beitrag nochmal...

MikBach
2005-10-08, 17:13:26
Dafür gibt's viele Gründe, auf die ich nicht eingehen will.

Aber im Prinzip ist die API vollkommen egal, es soll auf allem laufen, denn Algorithmen sind prinzipiell und grundsätzlich. Es ist halt einfach so dass Universitäten und Forschungsinstitute hauptsächlich auf OpenGL implementieren - und diese Demos dann von Spieleentwicklern gesehen werden (und dann entschieden wird "dies kommt in unsere nächste Engine!").

Da kommt's eben nicht so gut wenn der Spieleentwickler zufällig eine ATI hat und diese Demo dann schlecht oder gar nicht läuft.
Gutes Argument.
Sollen sie es sich auf NV ansehen... :)


Wie ich geschrieben habe, Horizont und so :D

Keine Flames bitte. :)



Tun sie ja auch. Forschern geben sie sogar einfach so Samples.

Ich finde nur der Spieler sollte das eben auch würdigen - sie verdanken eben der Forschung auch einiges.

Oder wollen Spieler keine tolle Grafik und keine Fortschritte in Grafiktechnologien? :)

Wie sollen die Spieler OGL würdigen, wenn die meisten Spiel in D3D erscheinen?

Winter[Raven]
2005-10-08, 17:17:15
Wie sollen die Spieler OGL würdigen, wenn die meisten Spiel in D3D erscheinen?

Am besten in dem man die wenigen OpenGL Spiele durch eine tolle Mod-Community aufrecht erhält.

tokugawa
2005-10-08, 17:19:11
Das ist auch gut so... *freu* (auf die Zukunft).

Nvidia kann viel erzählen. Wenn die Forscher ein Ziel vor Augen haben, dann ist es unabhängig von der Hardware. (zwar nicht ganz, man versucht aber an die Grenzen zu gehen).

Naja :) wenn Forscher ein Ziel wie etwa "Raycasting auf der GPU" vor Augen haben, dann hatte bisher NVIDIA eindeutig einen HW-Vorzug mit Shader Model 3.0 (was dann sogar schon auf Grenzen stößt).



Prinzipiell will ich nur sagen dass die Forschung auch für Spieler nicht unwichtig ist - schließlich wollen wir alle bessere Effekte.

Daher kann man einem Hersteller der die Forschung nicht schnell genug mit neuen Features unterstützt (etwa SM3.0 so spät bei ATI), unterstellen, die Grafikentwicklung gehemmt zu haben.


Die Forschung arbeitet schon lange an Algorithmen bei denen selbst SM 3.0 (bzw. dessen GL Äquivalent) an die Grenzen stößt. Sie sind nur deswegen nicht in Spielen verbreitet, weil ATI bisher diese Entwicklung gehemmt hat.


Als Spieler, der das weiß und keine Fanboy-Brille aufhat, bekommt ATI hier einen leicht schlechten Beigeschmack, wie ich finde. Auf der faulen Haut sitzen und jetzt wo schon lange mit komplexeren Shadern geforscht wurde, am Futtertrog mitnaschen, den NVIDIA gefördert hat.

Natürlich zählt für einen Spieler dann pragmatisch immer noch die Resultatsperformance und auch andere Faktoren (Bildqualität, AF) sind wichtig (je nach persönlicher Gewichtung - man sollte anderen ja durchaus zugestehen dass ihnen manche andere Sachen wichtig sind als die eigenen).

Aber Aussagen über "Wichtigkeit" von Features darf man eben nie ohne Einbeziehung der Forschung erwähnen:

- Die GeForce FX war kein Griff ins Klo, denn ihre mächtigen (aber langsamen) Shader waren ein früher Vorgriff auf SM 3.0 (und da hat damals schon die Entwicklung von komplexen Shadern begonnen, die über SM 2.0 hinausgingen)

- SM 3.0 war nicht "nutzlos", wie ATI früher immer behauptet hat. Erst die macht es möglich, dass wir jetzt demnächst SM 3.0 Effekte haben werden - so früh erst möglich dank NVIDIA. Wär sonst viel viel später gewesen

- OpenGL ist nicht "nutzlos". Forscher entwickeln hauptsächlich da drauf - Spieleentwickler bedienen sich aus der Forschung. Effekt die "nicht gut laufen" oder "überhaupt nicht laufen", bekommen keine Beachtung. ATI könnte hier viel tun dass auch ATI Hardware noch besser ausgereizt wird.

MikBach
2005-10-08, 17:19:34
']Am besten in dem man die wenigen OpenGL Spiele durch eine tolle Mod-Community aufrecht erhält.
Sehr geistreicher Beitrag zum Thema... :rolleyes:

Crushinator
2005-10-08, 17:20:53
Ich verbitte mir Flames in diesem Ton... ups ich seh grad du bist Moderator. Ich schätz mal dir selbst wirst du keine Punkte verteilen.
:confused: Wenn Du mir verständlich erklären könntest, was genau an der feststellenden Formulierung ein Flame sei, würde ich mir den Punkt notfalls selbst geben. :)
Weil wie ich geschrieben habe, idealerweise die Demos auf Hardware von beiden Herstellern läuft. Eine Demo ist zum Herzeigen. Ein Effekt der "nur auf NVIDIA" läuft, wird von Spielehersteller wohl weniger Beachtung bekommen. Vor allem wäre es toll wenn beide OpenGL Treiber eine vergleichbare Qualität hätten und vor allem sich nicht so sehr in vielen Default-States und vielem mehr unterscheiden würden (das ist oft ein Krampf im Debuggen).
Wenn der Effekt toll ist und nur auf nVIDIA-HW läuft, ist er entweder wirklich toll und ATi integriert ihn in ihre nächsten Treiber oder HW, oder er ist eben nicht so toll. Zu erwarten, daß der eine Hersteller immer genau das bietet, was der andere auch kann ist IMHO einfach realitätsfremd.
Außerdem wäre es generell gut wenn jeder IHV mehr für die Forschung tut und nicht alles nur NVIDIA überlässt. Bringt uns als Spieler ja auch was.
Gut wäre es selbstverständlich. Wenn es aber anfängt gar keine Früchte zu tragen, weil unmögliches erwartet wird, ist es nicht nachvollziehbar daß sich ein gewinnorientiertes Unternehmen darauf konzentriert, was mehr als 80% seiner Kunden wollen?

mindfaq
2005-10-08, 17:22:52
Bei weitem geistreicher als dein Kommentar dazu...

tokugawa
2005-10-08, 17:22:56
Wie sollen die Spieler OGL würdigen, wenn die meisten Spiel in D3D erscheinen?

Deswegen ja die Horizonterweiterung.

Wenn sie nur das direkte vor sich sehen, können sie's nicht würdigen.


Aber mehr Wissen bildet - und wenn man sich das alles dann vor Augen führt, erhält man denk ich schon einen guten Überblick.

Und dann sind die Spieler auch dankbar dass Forscher sich überhaupt der Echtzeitgrafik und Spielegrafik annehmen (ist doch toll, dass mittlerweile das Motto "Academia meets Games" in der Echtzeitgrafik-Forschung sehr verbreitet ist).


Wir wollen alle bessere Grafik, oder? Dafür ist auch gute OpenGL-Unterstützung im Speziellen und Forscher-Unterstützung im Allgemeinen notwendig.

Und das war eigentlich alles was ich sagen wollte.

MikBach
2005-10-08, 17:28:24
Deswegen ja die Horizonterweiterung.

Wenn sie nur das direkte vor sich sehen, können sie's nicht würdigen.


Aber mehr Wissen bildet - und wenn man sich das alles dann vor Augen führt, erhält man denk ich schon einen guten Überblick.

Und dann sind die Spieler auch dankbar dass Forscher sich überhaupt der Echtzeitgrafik und Spielegrafik annehmen (ist doch toll, dass mittlerweile das Motto "Academia meets Games" in der Echtzeitgrafik-Forschung sehr verbreitet ist).


Wir wollen alle bessere Grafik, oder? Dafür ist auch gute OpenGL-Unterstützung im Speziellen und Forscher-Unterstützung im Allgemeinen notwendig.

Und das war eigentlich alles was ich sagen wollte.

Dem kann ich zustimmen. :)
Es ist mir aber immernoch unklar, wie dies das Kaufverhalten beeinflussen soll und warum...

MikBach
2005-10-08, 17:29:54
Bei weitem geistreicher als dein Kommentar dazu...
Falls du mich meinst, dann bitte auch ordentlich quoten, weil sonst keine Antwort, da man nich weiss, worauf du dich beziehst...

tokugawa
2005-10-08, 17:30:14
:confused: Wenn Du mir verständlich erklären könntest, was genau an der feststellenden Formulierung ein Flame sei, würde ich mir den Punkt notfalls selsbt geben. :)


War vielleicht etwas zwischen den Zeilen gelesen (oder verlesen? :) ), aber mir kam so vor als würdest du die - ich zitiere - ach so tolle Forschung bashen.


Wenn der Effekt toll ist und nur auf nVIDIA-HW läuft, ist er entweder wirklich toll und ATi integriert ihn in ihre nächsten Treiber oder HW. Zu erwarten, daß der eine Hersteller immer genau das bietet, was der andere auch kann ist IMHO einfach realitätsfremd.


Naja, so geschehen mit SM 3.0 - auch integriert nachdem in der Forschung einige mit SM 2.0 nicht mehr ausgekommen sind.

Aber es geht nicht wirklich um Hardware-Features, mehr um die Stabilität der Treiber. Frag mal 100 Echtzeitgrafikforscher, was sie von ATIs OpenGL Treiber halten. Gut, NVIDIAs OpenGL ist auch nicht immer perfekt, aber die meisten werden eher sagen dass tendenziell ATI die schlechteren OpenGL-Treiber hat.

Und da eben nicht immer auf den High-End-Effektfeatures, sondern im Grundsätzlichen (GL-State-Management, Framebuffer-Objects, PBuffer, VBOs, usw.).

"Effekte" werden eigentlich nicht durch die Hardware realisiert, sondern verwenden einfach grundsätzliche HW-Features, die beide schon haben - aber der eine in besserer Qualität, und der andere in weniger guten.

Ich mein, wenn bei NVIDIA im OpenGL Treiber mal ein Bug ist (oder gar der Entwickler halt irgendwas falsch gemacht hat - etwa Befehle in falscher Reihenfolge, States nicht gesetzt, usw.), verabschiedet sich in der Regel nur die Anwendung. Bei ATI hatte ich schon ärgere Bluescreens und Reboots.



Gut wäre es selbstverständlich. Wenn es aber anfängt gar keine Früchte zu tragen, weil unmögliches erwartet wird, ist es nicht nachvollziehbar daß sich ein gewinnorientiertes Unternehmen darauf konzentriert, was mehr als 80% seiner Kunden wollen?

Ich weiß dass ich ein Idealist bin. Darf ich doch oder? Ist doch genauso valide, wichtige mehrdimensionale verzweigte Aspekte wie "Forschung unterstützen bring - um einige Ecken zwar, aber doch - auch finanziell etwas". Außerdem ging es mir auch um den Ruf - ich finde ATI eben deswegen nicht sooo toll als Firma aus erwähnten Gründen.

Spätestens wenn ein eine Visualisierungsfirma dann 200 7800 GTX (bzw die Quadro-Variante) für eine größere Visualisierungsinstallation kauft, da die zugehörige Forschung die Algorithmen auf NVIDIAs OpenGL programmiert hat, sollte man ins Grübeln kommen.

ATI ist keine kleine Firma - sie könnten sich mehr Forschungs-Effort leisten - und auch davon finanziell und reputationstechnisch profitieren.




Dem kann ich zustimmen. :)
Es ist mir aber immernoch unklar, wie dies das Kaufverhalten beeinflussen soll und warum...

Soll es eh nicht... für jeden ist halt eine andere Karte ideal.

Ich wollte eben nur zum Ausdruck bringen, dass egal welche Karte für einen besser ist, man nicht sagen darf "Feature X" oder "Aspekt X" ist unwichtig und sollte nicht weiterentwickelt werden.

MikBach
2005-10-08, 17:37:53
Naja, so geschehen mit SM 3.0 - auch integriert nachdem in der Forschung einige mit SM 2.0 nicht mehr ausgekommen sind.
Für welche Effekte braucht man SM3?

Odal
2005-10-08, 17:49:18
die mit langen shadern realisiert werden müssen welche ohne sprunganweisungen zu lahm für PS2.0 ist.

MikBach
2005-10-08, 17:50:18
die mit langen shadern realisiert werden müssen welche ohne sprunganweisungen zu lahm für PS2.0 ist.
:confused:

Black-Scorpion
2005-10-08, 17:52:37
die mit langen shadern realisiert werden müssen welche ohne sprunganweisungen zu lahm für PS2.0 ist.
Und was hat das mit Effekten zu tun? :confused:

Crushinator
2005-10-08, 18:04:31
(...) Aber es geht nicht wirklich um Hardware-Features, mehr um die Stabilität der Treiber. Frag mal 100 Echtzeitgrafikforscher, was sie von ATIs OpenGL Treiber halten. Gut, NVIDIAs OpenGL ist auch nicht immer perfekt, aber die meisten werden eher sagen dass tendenziell ATI die schlechteren OpenGL-Treiber hat.
Das ist ein Teufelskreis aus dem ATi nicht so leicht rauskommt. nVIDIA hat in dem Punkt um genau zu sein 3 Jahre Vorsprung. Wie stellst Du Dir vor, daß er aufgeholt wird? Von heute auf morgen und vor allem ohne große Verbreitung und damit ohne die Maße an Feedback?
(...) Ich mein, wenn bei NVIDIA im OpenGL Treiber mal ein Bug ist (oder gar der Entwickler halt irgendwas falsch gemacht hat - etwa Befehle in falscher Reihenfolge, States nicht gesetzt, usw.), verabschiedet sich in der Regel nur die Anwendung. Bei ATI hatte ich schon ärgere Bluescreens und Reboots.
Ja, das ist schade und ich verstehe das auch. Nur sieht die Sache halt so aus, daß ATis Ressourcen nunmal begrenzt sind, und sie werden auch nicht gerade größer um so mehr Projekte sie sich ans Bein binden, wenn Du verstehst was ich meine.
Ich weiß dass ich ein Idealist bin. Darf ich doch oder? Ist doch genauso valide, wichtige mehrdimensionale verzweigte Aspekte wie "Forschung unterstützen bring - um einige Ecken zwar, aber doch - auch finanziell etwas". Außerdem ging es mir auch um den Ruf - ich finde ATI eben deswegen nicht sooo toll als Firma aus erwähnten Gründen.
Idealist zu sein ist zwar nett, aber mit Idealismus kommt man IMHO weniger weit als mit Realismus. Letzteres sieht nämlich so aus, daß ATi seit Jahren krampfhaft versucht in Sachen OpenGL weiterzukommen und verbessert den Support auch ständig. Das Ergebnis läßt weiterhin zu wünschen übrig, weil alle Welt erwartet, daß sie möglichst ohne jegliches Feedback von den Betroffenen wissen wo die Probleme sind. Es ist sozusagen ein Rätselraten unter erschwerten Bedingungen.
Spätestens wenn ein eine Visualisierungsfirma dann 200 7800 GTX (bzw die Quadro-Variante) für eine größere Visualisierungsinstallation kauft, da die zugehörige Forschung die Algorithmen auf NVIDIAs OpenGL programmiert hat, sollte man ins Grübeln kommen.
Tja, es gibt auch noch 3DLabs. Komischerweise kommen auch deren Karten nicht für die Visualisierungsinstallation in Frage, obwohl die Treiber nicht von schlechten Eltern sind.
ATI ist keine kleine Firma - sie könnten sich mehr Forschungs-Effort leisten - und auch davon finanziell und reputationstechnisch profitieren.
Siehe den anderen Thread im selben Unterforum bezüglich präsentierter Zahlen dieses Quartals, dann sollten wir erst wieder darüber sprechen, was man sich leisten kann und was nicht. ;)
Ich wollte eben nur zum Ausdruck bringen, dass egal welche Karte für einen besser ist, man nicht sagen darf "Feature X" oder "Aspekt X" ist unwichtig und sollte nicht weiterentwickelt werden.
OpenGL wird unter Windows Vista nur noch relativ halbherzig unterstützt, und es ist wichtiger daß über 90% der Spiele-Entwickler so weit wie nur möglich unterstützt werden. Daß die Nische dabei etwas leidet ist nicht unvermeidbar.

Odal
2005-10-08, 18:04:48
das man diese schlichtweg nicht in spiele einbauen würde da sie auf keiner karte als 2.0 shader brauchbare frameraten erzielen würden....

is doch klar wenn man eine aufwendige operation auf z.b. ein 50x50 (2500 pixel)pixelfeld ausführen würde und bei 90% (2250) sich diese einsparen könnte indem man ne bedingung abfragt und nen sprung durchführt.

up¦²
2005-10-08, 18:06:03
PR Sapphire:
http://www.sapphiretech.com/en/media/pressview.php?pid=27

Tomcat70
2005-10-08, 18:13:07
es kann aber nicht sein das bei zwei karten welche CPU limitiert sein sollen die eine plötzlich 20% oder so schneller ist.
dann limitiert da was anderes....der chip oder der vram oder speicherbandbreite oder sonstwas...

nene, das ist schon durchaus möglich, sieht man ja an systemen mit sli oder crossfire das es durchaus möglich ist noch mehr fps darzustellen.
cpu-limitierung ist ein sehr variabler begriff mit den unterschiedlichsten auswirkungen.

MikBach
2005-10-08, 18:15:15
das man diese schlichtweg nicht in spiele einbauen würde da sie auf keiner karte als 2.0 shader brauchbare frameraten erzielen würden....

Das ist Unsinn. Nenn mal konkrete Effekte, dann sehen wir mal weiter...

deekey777
2005-10-08, 18:33:16
http://www.radeonx1k.com/product_info/technology.html

Radeon X1800 series


Features

321 million transistors on 90nm fabrication process
Sixteen pixel shader processors
Eight vertex shader processors
256-bit 8-channel GDDR3/GDDR4 memory interface
Native PCI Express x16 bus interface
GP 8x configurations also supported with external bridge chip
Dynamic Voltage Control

:naughty:

Auf der Seite steht tatsächlich "GP 8x". Für Freudesprünge ist es noch zu früh. :biggrin:

Coda
2005-10-08, 18:43:46
Das ist Unsinn. Nenn mal konkrete Effekte, dann sehen wir mal weiter...Parallax Occlusion Mapping mit Blending zu Normalmapping in der Entfernung. Siehe ATis Toyshop Demo.

Für die gesammte Distanz reicht die Leistung für POM nicht, also bekommen die SM 2.0 Karten wohl überall nur Normalmapping zum fressen (und nVIDIA wahrscheinlich auch, weil das Branching zu lahm ist).

Demirug
2005-10-08, 18:44:24
OpenGL wird unter Windows Vista nur noch relativ halbherzig unterstützt, und es ist wichtiger daß über 90% der Spiele-Entwickler so weit wie nur möglich unterstützt werden. Daß die Nische dabei etwas leidet ist nicht unvermeidbar.

Eigentlich hat Windows Vista die beste OpenGL unterstützung die Microsoft jemals für Windows programmiert hat.

Coda
2005-10-08, 18:46:47
Eigentlich hat Windows Vista die beste OpenGL unterstützung die Microsoft jemals für Windows programmiert hat.Mit oder ohne Aero?

Crushinator
2005-10-08, 18:47:55
Eigentlich hat Windows Vista die beste OpenGL unterstützung die Microsoft jemals für Windows programmiert hat.
Mag sein, daß sie aus Deiner Sicht die beste ist. Aus meiner Sicht hat sie kaum mehr mit OpenGL zu tun, wenn es ein d3d-Wrapper werden soll.

Coda
2005-10-08, 18:48:41
Mag sein, daß sie aus Deiner Sicht die beste ist. Aus meiner Sicht hat sie kaum mehr mit OpenGL zu tun, wenn es ein d3d-Wrapper werden soll.Ich denke nicht, dass Demirug das gemeint hat.

mindfaq
2005-10-08, 18:49:26
Das soll doch gar kein D3D-Wrapper sein.
Das einzige "Problem" ist, dass der "Aero"-Desktop nicht gleichzeitig mit einer OpenGL-Applikation läuft.

Coda
2005-10-08, 18:49:55
Das einzige "Problem" ist, dass der "Aero"-Desktop nicht gleichzeitig mit einer OpenGL-Applikation läuft.Ich glaube nicht, dass da schon das letzte Wörtchen geredet ist.

MikBach
2005-10-08, 18:50:27
Parallax Occlusion Mapping mit Blending zu Normalmapping in der Entfernung. Siehe ATis Toyshop Demo.
Parallax Occulusion Mapping ist wirklich herrlich.
Die Frage war aber auf die Effekte bezogen, :D

Für die gesammte Distanz reicht die Leistung für POM nicht, also bekommen die SM 2.0 Karten wohl überall nur Normalmapping zum fressen (und nVIDIA wahrscheinlich auch, weil das Branching zu lahm ist).
Das ist eben der Punkt. Es kommt darauf an, was Hinten rauskommt...

Coda
2005-10-08, 18:57:42
Parallax Occulusion Mapping ist wirklich herrlich.
Die Frage war aber auf die Effekte bezogen, :D Was ist nach deiner Definition denn bitte ein "Effekt"?

Das ist eben der Punkt. Es kommt darauf an, was Hinten rauskommt...Ja. Und deine "können-alles" SM2.0 X800 schaffen es eben nicht. Und jetzt ist SM 3.0 auf einmal toll, weil ATi es gescheit implementiert hat, gell? Immer schön die Fahne mit dem Wind...

MikBach
2005-10-08, 19:00:38
Was ist nach deiner Definition denn bitte ein "Effekt"?
Refrection, spezielle Glaseffekte und Materialshaders...

Ja. Und deine "können-alles" SM2.0 X800 schaffen es eben nicht.
Beispiele bitte...:)

Spasstiger
2005-10-08, 19:03:53
Refrection, spezielle Glaseffekte und Materialshaders...

Sind alles Shader-Programme/-"Effekte", was du da aufzählst, und mit Shadern wird auch Parallax Occulusion Mapping erzeugt.

Coda
2005-10-08, 19:04:27
Refrection, spezielle Glaseffekte und Materialshaders...Und was ist an POM kein Materialshader?

Ich glaube du hast nicht die geringste Vorstellung von was du überhaupt redest, deshalb werd ich in Zukunft auch nicht mehr darüber diskuttieren.

Beispiele bitte...:)Hab ich doch gerade oben gebracht. Der POM-Shader in Toyshop.

MikBach
2005-10-08, 19:08:09
Sind alles Shader-Programme/-"Effekte", was du da aufzählst, und mit Shadern wird auch Parallax Occulusion Mapping erzeugt.
Das ist mir bekannt, nur wollte ich Shader sehen, die Sm2 nicht paackt... :)

Demirug
2005-10-08, 19:09:10
Ich denke nicht, dass Demirug das gemeint hat.

Zum Teil schon. Ist auf jeden Fall besser als der alte Software renderer und ich behaupte mal das er sogar den Intel OpenGL Treiber schlägt.

Aber auch die Schnittstelle für die ICDs wurde verbessert.

Das Aero Problem muss noch aussortiert werden. Ich denke aber da wird sich eine Lösung finden.

MikBach
2005-10-08, 19:09:54
Und was ist an POM kein Materialshader?

Ich glaube du hast nicht die geringste Vorstellung von was du überhaupt redest, deshalb werd ich in Zukunft auch nicht mehr darüber diskuttieren.

Hab ich doch gerade oben gebracht. Der POM-Shader in Toyshop.
Dann hast du mich missverstanden...
Ich will Beispiele anhand von Spielen. :)

Spasstiger
2005-10-08, 19:10:01
Das ist mir bekannt, nur wollte ich Shader sehen, die Sm2 nicht paackt... :)

Parallax Occlusion Mapping.
Wird in Zeit wahrscheinlich sehr häufig verwendet werden und das normale Parallax Mapping ablösen.

MikBach
2005-10-08, 19:12:41
Parallax Occlusion Mapping.
Wird in Zeit wahrscheinlich sehr häufig verwendet werden und das normale Parallax Mapping ablösen.
Das beantwortet meine Frage auf SM2-Tauglichkeit nicht...

horn 12
2005-10-08, 19:13:04
gibt es neue Erkenntnisse zu AGP Karten versionen fpr die X1800 XL / XT
oder sind die sapnnungen nun im 90um zu verschieden im Gegenstz zu R420 480 ?
KANN man nun mit Sicherheit sagen , dass KEINE AGP karten auf X1800 XL / XT Basis erscheinen werden , da sie nicht lauffähig sind ,
oder ist noch ein Lichtblick in Aussicht ?

Will ENDLICH mal Klarheit von
a. ATI selbst zu AGP Versionen
b. Von den Boardherstellern selbst , da man die Käufer nicht ewig warten l
lassen kann , sonst wechseln sie zur Konkurrenz (NV)
und event. zu anderem Boardhersteller .

Coda
2005-10-08, 19:14:00
Das beantwortet meine Frage auf SM2-Tauglichkeit nicht...Du bist entweder selten dämlich oder du willst absolut nichts einsehen.

Ohne SM3.0 ist kein Distance-LOD möglich und damit auch kein POM, weil die Rechenleistung für die volle Distanz einfach nicht reicht. Glaubst du ATi macht im eigenen Demo LOD rein, weil es ihnen Spaß macht?

Demirug
2005-10-08, 19:14:45
Das beantwortet meine Frage auf SM2-Tauglichkeit nicht...

Parallax Occlusion Mapping funktioniert nicht mit SM2.0 weil die 4 Dependent Reads nicht reichen.

MikBach
2005-10-08, 19:17:21
Du bist entweder selten dämlich oder du willst absolut nichts einsehen.

edit: ich glaube da habe ich gestern auf dem Schlauch gestanden. :(

Coda
2005-10-08, 19:20:49
Parallax Occlusion Mapping funktioniert nicht mit SM2.0 weil die 4 Dependent Reads nicht reichen.ATi schreibt im Paper aber sie hätten Implementierungen für PS2.0 und PS2.0b. Das ändert aber nichts an der LOD-Geschichte.

Demirug
2005-10-08, 19:32:33
ATi schreibt im Paper aber sie hätten Implementierungen für PS2.0 und PS2.0b. Das ändert aber nichts an der LOD-Geschichte.

Ist dann aber wohl eine Lite Version. Die Original braucht mindestens 2.A

Coda
2005-10-08, 19:41:25
Dann ist das Argument ja noch besser ;)

Armaq
2005-10-08, 19:52:53
Das beantwortet meine Frage auf SM2-Tauglichkeit nicht...

Ich fass es einfach nicht. 3 Leute erklären dir genau, was du wissen willst, aber du tust immernoch so, als ob das ganz und gar nicht ausreicht und sie keine "Beweise" für ihre "Behauptungen" hätten.

Eigentlich einfach nur frech.

Grestorn
2005-10-08, 22:14:23
Das soll doch gar kein D3D-Wrapper sein.
Das einzige "Problem" ist, dass der "Aero"-Desktop nicht gleichzeitig mit einer OpenGL-Applikation läuft.
... mit einer OpenGL-App in einem Fenster.

OpenGL als Fullscreen läuft problemlos, auch mit Aero.

Ist auch irgendwie verständlich. Wenn Aero die Oberfläche mit D3D rendert, ist es schwer vorstellbar, dass ein Fenster auf der selben Oberfläche mit einem OpenGL ICD gerendert wird. Deswegen gibt es den Wrapper, der immerhin einer OpenGL App in einem Fenster darstellen kann, dann halt nur mit eingeschränkten Features. Ich finde diese Unterstützung geradezu optimal.

Crushinator
2005-10-08, 22:17:36
@grestorn
Genau das ist tödlich für CAD/CAM-Anwendungen. Die würden nämlich verhungern, weil sie nunmal sinnvollerweise Fenster-Applikationen sind. Der Sinn und Zweck dieser Geschichte ist doch nur, auch diese Anwendungen zu zwingen D3D zu nutzen. Es gibt technisch jedenfalls keine Beschränkung seitens des Grafik-Treibers. Bereits heute kann man OpenGL (ICD) und D3D-Applikationen gleichzeitig in eigenen Fenstern rendern lassen.

Odal
2005-10-08, 22:57:07
nene, das ist schon durchaus möglich, sieht man ja an systemen mit sli oder crossfire das es durchaus möglich ist noch mehr fps darzustellen.
cpu-limitierung ist ein sehr variabler begriff mit den unterschiedlichsten auswirkungen.

sicher können sie das, da es eben NICHT CPU Limitiert ist.

was soll denn an CPU limitierung variable sein? entweder limitiert nun die CPU oder nicht :confused:

Grestorn
2005-10-08, 23:52:32
Der Sinn und Zweck dieser Geschichte ist doch nur, auch diese Anwendungen zu zwingen D3D zu nutzen.
Das halte ich für unwahrscheinlich, da einfach zu durchsichtig.

Das OGL und D3D in getrennten Fenstern laufen, ist etwas anderes. Wenn Aero läuft, wäre das OGL Fenster TEIL der D3D Oberfläche. D.h. Du könntest z.B. das Fenster zoomen, im 3D-Space verdrehen (dieses neue Durchschalten der Fenster, bei dem die Fenster schräg hintereinander dargestellt werden), usw.. Und ich kann mir nicht vorstellen, dass das so tivial ist, mit einem Fenster, dass über den ICD kontrolliert wird.

Nicht jede Aktion von MS ist Ergebnis eines bösen Hintergedankens. Es mag sein, dass es eine Lösung für das Problem gibt, und dass es MS zu aufwändig war, diese zu realisieren. Anteil an dieser Entscheidung mag auch sein, dass MS kein rechtes Interesse daran hat. Aber künstlich herbeigeführt ist das Problem ziemlich sicher nicht.

Die Lösung einen Wrapper für OGL in Fenstern zu schreiben halte ich für durchaus sinnvoll. Für die meisten Anwendungsfälle wird dies ausreichen.

Leute, die OGL in Fenstern brauchen und die nicht mit dem Wrapper leben können, werden sicherlich auch kein großes Problem damit haben, Aero auszuschalten. Im Gegenteil, dieses Clientel wird Aero ohenhin eher als Belastung denn als Hilfe sehen.

dargo
2005-10-09, 00:20:56
Wurde das schon hier gepostet ?
Übertaktete X1800 XL (http://www.xtremesystems.org/forums/showpost.php?p=1075680&postcount=72)

Schaut euch mal die Spannungen an. :eek:
Jetzt weiß man auch wieso die X1800XT so viel Verlustleistung hat.

Odal
2005-10-09, 00:38:19
hier nich aber in nem andern thread :D

naja für den kleineren fertigungsprozess hat sie tatsächlich eine recht hohe spannung.

up¦²
2005-10-09, 00:42:18
Naja, gerade so ... :tongue:
http://img89.imageshack.us/img89/3172/x1800shuttle8ev.jpg

Odal
2005-10-09, 00:51:18
wenn er jetzt noch das gehäuse zumacht kann er das teil im sommer für stylische effekte als nebelmaschine nutzen ;D

deekey777
2005-10-09, 00:58:33
wenn er jetzt noch das gehäuse zumacht kann er das teil im sommer für stylische effekte als nebelmaschine nutzen ;D

Zuerst sollte er die X1800er ans Netzteil anschliessen. ;) ;D

up¦²
2005-10-09, 01:01:38
Hier zu kaufen:
http://www.newegg.com/Product/Product.asp?Item=N82E16814102610
==> in stock :wink:

Coda
2005-10-09, 01:03:39
Schaut euch mal die Spannungen an. :eek:
Jetzt weiß man auch wieso die X1800XT so viel Verlustleistung hat.War mir klar. Übertaktet im Auslieferungszustand. Ich hoffe mal die halten das auch mindestens 2 Jahre durch.

up¦²
2005-10-09, 01:08:22
RGB im Karton! wie hätte man sich früher gefreut ...

http://images10.newegg.com/productimage/14-102-610-04.JPG

Coda
2005-10-09, 01:11:17
Um den Preis sollte das auch drin sein...

Odal
2005-10-09, 01:13:08
meistens machens ja die spannungswandler nicht mit, aber die werden dann sicher ausreichend dimensioniert sein beim referenzdesign...
falls die XL das gleiche Layout wie die XT (mit 256MB) bekommt bleiben ja in der tat gute OC aussichten bei der XL

StefanV
2005-10-09, 01:25:54
hier nich aber in nem andern thread :D

naja für den kleineren fertigungsprozess hat sie tatsächlich eine recht hohe spannung.
90nm?

Schau dir mal an, mit was für einer SPannung die AMD und Indell 90nm CPUs laufen, da sind 1,3V nicht ungewöhnlich...

StefanV
2005-10-09, 01:27:28
RGB im Karton! wie hätte man sich früher gefreut ...

http://images10.newegg.com/productimage/14-102-610-04.JPG
1. ist das kein RGB Kabel sondern ein Komponenten
2. war das bei meiner x850XT auch schon dabei (ok, an meinen Fernseher angeklemmt hab ichs nicht)...
3. seh ich bei der Ausstattung nichts ungewöhnliches, das nicht auch schon bei meiner x850XT dabei war...

deekey777
2005-10-09, 01:27:59
RGB im Karton! wie hätte man sich früher gefreut ...

http://images10.newegg.com/productimage/14-102-610-04.JPG

Meinst du die YUV-Cinches? Die gehören seit 2004 zum Standardlieferumgang, nur ganz geizige Anbieter legen so etwas nicht in den Karton.

up¦²
2005-10-09, 01:42:09
Bei meiner 9700 waren sie nicht dabei ... :smile:

StefanV
2005-10-09, 01:43:23
Bei meiner 9700 waren sie nicht dabei ... :smile:
Ist auch erst mit der letzten Generation eingeführt worden und da auch nur bei den mit ViVo.

deekey777
2005-10-09, 01:53:00
Bei meiner 9700 waren sie nicht dabei ... :smile:

AFAICR mußte Jesus für seine 9800SE AIW das Komponentenkabel nachträglich holen.

up¦²
2005-10-09, 01:59:25
Sonst muß gebastelt werden ...
http://www.homecinemapage.de/kabel.htm

Odal
2005-10-09, 02:03:44
90nm?

Schau dir mal an, mit was für einer SPannung die AMD und Indell 90nm CPUs laufen, da sind 1,3V nicht ungewöhnlich...

CPU ist nicht GPU (hat ja nen paar mehr transistoren ^^) :wink: bei GPUs waren spannungen von 1,4V in 110nm schon recht viel

Crushinator
2005-10-09, 02:22:52
Das halte ich für unwahrscheinlich, da einfach zu durchsichtig.
Wir werden es jedenfalls noch rechtzeitig genug erfahren. ;)
Das OGL und D3D in getrennten Fenstern laufen, ist etwas anderes. Wenn Aero läuft, wäre das OGL Fenster TEIL der D3D Oberfläche. D.h. Du könntest z.B. das Fenster zoomen, im 3D-Space verdrehen (dieses neue Durchschalten der Fenster, bei dem die Fenster schräg hintereinander dargestellt werden), usw.. Und ich kann mir nicht vorstellen, dass das so tivial ist, mit einem Fenster, dass über den ICD kontrolliert wird.
Der Treiber muß die Fenster doch eh' zeichnen bzw. von der GPU zeichnen lassen. Alle Anfragen egal von welchem API oder Runtime landen Schlußendlich im Kernel-Treiber. Wenn ihm gleichzeitiges zoomen und rendern zu bunt wird, könnte er das Rendern einfach unterdrücken. Wie gesagt: Für mich wäre das alles kein technischer Grund auf OS-Ebene entweder das eine oder das andere zuzulassen.
Nicht jede Aktion von MS ist Ergebnis eines bösen Hintergedankens. Es mag sein, dass es eine Lösung für das Problem gibt, und dass es MS zu aufwändig war, diese zu realisieren. Anteil an dieser Entscheidung mag auch sein, dass MS kein rechtes Interesse daran hat. Aber künstlich herbeigeführt ist das Problem ziemlich sicher nicht.
MS hat schlicht kein Interesse daran OpenGL weitestgehend zu unterstützen. Sie sitzen auch nicht mehr im OGL-Gremium. Man kann natürlich auch nur gutes hinter der Aktion vermuten, klar. :ueye:

StefanV
2005-10-09, 02:25:53
@Crushi + Grestorn

Gibt eigentlich nur 2 Möglichkeiten:
a) das ganze ist Absicht
b) das ganze ist eine mitgeschleppte Dummheit aus früheren Zeiten, bei der M$ einfach keinen Bock hatte, sie zu fixen...

Für mich klingt b) wahrscheinlicher, zumal M$ ja auch für 'creative Programmierung' bekannt ist, siehe A20 Gate oder Windows 95 auf 'nem 400MHz K6 oder sonstigen aktuellen Rechnern :ugly: ...

Coda
2005-10-09, 02:28:11
...siehe A20 Gate...Momentchen mal. Für das A20-Gate-Dilemma ist Intel selbst verantwortlich.

StefanV
2005-10-09, 02:32:04
Momentchen mal. Für das A20-Gate-Dilemma ist Intel selbst verantwortlich.
Richtig aber M$ waren AFAIK die einzigen, die diese Lücke missbrauchten, weswegen Indell das A20 Gate erfand, AFAIR :ugly:

Zumindest stands so mal vor langer Zeit in der c't...

Coda
2005-10-09, 02:35:11
Intel hätte auch so die Abwärtskompatibilität sicherstellen müssen. Überhaupt ist das Ding im Protected-Mode doch eh deaktiviert, also heute völlig irrelevant.

StefanV
2005-10-09, 02:35:54
Richtig, war ja auch nur ein Beispiel für die 'creative Programmierung' von M$ :ugly:

MikBach
2005-10-09, 03:16:54
Ich fass es einfach nicht. 3 Leute erklären dir genau, was du wissen willst, aber du tust immernoch so, als ob das ganz und gar nicht ausreicht und sie keine "Beweise" für ihre "Behauptungen" hätten.

Eigentlich einfach nur frech.
Ja, hast schon Recht. habe gestern klein wenig auf dem Schlauch gestanden. Und dabei hatte ich mich letztens über Parallax Occlusion Mapping unterhalten und dass es mind. 2.A braucht. :hammer:
Das kommt davon, wenn man viele Dinge gleichzeitig tut. :D

Coda
2005-10-09, 03:37:53
Ja, hast schon Recht. habe gestern klein wenig auf dem Schlauch gestanden. Und dabei hatte ich mich letztens über Parallax Occlusion Mapping unterhalten und dass es mind. 2.A braucht. :hammer:
Das kommt davon, wenn man viele Dinge gleichzeitig tut. :DIch finde das eher weniger witzig.

Hauptsache schön pro-ATi Maul aufreisen, der Inhalt der Posts interessiert ja keinen.

MikBach
2005-10-09, 03:44:01
Ich finde das eher weniger witzig.

Hauptsache schön pro-ATi Maul aufreisen, der Inhalt der Posts interessiert ja keinen.
Hauptsache schön nachtreten. :mad:
Ich habe gestern echt ein wenig auf dem Schlauch gestanden, da ich immer abgelenkt wurde...
Und was hat das jetzt mit pro-ATI zu tun, wenn wir über SM2 reden?
Der R520 beherrscht doch SM3. :|

Coda
2005-10-09, 03:46:48
Ach red dich doch nicht raus, überall wenn's um nVIDIA geht wetterst du dagegen.

MikBach
2005-10-09, 03:50:05
Ach red dich doch nicht raus, überall wenn's um nVIDIA geht wetterst du dagegen.
Coda, wir haben uns gestern über SM2 unterhalten (neben OGL).
Wieso sollte das pro ATI sein, wenn der R520 doch SM3 kann?
Das war einfach eine Grundsatzdiskussion ohne Bezug auf den IHV.
Aber genug davon, das ist hier OT. :)

Coda
2005-10-09, 03:54:37
Deine Haltung ist trotzdem offensichtlich. Vor allem suchst du auch permanent Streit obwohl die Lage klar ist.

MikBach
2005-10-09, 03:58:04
Deine Haltung ist trotzdem offensichtlich. Vor allem suchst du auch permanent Streit obwohl die Lage klar ist.
Ich suche keinen Streit, sondern Infos. :)
Aber das geht hier echt zu weit. Falls du noch etwas wissen willst, dann per PM weiter...

Coda
2005-10-09, 03:59:15
Klar, und die Infos sind solange falsch, bis sie in dein Weltbild passen. Ich schreibe übrigens wo's mir passt, die anderen können das ruhig auch lesen.

MikBach
2005-10-09, 04:03:36
Klar, und die Infos sind solange falsch, bis sie in dein Weltbild passen. Ich schreibe übrigens wo's mir passt, die anderen können das ruhig auch lesen.
Ich habe mich mit dem Parallax Occlusion Mapping vertan. :rolleyes:
Ist das jetzt ein Grund für dich persönlich zu werden?

Coda
2005-10-09, 04:04:26
Das ich nicht lache. Als ob das der erste Thread wäre in dem du dich so verhälst.

MikBach
2005-10-09, 04:15:28
Das ich nicht lache. Als ob das der erste Thread wäre in dem du dich so verhälst.
Was meinst du jetzt?
Muss das echt sein?

(del)
2005-10-09, 04:33:52
Verzeiht die Unterbrechung, aber ist das bei euch beiden normal so? :ugly2:

MikBach
2005-10-09, 04:38:05
Verzeiht die Unterbrechung, aber ist das bei euch beiden normal so? :ugly2:
Ja, jeder will Recht haben... :D
Coda ist ein schlauer Mann, der sehr viel Wissen ins Forum bringt. Deswegen machen Unterhaltungen mit ihm so viel Spass... :)

(del)
2005-10-09, 04:44:14
Daran wil ich nicht zweifeln aber für sowas gibts doch die PN-Funktion.

Naja ich geh jetzt ins Bettchen, gut' Nacht.

Tomcat70
2005-10-09, 09:24:19
Klar, und die Infos sind solange falsch, bis sie in dein Weltbild passen.
Ach red dich doch nicht raus, überall wenn's um nVIDIA geht wetterst du dagegen.

naja, das ist halt als ausgleich für dein permanentes pro-nvidia reden, das solltest du nicht so eng sehen würd ich mal vorschlagen ;)
jeder hat halt seine favoriten......und du bist auch schon hin und wieder nicht so optimal richtig gelegen bei deinen vermutungen. sei es bei valves hdr, r520 performance/features oder adaptiv aa bei r300+.
ich sehe z.b. dein generelles verhalten im forum hier auch eher als sticheln gegen ATi an, nvidia wird eher schöngeredet, warum auch nicht, jeder wie er will halt....nur sollte man dann leuten die eher gegen nvidia eingestellt sind, nicht ohne bezug auf eine konkrete sache solches vorwerfen.

dargo
2005-10-09, 10:30:10
War mir klar. Übertaktet im Auslieferungszustand. Ich hoffe mal die halten das auch mindestens 2 Jahre durch.
Naja, was heißt übertaktet ?
Man könnte genauso sagen - die XL ist im Auslieferungszustand untertaktet. :D
Immerhin lässt sich die X1800XT mit der deutlich höheren Spannung noch weit über 800Mhz bei GPU übertakten, natürlich nicht mit Standardkühlung.
Also, am Limit scheint das Topmodell des R520 nicht zu laufen. Das Problem ist nur die enorme Verlustleistung. X-D

Auf der anderen Seite frage ich mich - wozu gibt ATI der X1800XT 1,31V für die GPU, wenn für ca. 650-700Mhz GPU-Takt höchstwahrscheinlich auch ca. 1,2V reichen würden ?
Damit wäre man schon sehr nah an der Verlustleistung der G7800GTX.

Odal
2005-10-09, 10:44:23
Auf der anderen Seite frage ich mich - wozu gibt ATI der X1800XT 1,31V für die GPU, wenn für ca. 650-700Mhz GPU-Takt höchstwahrscheinlich auch ca. 1,2V reichen würden ?
Damit wäre man schon sehr nah an der Verlustleistung der G7800GTX.

weil diese eben nicht reichen würden :wink:
klar is das problem der hohen verlustleistung da...aber das gilt doch immer...wenn ich die verlustleistung auf theoretisch 0 begrenzen könnte, könnte ich mir sogar nen kühler sparen und bis zum max. von silizium transistoren (wieviel war das nochmal?) volten. ;)

dargo
2005-10-09, 10:48:21
weil diese eben nicht reichen würden :wink:

Wie kommst du darauf :confused:
Wenn für >800Mhz 1,31V reichen dann reichen für 625Mhz locker 1,2V aus.

Odal
2005-10-09, 10:52:19
dann zeig mir mal wo eine x1800 mit luftkühlung und 1,31 volt >800 Mhz läuft ;)

MikBach
2005-10-09, 10:57:09
nur sollte man dann leuten die eher gegen nvidia eingestellt sind, nicht ohne bezug auf eine konkrete sache solches vorwerfen.
Ich bin nicht gegen Nvidia eingestellt. Das war eine Diskussion über SM2 und hat mit Nvidia oder ATI gar nichts zu tun...

dargo
2005-10-09, 10:59:13
dann zeig mir mal wo eine x1800 mit luftkühlung und 1,31 volt >800 Mhz läuft ;)
http://zdnet.de/news/hardware/0,39023109,39137178,00.htm

Sorry, falls ich falsch liege. Ich habe es aber so verstanden, daß dieses Ergebnis ohne Vmod zustande kam.

Odal
2005-10-09, 11:25:55
"Mit Hilfe von flüssigem Stickstoff" soso damit macht man also neuerdings eine luftkühlung ;) sehr kühle luft bei -90 °C :D

weiterhin wurden keine angaben gemacht mit wieviel V das ding befeuert wurde...da es aber ziel war das Rekordergebniss zu knacken (wurde leider nicht geschafft) was ein ATI Techniker vorgelegt hat (863 oder so ein thread drunter ;) ) ist es sehr wahrscheinlich das die spannung erhöht wurde

Tomcat70
2005-10-09, 11:33:40
Ich bin nicht gegen Nvidia eingestellt. Das war eine Diskussion über SM2 und hat mit Nvidia oder ATI gar nichts zu tun...

umso besser.....
mir gings auch eher um codas pauschalvorwürfe als um deine einstellung.

dargo
2005-10-09, 11:38:54
"Mit Hilfe von flüssigem Stickstoff" soso damit macht man also neuerdings eine luftkühlung ;) sehr kühle luft bei -90 °C :D

Ich glaube, du hast mich nicht verstanden.

Immerhin lässt sich die X1800XT mit der deutlich höheren Spannung noch weit über 800Mhz bei GPU übertakten, natürlich nicht mit Standardkühlung.

Ein Chip ist irgendwann am Ende, egal ob man ihn mit -90°C befeuert. ;)


weiterhin wurden keine angaben gemacht mit wieviel V das ding befeuert wurde...da es aber ziel war das Rekordergebniss zu knacken (wurde leider nicht geschafft) was ein ATI Techniker vorgelegt hat (863 oder so ein thread drunter ;) ) ist es sehr wahrscheinlich das die spannung erhöht wurde
Solange ich keine Angaben zur Spannung habe muss ich davon ausgehen, daß es 1,31V waren.
Wobei die XL sich mit 1,31V auf "nur" 705Mhz übertakten liess. Die XL hat aber einen anderen Core, zumindest die erste Revision, oder ?

VoodooJack
2005-10-09, 11:50:40
Das wird sicher viele interessieren: Wie lässt sich eine X1800 XT mit schlichter Luftkühlung übertakten?

In den bisherigen Reviews wurde dazu noch nichts gesagt, weil man zum Übertakten der X1800 noch ein spezielles Tool braucht. Driverheaven hat dieses Tool und hat übertaktet.

http://www.driverheaven.net/reviews/r520reviewxvxv/overclocking.htm

Das sind die stabilen Werte, die Driverheaven erreichte:

Core: von 625 Mhz auf 685 Mhz (~ 10%)
Memory: von 750 Mhz auf 895 Mhz (~ 20%)

Nicht schlecht, Herr Specht. Vor allem der Speicher ist bemerkenswert. Der Speicher ist aus meiner Erfahrung heraus beim Übertakten von Radeons allemal wichtiger als der Core.

Driverheaven hat bislang 2 Spiele getestet:

In Doom3 (1600x1200/UltraQuality/6xAA/16xAF) erreichte man mit dieser Übertaktung eine Steigerung von 27%. Von 40 fps auf 51 fps.

In CSS: VST (1600x1200/6xAAA/16xHQAF) war die Steigerung nicht ganz so groß (~ 11%). Von 108 fps auf 120 fps.

Odal
2005-10-09, 12:05:52
Ich glaube, du hast mich nicht verstanden.
Ein Chip ist irgendwann am Ende, egal ob man ihn mit -90°C befeuert. ;)
Solange ich keine Angaben zur Spannung habe muss ich davon ausgehen, daß es 1,31V waren.

ich versteh dich schon ;) aber du mich nicht *g*
worauf ich hinaus will is das du von einer auf -90°C gekühlten und auf über 850Mhz übtertakteten x1800 (selbst wenn hierfür keine spannungserhöhung durchgeführt wurde, was ich mal sehr stark anzweifeln möchte :D ) nicht darauf schliessen kannst das die normale x1800xt mit normaler luftkühlung und normalem takt (625 Mhz) diesen auch bei locker 10% weniger spannung schaffen müsste.

die gatterlaufzeit von siliziumtransistoren ist abhängig von der temperatur, sicherlich sind die auch irgendwann am ende da die flanken nichtmehr stabil kommen aber bis dahin kann man durch reines temperaturabsenken die übertaktbarkeit deutlich steigern, wohingegen bei normaler kühlung mehr saft draufgegeben werden müsste um steile flanken zu erreichen sodass das signal nich zur sägezahnkurve verkommt.

Odal
2005-10-09, 12:11:10
Driverheaven hat dieses Tool und hat übertaktet.

http://www.driverheaven.net/reviews/r520reviewxvxv/overclocking.htm


auchso driverheaven *G* das sind die die aus 19-20% übertaktung 28% mehrleistung (FPS) rausgeholt haben ;D


Memory: von 750 Mhz auf 895 Mhz (~ 32%)


das sind aber nur 19,3% taktsteigerung :D


Nicht schlecht, Herr Specht. Driverheaven hat bislang 2 Spiele getestet:

In Doom3 (1600x1200/UltraQuality/6xAA/16xAF) erreichte man mit dieser Übertaktung eine Steigerung von 27%. Von 40 fps auf 51 fps.


jau siehe oben ;D

wenn driverheaven schonmal übertaktet muhhaaahahaha

reunion
2005-10-09, 12:46:30
War mir klar. Übertaktet im Auslieferungszustand. Ich hoffe mal die halten das auch mindestens 2 Jahre durch.


Diese Aussage ist schon per Definition falsch. Eine Karte kann im Auslieferungszustand gar nicht übertaktet sein.

Im übrigen ist es logisch, dass sich ein und derselbe Core bei 25% höheren Takt auch mehr Spannung genehmigt.

reunion
2005-10-09, 12:50:23
Wie kommst du darauf :confused:
Wenn für >800Mhz 1,31V reichen dann reichen für 625Mhz locker 1,2V aus.


Du kannst nicht von einem Modell auf die Masse schließen.
Es sollen ja möglichst viele Chips diese 625Mhz erreichen, wodurch man da natürlich eine gewissen Sicherheitsabstand lässt.

Tomcat70
2005-10-09, 13:30:47
auchso driverheaven *G* das sind die die aus 19-20% übertaktung 28% mehrleistung (FPS) rausgeholt haben ;D

wenn driverheaven schonmal übertaktet muhhaaahahaha

was is nu wieder?
10% chip plus 20% ram kann nicht 28% mehrleistung in einem benchmark ergeben? wie kömmts ;) das ist eine fast perfekte umsetzung der takterhöhungen, wo liegt das problem?

dargo
2005-10-09, 13:36:03
Du kannst nicht von einem Modell auf die Masse schließen.
Es sollen ja möglichst viele Chips diese 625Mhz erreichen, wodurch man da natürlich eine gewissen Sicherheitsabstand lässt.
Das ist natürlich ein Argument. :)

LovesuckZ
2005-10-09, 13:39:50
was is nu wieder?
10% chip plus 20% ram kann nicht 28% mehrleistung in einem benchmark ergeben? wie kömmts ;) das ist eine fast perfekte umsetzung der takterhöhungen, wo liegt das problem?

Weil du das nicht addieren kannst...

StefanV
2005-10-09, 13:41:27
Weil du das nicht addieren kannst...
Warum nicht?!

In diesem Fall scheints so, als ob der Chip sowohl auf den höheren Chiptakt als auch auf den höheren RAM Takt stark reagiert...

dargo
2005-10-09, 13:47:18
Warum nicht?!

In diesem Fall scheints so, als ob der Chip sowohl auf den höheren Chiptakt als auch auf den höheren RAM Takt stark reagiert...
Jepp. Die Effizienz wurde anscheinend beim R520 stark verbessert. Dh. jede Erhöhung des GPU- und Speichertaktes kann man fast 1:1 prozentual hochrechnen.

Tomcat70
2005-10-09, 14:00:46
Jepp. Die Effizienz wurde anscheinend beim R520 stark verbessert. Dh. jede Erhöhung des GPU- und Speichertaktes kann man fast 1:1 prozentual hochrechnen.

naja....in den meisten fällen sollte es schon eher so sein das man es nicht direkt zusammenzählen kann.
nur rein prinzipiell ist es imo nicht im vorhinein zu verneinen.
hängt alles vom spezifischen fall ab denke ich.

Odal
2005-10-09, 14:45:26
es ist blödsinn ;D

ich habe meine CPU knapp 34% übertaktet und meinen Ram 18%
meine GPU 15%...achso darf nicht unerwähnt bleiben das mein HT takt auch etwas höher is :D

mein system bringt jetz locker 70% mehr FPS in Doom III als default :gaga:

Coda
2005-10-09, 14:47:20
Diese Aussage ist schon per Definition falsch. Eine Karte kann im Auslieferungszustand gar nicht übertaktet sein.Du weißt genau was ich meine.

naja, das ist halt als ausgleich für dein permanentes pro-nvidia reden, das solltest du nicht so eng sehen würd ich mal vorschlagen ;).Ich bin einer der neutralsten Leute hier im Forum. Ich habe nur was dagegen wenn manche Leute meinen Unwahrheiten verbreiten zu müssen.

Vor allem wenn neue GPUs gelauncht werden sind manche immer in Hype-Hochform. Nachher ist eh wieder alles nur mit Wasser gekocht.

Jepp. Die Effizienz wurde anscheinend beim R520 stark verbessert. Dh. jede Erhöhung des GPU- und Speichertaktes kann man fast 1:1 prozentual hochrechnen.Aber trotzdem nicht addieren, das macht keinen Sinn. Allerhöchstens multiplizieren.

pXe
2005-10-09, 15:12:41
Warum nicht?!

In diesem Fall scheints so, als ob der Chip sowohl auf den höheren Chiptakt als auch auf den höheren RAM Takt stark reagiert...

Das würde ja bedeuten dass sowohl GPU als auch Ram vor dem übertakten beide nicht ausgelastet waren.
Haben Sie evtl. zwischendurch die CPU getauscht oder so was??

pXe

Mr. Lolman
2005-10-09, 15:15:13
Das würde ja bedeuten dass sowohl GPU als auch Ram vor dem übertakten beide nicht ausgelastet waren.
Haben Sie evtl. zwischendurch die CPU getauscht oder so was??

pXe

Wieso, das geht sich schon aus:

1.1 x 1.2 = 1.32

D.H., wenn Speicher/GPU gleichermassen limitieren, kann man bei 10% GPU und 20% Speicherübertaktung bis zu 32% Mehrleistung rausholen...

Coda
2005-10-09, 15:20:53
Es sollte aber wirklich klar sein, dass das eine Milchmädchenrechnung ist.

Mr. Lolman
2005-10-09, 15:27:28
Es sollte aber wirklich klar sein, dass das eine Milchmädchenrechnung ist.

Genauso, wies spätestens jetzt klar sein sollte, dass die 28% Mehrleistung, doch im Bereich des theoretisch Möglichen liegen ;)

pXe
2005-10-09, 15:31:19
Wieso, das geht sich schon aus:

1.1 x 1.2 = 1.32

D.H., wenn Speicher/GPU gleichermassen limitieren, kann man bei 10% GPU und 20% Speicherübertaktung bis zu 32% Mehrleistung rausholen...

Hmm, rechnerisch richtig ja.
Aber, wenn GPU und Speicher beide limitiert sind, dann kann eine 10% GPU Übertaktung doch auch maximal genau diese 10% mehr bringen? Also darüber hinaus wäre dann ja wieder GPU limitiert. Oder nicht :confused:
Wäre es nicht möglich dass entweder falsch gemessen wurde (anderer Treiber, CPU, andere Einstellungen), oder der übermässige Geschwindigkeitszuwachs durch die Kühlung zustande kommt?
Vielleicht taktet die GPU sich bei zu viel Hitze von alleine runter, genauso wie P4s, und durch die wahnsinng bessere Kühlung kommt das nicht mehr vor. (wenn man davon ausgeht dass "serienmässig" die Kühlung nicht ausreicht, und die Übertaktung nur wegen zur geringer Volt Zahl nicht weiter erhöht werden kann)

pXe

Coda
2005-10-09, 15:32:35
Ich denke nicht, dass ATI sowas macht, da die Kühlung ja von Werk aus richtig dimensioniert ist und somit kein Schutzbedarf da ist. Man schält allerhöchstens komplett aus.

dargo
2005-10-09, 15:39:01
es ist blödsinn ;D

ich habe meine CPU knapp 34% übertaktet und meinen Ram 18%
meine GPU 15%...achso darf nicht unerwähnt bleiben das mein HT takt auch etwas höher is :D

mein system bringt jetz locker 70% mehr FPS in Doom III als default :gaga:
Wer redet jetzt hier von CPU- und/oder Ramübertaktung ?
Ich gebs auf. :hammer:

reunion
2005-10-09, 16:19:06
Weil du das nicht addieren kannst...

Richtig.

Warum nicht?!

In diesem Fall scheints so, als ob der Chip sowohl auf den höheren Chiptakt als auch auf den höheren RAM Takt stark reagiert...

Trotzdem ist das nicht möglich.

Jepp. Die Effizienz wurde anscheinend beim R520 stark verbessert. Dh. jede Erhöhung des GPU- und Speichertaktes kann man fast 1:1 prozentual hochrechnen.

Nein, wenn man Chip- und Speichertakt zB um 10% erhöht, kann die Karte maximal um 10% schneller sein.

Wieso, das geht sich schon aus:

1.1 x 1.2 = 1.32

D.H., wenn Speicher/GPU gleichermassen limitieren, kann man bei 10% GPU und 20% Speicherübertaktung bis zu 32% Mehrleistung rausholen...

Wie willst du das begründen?
Wenn nichts um mehr als 20% schneller wird, wie soll dann 32% Mehrleistung rausschauen?
Du kannst das nicht addieren, multiplizieren, etc.
Die Karte kann maximal um so viel schneller werden, um wieviel ein limitierender Faktor schneller wird.

Tomcat70
2005-10-09, 16:26:09
Nein, wenn man Chip- und Speichertakt zB um 10% erhöht, kann die Karte maximal um 10% schneller sein.

unsinn.....wenn du schon das wort maximal verwendest dann sind es 21%.

Tomcat70
2005-10-09, 16:27:17
Wie willst du das begründen?
Wenn nichts um mehr als 20% schneller wird, wie soll dann 32% Mehrleistung rausschauen?

weil beide faktoren gleichermassen auf das endergebnis einwirken können?
nach deinen ansichten könnte man das ram ja eh mit 10...oder auch 100mhz takten, spielt ja eh keine rolle ;)

dargo
2005-10-09, 16:33:07
Nein, wenn man Chip- und Speichertakt zB um 10% erhöht, kann die Karte maximal um 10% schneller sein.

Habe ich was anderes gesagt ?
Jede Erhöhung des GPU- und Speichertaktes kann man fast 1:1 prozentual hochrechnen.
Im Idealfall kann man von 20% Mehrleistung ausgehen wenn man den Chip und Speicher um 20% übertaktet. In der Regel sind es aber etwas weniger Mehrleistung.

reunion
2005-10-09, 16:35:13
weil beide faktoren gleichermassen auf das endergebnis einwirken können?


Du verstehst nicht.
Wenn sowohl Füllraten, als auch Bandbreite gleichermaßen limitieren, und ich beide um sagen wir mal 30% erhöhe, kann keine Leistungssteigerung über 30% eintreten. Da nichts um mehr als 30% beschleunigt wurde. Du kannst da nicht einfach irgendwas miteinander multiplizieren.

unsinn.....wenn du schon das wort maximal verwendest dann sind es 21%.

Unsinn. :P

Coda
2005-10-09, 16:40:41
naja, das ist halt als ausgleich für dein permanentes pro-nvidia reden, das solltest du nicht so eng sehen würd ich mal vorschlagen ;).http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3548831&postcount=68
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3548929&postcount=70

Ich kann auch nichts dafür, dass ATi bei der R420 Generation nichts neues geboten hat. Du siehst doch Gespenster.

Und nur weil ich im Vorfeld nicht auf den R520-Hype reingefallen bin bin ich jetzt pro-nV oder was? Es hat sich doch im wesentlichen bestätigt was ich gesagt habe, R520 hat G70 nicht vernichtet.

reunion
2005-10-09, 16:42:49
Habe ich was anderes gesagt ?

Im Idealfall kann man von 20% Mehrleistung ausgehen wenn man den Chip und Speicher um 20% übertaktet. In der Regel sind es aber etwas weniger Mehrleistung.

Sorry, mein Fehler.

TrigPe
2005-10-09, 16:44:36
weil beide faktoren gleichermassen auf das endergebnis einwirken können?
nach deinen ansichten könnte man das ram ja eh mit 10...oder auch 100mhz takten, spielt ja eh keine rolle ;)


Das war früher so. Die Kyro z.B. konnte die Taktsteigerung (synchron) nahezu
1 zu 1 umsetzen. Bei heutigen Grafikkarten bin ich mir da nicht mehr so sicher.

Aber man kann das Ganze sehr leicht nachprüfen, indem man die Graka einfach mal 10% untertaktet(Chip+Speicher).
Dann müsste sie ja 20% langsamer sein. :D

MfG

Edit: Dann ist man bei 50%iger Untertaktung ja schon bei Null. ;D

Tomcat70
2005-10-09, 16:53:30
Das war früher so. Die Kyro z.B. konnte die Taktsteigerung (synchron) nahezu
1 zu 1 umsetzen. Bei heutigen Grafikkarten bin ich mir da nicht mehr so sicher.

Aber man kann das Ganze sehr leicht nachprüfen, indem man die Graka einfach mal 10% untertaktet(Chip+Speicher).
Dann müsste sie ja 20% langsamer sein. :D


nochmal das ganze zur wiederholung:
die ganze rechnerei dreht sich hier sowieso im kreis :)
es ging um die benchmarkergebnisse der übertakteten x1800xt von driverheaven (27,6% bei 32%) und die behauptung das es mathematisch nicht möglich sei.
solange niemand den test nachstellt kann man imo zumindest nicht per se behaupten das es theoretisch nicht möglich ist.
klarerweise kann man so in der regel nicht rechnen (wie ich als auch andere bereits erwähnt haben).


Edit: Dann ist man bei 50%iger Untertaktung ja schon bei Null. ;D


ne, bei 100%-iger skalierung 25% ;)

Coda
2005-10-09, 16:58:01
Dann müsste sie ja 20% langsamer sein. :D Nein. Maximal 19%.

Odal
2005-10-09, 17:09:07
nochmal das ganze zur wiederholung:
die ganze rechnerei dreht sich hier sowieso im kreis :)
es ging um die benchmarkergebnisse der übertakteten x1800xt von driverheaven (27,6% bei 32%) und die behauptung das es mathematisch nicht möglich sei.
solange niemand den test nachstellt kann man imo zumindest nicht per se behaupten das es theoretisch nicht möglich ist.
klarerweise kann man so in der regel nicht rechnen (wie ich als auch andere bereits erwähnt haben).


hä? es ging darum das mit einer 19%igen übertaktung bei driverheaven 28% mehrleistung erzielt wurde.

woher ergibt sich deine 32%? :confused:

ah ich versthe du multiplizierst die 119% leistung des rams mit den 110% des chips

also ca. 1,2x1,1=1,32 (32%)

und was soll der schwachsinn?

reunion
2005-10-09, 17:10:57
solange niemand den test nachstellt kann man imo zumindest nicht per se behaupten das es theoretisch nicht möglich ist.

IMO kann man dies sehrwohl.
Oder wie willst du eine Leistungssteigerung erklären, die überhalb des theoretischen Maximums liegt?

Tomcat70
2005-10-09, 17:19:03
IMO kann man dies sehrwohl.
Oder wie willst du eine Leistungssteigerung erklären, die überhalb des theoretischen Maximums liegt?

das theoretische maximum sind nun mal 32%.

reunion
2005-10-09, 17:21:15
das theoretische maximum sind nun mal 32%.

Auf die Begründung bin ich gespannt.

Odal
2005-10-09, 17:22:03
Erklärung :confused:

jo dann is das bei meinem A64 system bei 34% CPU übertaktung und 9% ramübertaktung

das theoretische maximum bei 46% ;D geil hehe

lass ich meinen erhöhten gpu takt noch mit einfliessen bin ich schon bei 67% :biggrin: vielleicht sollt ich den pci-e fix ausmachen und den pci-e takt noch nen bissle hochschrauben

Tomcat70
2005-10-09, 17:23:08
Auf die Begründung bin ich gespannt.

wurde eh schon alles gesagt zu dem thema.

Tomcat70
2005-10-09, 17:23:55
Erklärung :confused:

jo dann is das bei meinem A64 system bei 34% CPU übertaktung und 18% ramübertaktung

das theoretische maximum bei 58% ;D geil hehe

übergreifende pauschalvergleiche bringen uns auch nicht weiter :)
rein theoretisch hast du recht (obwohl es da noch mehr takte gäbe die eine rolle spielen), glaube aber kaum das man einen anwendungsfall dafür findet.

Odal
2005-10-09, 17:26:13
wurde eh schon alles gesagt zu dem thema.


mir offenbarte sich auch noch keine begründung, vielleicht quotest du das nochmal :cool:

-=CHICKEN=-
2005-10-09, 17:45:04
sorry, wenn ich mal so frech bin und mich hier einmische, sehe es aber genau so, das 32% das theoretische maximum sind!

grund:
nehmt mal ein spiel das theoretisch überall limitiert wird (GPU +RAM), welches mal angenommen 100 fps hat.
wenn ihr jetzt NUR die GPU um 10% übertaktet, dann sinds also maximal 110 fps (110%).
das gleich ist natürlich auch beim RAM der fall, wenn NUR dieser um 10% übertaktet wird, dann sind wir ja auch bei 110 fps (110%).

jetzt macht aber mal das spielchen, wenn beides um 10% übertaktet wird:
als erstes die GPU um 10% höher, also 110 fps. wenn ich jetzt aber noch zusätzlich den RAM um 10% erhöhe, dann sinds ja 110 fps + 10% also 121 fps (121%). oder erklärt mir, warum man bei 100% GPU-takt den RAM um 10% erhöhen kann und damit auch die leistung (fps) aber nicht bei 110% GPU-takt.
wenn also GPU + RAM um 10% erhöht werden, dann sind theoretisch bis zu 21% leistunsgsteigerung drin! (IMHO)

Grestorn
2005-10-09, 17:54:58
sorry, wenn ich mal so frech bin und mich hier einmische, sehe es aber genau so, das 32% das theoretische maximum sind!

grund:
nehmt mal ein spiel das theoretisch überall limitiert wird (GPU +RAM), welches mal angenommen 100 fps hat.
wenn ihr jetzt NUR die GPU um 10% übertaktet, dann sinds also maximal 110 fps (110%).
das gleich ist natürlich auch beim RAM der fall, wenn NUR dieser um 10% übertaktet wird, dann sind wir ja auch bei 110 fps (110%).

jetzt macht aber mal das spielchen, wenn beides um 10% übertaktet wird:
als erstes die GPU um 10% höher, also 110 fps. wenn ich jetzt aber noch zusätzlich den RAM um 10% erhöhe, dann sinds ja 110 fps + 10% also 121 fps (121%). oder erklärt mir, warum man bei 100% GPU-takt den RAM um 10% erhöhen kann und damit auch die leistung (fps) aber nicht bei 110% GPU-takt.
wenn also GPU + RAM um 10% erhöht werden, dann sind theoretisch bis zu 21% leistunsgsteigerung drin! (IMHO)
Dummerweise geht das nicht so.

Wenn ein Spiel zu 100% durchs RAM limitiert ist, dann heißt dass, dass lediglich eine Erhöhung des RAM Taktes etwas bringt (ziemlich linear). Eine Erhöhung des GPU Takts bringt dann aber GAR keinen Gewinn!

Umgekehrt bei reiner GPU Limitierung.

Wenn eine Anwendung sowohl durch RAM als auch durch GPU limitiert wird, dann bringt eine Erhöhung beider Komponenten um je 10% auch linear in etwa 10% mehr Leistung, nicht jededoch 1.1 x 1.1 = 1.21 also 21%, denn es wurden beide Flaschenhälse um je 10% gesteigert, also ist bei gleichmäßiger Limitierung die Leistung um genau 10% gestiegen.

Das theoretische Maximum an Leistungsgewinn lieht also immer zwischen den Werten. D.h. wenn man 3 Komponenten hat, die eine um 5%, die zweite um 10% und die dritte um 15% beschleunigt wurde, dann ist der Gesamtgewinn irgendwo zwischen 5 und 15% (es sei denn, es gibt eine weitere Komponente, die weniger als 5% beschleunigt wurde, dann kann sie auch geringer liegen).

Ganz einfache Logik eigentlich.

reunion
2005-10-09, 17:55:08
sorry, wenn ich mal so frech bin und mich hier einmische, sehe es aber genau so, das 32% das theoretische maximum sind!

grund:
nehmt mal ein spiel das theoretisch überall limitiert wird (GPU +RAM), welches mal angenommen 100 fps hat.
wenn ihr jetzt NUR die GPU um 10% übertaktet, dann sinds also maximal 110 fps (110%).
das gleich ist natürlich auch beim RAM der fall, wenn NUR dieser um 10% übertaktet wird, dann sind wir ja auch bei 110 fps (110%).

jetzt macht aber mal das spielchen, wenn beides um 10% übertaktet wird:
als erstes die GPU um 10% höher, also 110 fps. wenn ich jetzt aber noch zusätzlich den RAM um 10% erhöhe, dann sinds ja 110 fps + 10% also 121 fps (121%). oder erklärt mir, warum man bei 100% GPU-takt den RAM um 10% erhöhen kann und damit auch die leistung (fps) aber nicht bei 110% GPU-takt.
wenn also GPU + RAM um 10% erhöht werden, dann sind theoretisch bis zu 21% leistunsgsteigerung drin! (IMHO)

Nein, wenn beides - also GPU und RAM-Takt - gleichermaßen limitieren, und ich zB nur den GPU-Takt um 10% erhöhe, dann habe ich keinen Leistungsgewinn von 10%, da die Füllrate von der Bandbreite abhängig ist, und umgekehrt. D.h., dass sich die dazugewonnene Füllrate ohne mehr Bandbreite nicht entfalten kann. Du kannst es also drehen und wenden wie du willst, der Leistungsgewinn wird nie höher ausfallen, als das, um was der limitierende Faktor schneller wird.

wurde eh schon alles gesagt zu dem thema.


War mir klar, dass da nicht mehr kommt.

Dummerweise geht das nicht so.

Wenn ein Spiel zu 100% durchs RAM limitiert ist, dann heißt dass, dass lediglich eine Erhöhung des RAM Taktes etwas bringt (ziemlich linear). Eine Erhöhung des GPU Takts bringt dann aber GAR keinen Gewinn!

Umgekehrt bei reiner GPU Limitierung.

Wenn eine Anwendung sowohl durch RAM als auch durch GPU limitiert wird, dann bringt eine Erhöhung beider Komponenten um je 10% auch linear in etwa 10% mehr Leistung, nicht jededoch 1.1 x 1.1 = 1.21 also 21%, denn es wurden beide Flaschenhälse um je 10% gesteigert, also ist bei gleichmäßiger Limitierung die Leistung um genau 10% gestiegen.


Exakt, besser hätte man es nicht ausdrücken können.

StefanV
2005-10-09, 17:57:11
Dummerweise geht das nicht so.

Wenn ein Spiel zu 100% durchs RAM limitiert ist, dann heißt dass, dass lediglich eine Erhöhung des RAM Taktes etwas bringt (ziemlich linear). Eine Erhöhung des GPU Takts bringt dann aber GAR keinen Gewinn!

Umgekehrt bei reiner GPU Limitierung.

Wenn eine Anwendung sowohl durch RAM als auch durch GPU limitiert wird, dann bringt eine Erhöhung beider Komponenten um je 10% auch linear in etwa 10% mehr Leistung, nicht jededoch 1.1 x 1.1 = 1.21 also 21%, denn es wurden beide Flaschenhälse um je 10% gesteigert, also ist bei gleichmäßiger Limitierung die Leistung um genau 10% gestiegen.
Es sei denn, irgend was anderes Hakt, was durch den höheren Takt etwas entschärft wurde...

Aber erstmal abwarten, wie andere OC Tests ausschauen, ev. entspricht das Verhalten ja durchaus der Wirklichkeit, warum das so ist, ist wieder eine andere Geschichte...

Grestorn
2005-10-09, 17:58:38
Es sei denn, irgend was anderes Hakt, was durch den höheren Takt etwas entschärft wurde...Ein höherer Takt beschleunigt die jeweilige Komponente linear. Was soll da haken?

StefanV
2005-10-09, 17:59:12
Nein, wenn beides - also GPU und RAM-Takt - gleichermaßen limitieren, und ich zB nur den GPU-Takt um 10% erhöhe, dann habe ich keinen Leistungsgewinn von 10%, da die Füllrate von der Bandbreite abhängig ist, und umgekehrt. D.h., dass sich die dazugewonnene Füllrate ohne mehr Bandbreite nicht entfalten kann. Du kannst es also drehen und wenden wie du willst, der Leistungsgewinn wird nie höher ausfallen, als das, um was der limitierende Faktor schneller wird.
Mit dem Chiptakt wird aber nicht nur die Füllrate gesteigert ;)
Es wird u.A. der Vertex Durchsatz erhöht und noch diverse andere Dinge...

Insbesondere bei der R520, wo wir noch nicht so ganz genau wissen, was ATI da nun wirklich gebastelt hat...

-=CHICKEN=-
2005-10-09, 17:59:40
Wenn eine Anwendung sowohl durch RAM als auch durch GPU limitiert wird, dann bringt eine Erhöhung beider Komponenten um je 10% auch linear in etwa 10% mehr Leistung, nicht jededoch 1.1 x 1.1 = 1.21 also 21%, denn es wurden beide Flaschenhälse um je 10% gesteigert, also ist bei gleichmäßiger Limitierung die Leistung um genau 10% gestiegen.

sorry, aber das geht mir nicht in den kopf! wenn nur eins von beiden limitiert ist ists klar, aber wenn GPU + RAM limitieren kann ichs einfach nicht verstehen :confused:

warum kann ich mit den ram nicht zusätzlich leistung rausholen, wenn die GPU mit z.b. 550 mhz taktet anstatt mit 500 mhz??? :confused: :confused:

EDIT/: oder anders rum: warum kann ich bei 500mhz GPU den RAM und somit auch die leistung um z.b. 10% steigern aber nicht bei 550mhz GPU??? :confused: :confused:

StefanV
2005-10-09, 18:00:13
Ein höherer Takt beschleunigt die jeweilige Komponente linear. Was soll da haken?
Interne Bussysteme, Speicher, whatever.

mindfaq
2005-10-09, 18:01:28
Grestorn und reunion haben es beinahe gleichzeitig sehr verständlich erklärt.
Wer es jetzt noch nicht verstanden hat, will es einfach nicht verstehen.

Coda
2005-10-09, 18:01:31
Interne Bussysteme, Speicher, whatever.Da es nur eine Taktdomäne gibt, wird es bei jedem Cycle gleich stark "haken", egal wieviele Cycles es jetzt pro Jahr, Monat oder Sekunde sind.

reunion
2005-10-09, 18:01:41
Mit dem Chiptakt wird aber nicht nur die Füllrate gesteigert ;)
Es wird u.A. der Vertex Durchsatz erhöht und noch diverse andere Dinge...

Insbesondere bei der R520, wo wir noch nicht so ganz genau wissen, was ATI da nun wirklich gebastelt hat...


Du verstehst es offensichtlich noch immer nicht.
Selbst wenn ich alle Faktoren, die für die Leistung eines Chips verantwortlich sind um 10% beschleunige, kann kein Leistungsgewinn >10% auftreten, da das, was limitiert hat, nicht mehr als 10% schneller wurde. Einfache Logik.

Grestorn
2005-10-09, 18:06:41
sorry, aber das geht mir nicht in den kopf! wenn nur eins von beiden limitiert ist ists klar, aber wenn GPU + RAM limitieren kann ichs einfach nicht verstehen :confused:

warum kann ich mit den ram nicht zusätzlich leistung rausholen, wenn die GPU mit z.b. 550 mhz taktet anstatt mit 500 mhz??? :confused: :confused:

EDIT/: oder anders rum: warum kann ich bei 500mhz GPU den RAM und somit auch die leistung um z.b. 10% steigern aber nicht bei 550mhz GPU??? :confused: :confused:wenn du 50% von der einen und 50% von der anderen Komponente limitiert bist, dann bringt das beschleunigen der einen Komponente ja nicht 100% Erfolg, weil Du dann nur noch weiter von der zweiten abhängig bist.

Nur wenn Du beide Komponenten gleichmäßig um den selben Prozentsatz beschleunigst (und die Leistung von keiner weiteren Komponente abhängt) kannst Du erwarten, dass die Gesamtleistung um genau den Betrag steigt, um den Du die einzelnen Komponenten beschleunigt hast. Also jeweils 10% Takterhöhung = 10% Erhöhung der Gesamtleistung bei genau gleichmäßiger Abhängigkeit.

Das Grundprinzip des schwächsten Gliedes, das immer die Gesamtleistung limitiert... Natürlich etwas komplizierter, weil sich das dynamisch auf alle Komponenten aufteilt und nie eine zu 100% limitiert, aber das Prinzip bleibt erhalten.

Demirug
2005-10-09, 18:11:16
So und jetzt bilden wir uns mal ein wenig weiter:

Lesen (http://developer.nvidia.com/docs/IO/10878/ChinaJoy2004_OptimizationAndTools.pdf)->Verstehen->Weiterposten

MikBach
2005-10-09, 18:35:10
So und jetzt bilden wir uns mal ein wenig weiter:

Lesen (http://developer.nvidia.com/docs/IO/10878/ChinaJoy2004_OptimizationAndTools.pdf)->Verstehen->Weiterposten

Folien von Nvidia....

Demirug
2005-10-09, 18:37:20
Folien von Nvidia....

Was soll ich machen? ATI hat keine zu dem Thema.

deekey777
2005-10-09, 18:40:03
So und jetzt bilden wir uns mal ein wenig weiter:

Lesen (http://developer.nvidia.com/docs/IO/10878/ChinaJoy2004_OptimizationAndTools.pdf)->Verstehen->Weiterposten

Folien von Nvidia....

Tolle Ausrede

Tomcat70
2005-10-09, 18:40:59
So und jetzt bilden wir uns mal ein wenig weiter:

Lesen (http://developer.nvidia.com/docs/IO/10878/ChinaJoy2004_OptimizationAndTools.pdf)->Verstehen->Weiterposten

machs lieber kurz und erleuchte uns unwissenden ;)
wie stehst du zum thema theoretisches maximum? :D

Coda
2005-10-09, 18:42:26
Folien von Nvidia....Genau diese Haltung von dir geht mir tierisch auf die Nerven.

Hast du überhaupt gelesen was drinsteht? Man geht darauf ein, wo die Pipeline-Bottlenecks sein können und wie man sie findet. Das sind bei ATi exakt die gleichen.

Und Demirug, es gibt Folien von ATi zu dem Thema: http://www.ati.com/developer/gdc/GDC2005_OpenGL_Performance.pdf Seite 8 ff.

MikBach
2005-10-09, 18:44:55
Tolle Ausrede
Was für Ausrede?

MikBach
2005-10-09, 18:47:50
Genau diese Haltung von dir geht mir tierisch auf die Nerven.

Hast du überhaupt gelesen was drinsteht? Man geht darauf ein, wo die Pipeline-Bottlenecks sein können und wie man sie findet. Das sind bei ATi exakt die gleichen.
Sorry falls es dir auf die Nerven geht....

Coda
2005-10-09, 18:49:32
Spar dir einfach solche irrelevanten Kommentare, wenn du nicht weißt von was du redest.

MikBach
2005-10-09, 18:53:00
Spar dir einfach solche irrelevanten Kommentare, wenn du nicht weißt von was du redest.
Beispiele?

Coda
2005-10-09, 18:55:31
Folien von Nvidia....Es tut absolut nichts zur Sache von wem diese sind, da dort generelle Optimierungsmethoden drinstehen und es ums Verständnis geht warum wo und wann Pipelinebottlenecks auftreten.
Du hast es nichtmal gelesen und schreist schon wieder "OMG, teh evil NVIDIA".

Soll ich mir ein Script bauen, dass jedesmal wenn jemand Developer-Folien von ATi postet, ins Forum "Folien von ATi..." reinpostet? Das wäre etwa genauso sinnlos.

Wir brauchen keine Unterstützung von Leuten die permanent nur meinen "ihren" Hersteller bei solchen Diskussion verteidigen zu müssen - darum geht es uns nämlich nicht, sondern um die Wahrheit.

Selbst Payne oder Reunion, die ATi wohl etwas lieber mögen stellen sich nicht absichtlich so kreuzdämlich an, wenn die Sache einfach klar ist.

Mr. Lolman
2005-10-09, 19:10:11
So und jetzt bilden wir uns mal ein wenig weiter:

Lesen (http://developer.nvidia.com/docs/IO/10878/ChinaJoy2004_OptimizationAndTools.pdf)->Verstehen->Weiterposten

Thx. Schon auf Seite 4 findet man diese Grafik. Ein wenig nachdenken, und es müsste klar sein, warum 10% mehr GPU Takt und 20% mehr Speichertakt auch mehr als 20% Mehrperformance bringen können:

http://img246.imageshack.us/img246/1949/pipeline1cf.gif

Demirug
2005-10-09, 19:15:08
Thx. Schon auf Seite 4 findet man diese Grafik. Ein wenig nachdenken, und es müsste klar sein, warum 10% mehr GPU Takt und 20% mehr Speichertakt auch mehr als 20% Mehrperformance bringen können:

Ich würde noch etwas weiter lesen.

Mr. Lolman
2005-10-09, 19:25:28
Ich würde noch etwas weiter lesen.

:confused:

Crushinator
2005-10-09, 20:36:10
Folien von Nvidia....
Das ist einfach Spam, damit gegen die Forumsregeln und führt zu einem Punkt.
Du bist entweder selten dämlich oder du willst absolut nichts einsehen.
Hauptsache schön pro-ATi Maul aufreisen, der Inhalt der Posts interessiert ja keinen.
Das ich nicht lache. Als ob das der erste Thread wäre in dem du dich so verhälst.
Genau diese Haltung von dir geht mir tierisch auf die Nerven.
Du bist entweder selten dämlich oder du willst absolut nichts einsehen.
Spar dir einfach solche irrelevanten Kommentare, wenn du nicht weißt von was du redest.
Selbst Payne oder Reunion, die ATi wohl etwas lieber mögen stellen sich nicht absichtlich so kreuzdämlich an, wenn die Sache einfach klar ist.
In diesem Forum ist es weder Pflicht allwissend zu sein, noch ist es Pflicht jeden Beitrag oder jede Meinung zu mögen. Es ist jedoch Pflicht auf persönliche Anfeindungen zu verzichten. Die Summe all dieser o.g. Anfeindungen ergibt 2 Punkte mit Bitte um zukünftige Besserung.

Diskussionen über Verwarnungen sind bei Bedarf in einem ggf. zu erstellenden Thread im "über die Webseite und das Forum - Forum" zu führen bzw. per PN mit dem jeweiligen Moderator, denn hier wären sie OT. Siehe dazu auch: Regeln und Richtlinien für die Moderation

MikBach
2005-10-10, 03:12:28
Das ist einfach Spam, damit gegen die Forumsregeln und führt zu einem Punkt.
Das war kein Spam, sondern eine Feststellung. :)
Falls du der Meinung bist, dass es Spam war, nehme ich den Punkt gerne mit...

tombman
2005-10-10, 05:01:01
Also egal was jetzt der theoretische Hintergrund für die einzelnen bottlenecks ist, eines ist durch die PRAXIS ganz klar bewiesen:

Man kann SEHR WOHL mehr Leistung erhalten indem man den core UND den mem Takt erhöht.

Es gibt nämlich niemals nur EIN bottleneck, also niemals nur 100% Speicher limitiert oder 100% core limitiert.

Deshalb wird es natürlich immer einen performance Schub geben wenn man den core erhöht, auch wenn das bottelneck ÜBERWIEGEND (absichtlich keine % Zahl :naughty: )
der Speicher ist.

Klar ist es immer das beste man findet zuerst mal das größte bottleneck und verbessert dort, aber deshalb zu sagen die Gesamtperformance kann nicht mehr weiter angehoben werden sobald das schwerste bottleneck überwunden wurde entspricht einfach nicht der Realität in der Praxis. Denn kein Teil einer Graka arbeitet 100% effizient und am Limit! Das ist wie ein riesiges Logistikunternehmen in Nano- und Lightspeedbereich :cool:

Ich mein, eigentlich ist die gesamte Grafikkarte das bottleneck, denn ein NULL Renderdevice ist sicher schneller als jede Graka ;) Und dann ist wieder die cpu das bottleneck, dann vielleicht der Hauptspeicher, Bildschirm... und irgendwann zum Schluß mein Hirn und noch weiter am Schluß die Lichtgeschwindigkeit ;D

MadManniMan
2005-10-10, 05:40:01
Das war kein Spam, sondern eine Feststellung. :)
Falls du der Meinung bist, dass es Spam war, nehme ich den Punkt gerne mit...

Mal wieder ein wunderbarer Beweis für meine These, daß Punkte nicht ernst genommen werden *seufz*

Grestorn
2005-10-10, 07:02:36
Thx. Schon auf Seite 4 findet man diese Grafik. Ein wenig nachdenken, und es müsste klar sein, warum 10% mehr GPU Takt und 20% mehr Speichertakt auch mehr als 20% Mehrperformance bringen können:

http://img246.imageshack.us/img246/1949/pipeline1cf.gif
Nein, mehr als 20% Plus kann in Deinem Beispiel einfach nicht sein. Überleg doch einfach mal, wie das gehen soll.

Nehmen wir mal einfach an, es wäre so. Also, bei einem gegebenen Benchmark erhöhen wir den GPU Takt um 20% und den Speichertakt um 10%. Am Ende erhalten wir ein Plus von 21% insgesamt.

Was würde denn passieren, wenn wir nur den GPU-Takt erhöhen? Nun, wenn der Benchmark komplett GPU limitiert wäre, dann könnte es schon sein, dass wir fast 20% Gewinn erreichen. Was soll in diesem Szenario aber noch eine Erhöhung des RAM-Takts bringen?

Wenn der Benchmark sowohl RAM- als auch Pipeline-limitiert ist, dann erreichst Du mit einer reinen Erhöhung des GPU Takts auch niemals 20% Gewinn. Das würde sich ja widersprechen.

Wie muss also die Limitierung aussehen, dass man obwohl keine Komponente mehr als 20% beschleunigt wird, am Ende die Gesamtperformance aber mehr als 20% steigt? Das halte ich schlicht für ausgeschlossen. Bei keinem denkbaren System ist das möglich.

Grestorn
2005-10-10, 07:05:58
Man kann SEHR WOHL mehr Leistung erhalten indem man den core UND den mem Takt erhöht.Klar kann man das. Aber keine der Takt-Erhöhungen skaliert 1:1 im Endgewinn wenn man nicht genau zu 100% von einer Komponente limitiert wird.

Wenn Du ausnahmslos alle Komponenten in einem System (CPU, RAM, Festplatte, Bus-System, GPU, GPU-RAM usw.) um genau 10% beschleunigst, wird das Gesamtsystem um genau 10% schneller werden. Ganz egal, wieviele Einzelkomponenten das System hat und wieviele Taktgeneratoren Du dabei letztlich um 10% beschleunigt hast.

Genau dieser Satz müsste eigentlich jedem einleuchten.

tombman
2005-10-10, 07:28:36
Klar kann man das. Aber keine der Takt-Erhöhungen skaliert 1:1 im Endgewinn wenn man nicht genau zu 100% von einer Komponente limitiert wird.

Wenn Du ausnahmslos alle Komponenten in einem System (CPU, RAM, Festplatte, Bus-System, GPU, GPU-RAM usw.) um genau 10% beschleunigst, wird das Gesamtsystem um genau 10% schneller werden. Ganz egal, wieviele Einzelkomponenten das System hat und wieviele Taktgeneratoren Du dabei letztlich um 10% beschleunigt hast.

Genau dieser Satz müsste eigentlich jedem einleuchten.

Also du behauptest wenn man den Speicher 10% übertaktet und den core um 10%, daß man nicht mehr als 10% mehr fps bekommen kann?

Grestorn
2005-10-10, 07:38:20
Also du behauptest wenn man den Speicher 10% übertaktet und den core um 10%, daß man nicht mehr als 10% mehr fps bekommen kann?So ist es.

Tomcat70
2005-10-10, 07:40:01
Klar kann man das. Aber keine der Takt-Erhöhungen skaliert 1:1 im Endgewinn wenn man nicht genau zu 100% von einer Komponente limitiert wird.

Wenn Du ausnahmslos alle Komponenten in einem System (CPU, RAM, Festplatte, Bus-System, GPU, GPU-RAM usw.) um genau 10% beschleunigst, wird das Gesamtsystem um genau 10% schneller werden. Ganz egal, wieviele Einzelkomponenten das System hat und wieviele Taktgeneratoren Du dabei letztlich um 10% beschleunigt hast.

Genau dieser Satz müsste eigentlich jedem einleuchten.

also deiner logik möchte ich nicht innewohnen hehehe, und noch dazu bist du dermassen überzeugt von deiner aussage auch noch ;)

deiner aussage fehlt das eigentlich wichtigste: nämlich woran du das ergebnis deiner steigerungen messen willst.....denn warum sollte es in einem komplexen system nicht möglich sein das mehrere faktoren gleichermassen ein ergebnis beeinflussen können? vor allem dann wenn eine wechselwirkung gegeben ist.
ein beispiel für dich: wenn eine operation 400 takte benötigt und 200 takte davon entfallen auf die gpu und ebenso 200 auf speicherzugriffe. warum sollte es dann bei einem asynchron/mehrfach paralell laufenden system nicht möglich sein von der zeitverkürzung beider seiten gut zu profitieren? niemand behauptet ja hier das es in der praxis die vollen 100% sind, das genau hängt eben von der aufteilung des jeweiligen falls ab, aber es geht ja hier ums prinzip.

aber das ganze rumgelaber hier bringt sowieso nix.....für mich ist das thema vorerst erledigt.

misterh
2005-10-10, 07:41:47
als ich mein 7800GT noch hatte, war es auch mehr %, wenn man beide übertaktet hat

Core 400 -> 500 = 25%
Mem 500 -> 620 = 24%
FPS 30 -> 41 = 36%

Kommt immer auf game/benchmark an.

tombman
2005-10-10, 07:47:44
als ich mein 7800GT noch hatte, war es auch mehr %, wenn man beide übertaktet hat

Core 400 -> 500 = 25%
Mem 500 -> 620 = 24%
FPS 30 -> 41 = 36%

Kommt immer auf game/benchmark an.

na bitte, wußte ja, daß es geht, einfach weil die Information nur an den "Schnittpunkten" der beiden Takte übergeben werden kann, und die werden umso mehr je höherfrequentig BEIDE Takte sind.

Tomcat70
2005-10-10, 07:48:02
Kommt immer auf game/benchmark an.

genau so sollte es auch sein.....nun is aber schluss looool

Grestorn
2005-10-10, 07:50:05
also deiner logik möchte ich nicht innewohnen hehehe, und noch dazu bist du dermassen überzeugt von deiner aussage auch noch ;)Ja mei, liegt vielleicht daran, dass ich weiß, wovon ich spreche, hm?

Die Aussage ist völlig unabhängig von Computer-Systemen. Sie gilt für jedes beliebige System, das man sich nur vorstellen kann.

deiner aussage fehlt das eigentlich wichtigste: nämlich woran du das ergebnis deiner steigerungen messen willst.....denn warum sollte es in einem komplexen system nicht möglich sein das mehrere faktoren gleichermassen ein ergebnis beeinflussen können? Ich habe nie ausgeschlossen, dass mehrere Faktoren gleichermaßen ein Ergebnis beeinflussen können. Wo hast Du denn das gelesen?

Und Leistungssteigerungen kann man - im Umfeld um dass es in dieser Diskussion geht - durchaus messen. Das nennt man "Benchmark".

ein beispiel für dich: wenn eine operation 400 takte benötigt und 200 takte davon entfallen auf die gpu und ebenso 200 auf speicherzugriffe. warum sollte es dann bei einem asynchron laufenden system nicht möglich sein von der zeitverkürzung beider seiten gut zu profitieren? niemand behauptet ja hier das es in der praxis die vollen 100% sind, das genau hängt eben von der aufteilung des jeweiligen falls ab, aber es geht ja hier ums prinzip. Natürlich kann man von einer Zeitverkürzung profitieren... aber in der Summe nie mehr als die größte "Zeitverkürzung" einer einzelnen Komponente.


Machen wir noch mal ein Denkmodell. Wir hätten einen "Zeitbeschleuniger", also eine Maschine, die in der Lage wäre, in einem abgeschlossenen Raum alle physikalischen Vorgänge schneller ablaufen zu lassen.

Wir packen einen Computer in diesen Zeitbeschleuniger und stellen ihn so ein, dass er alles um 10% schneller macht.

Das ist also identisch damit, das ausnahmslos jede einzelne Komponente in diesem Computer um 10% schneller arbeitet. Jeder Takt ist um 10% erhöht, die Zugriffsgeschwindigkeit der Festplatten, der Speicherdurchsatz... einfach alles.

Was meint ihr, um wieviel wird der Computer insgesamt schneller? Der erste, der es richtig rät, kriegt ein Gummibärchen von mir :)

aber das ganze rumgelaber hier bringt sowieso nix.....für mich ist das thema vorerst erledigt.Nur wiel Du ein Problem hast, dir das ganze korrekt vorzustellen, muss es nicht so sein, dass es nichts bringt oder dass es falsch ist. Mit diesem Problem hatten schon unzählige Menschen zu kämpfen, die eine etwas abstraktere Vorstellung einfach nicht in die Köpfe ihrer Umwelt bekommen haben...

Grestorn
2005-10-10, 07:52:08
als ich mein 7800GT noch hatte, war es auch mehr %, wenn man beide übertaktet hat

Core 400 -> 500 = 25%
Mem 500 -> 620 = 24%
FPS 30 -> 41 = 36%

Kommt immer auf game/benchmark an.Das ist schlicht unmöglich, wenn man korrekt bencht und wenn die Takte wirklich so im Chip umgesetzt werden (was beim G70 nicht der Fall ist, da die Takte intern ja auf verschiedene Takte verteilt werden, und man von außen die Taktrate gar nicht linear steuern kann... wie man an dem RivaTuner Problem gesehen hat).

Grestorn
2005-10-10, 07:53:28
na bitte, wußte ja, daß es geht, einfach weil die Information nur an den "Schnittpunkten" der beiden Takte übergeben werden kann, und die werden umso mehr je höherfrequentig BEIDE Takte sind.Nein es geht nicht. Siehe mein Modell mit dem Zeitbeschleuniger. Das widerspricht einfach den Grundprinzipien der Logik.

Tomcat70
2005-10-10, 07:54:21
Ja mei, liegt vielleicht daran, dass ich weiß, wovon ich spreche, hm?

ich denke das nicht......du liegst einfach daneben. simple mathematik ist oft hilfreicher als vergleiche mit zeitmaschinen lol.

tombman
2005-10-10, 07:54:38
also deiner logik möchte ich nicht innewohnen hehehe, und noch dazu bist du dermassen überzeugt von deiner aussage auch noch ;)
.

Die Aussage kann von ihm konnte rein logisch gar ned funktionieren.

Wenn ich ein Formel 1 Auto beim Motor um 10%, bei der Aufhängung 10%, bei den Reifen um 10%, bei der Aerodynamik um 10% und beim Fahrer um 10% (;D ) verbessere, dann wird das Auto natürlich MEHR als 10% bessere Rundenzeiten fahren ;)

Grestorn
2005-10-10, 07:55:26
ich denke das nicht......du liegst einfach daneben.Hast Du Dir das Denkmodell mit dem Zeitbeschleuniger durchgelesen? Hast Du ein Gegenargument?

Tomcat70
2005-10-10, 07:56:02
Die Aussage kann von ihm konnte rein logisch gar ned funktionieren.

Wenn ich ein Formel 1 Auto beim Motor um 10%, bei der Aufhängung 10%, bei den Reifen um 10%, bei der Aerodynamik um 10% und beim Fahrer um 10% (;D ) verbessere, dann wird das Auto natürlich MEHR als 10% bessere Rundenzeiten fahren ;)

ehe, jo aber nicht in seiner welt :D

Grestorn
2005-10-10, 07:56:34
Die Aussage kann von ihm konnte rein logisch gar ned funktionieren.

Wenn ich ein Formel 1 Auto beim Motor um 10%, bei der Aufhängung 10%, bei den Reifen um 10%, bei der Aerodynamik um 10% und beim Fahrer um 10% (;D ) verbessere, dann wird das Auto natürlich MEHR als 10% bessere Rundenzeiten fahren ;)Nein, wird es nicht. Es wird exakt 10% bessere Rundenzeiten einfahren (wenn Du alle Komponenten um genau 10% verbesserst) und keinen Deut mehr.

tombman
2005-10-10, 08:08:15
Was meint ihr, um wieviel wird der Computer insgesamt schneller? Der erste, der es richtig rät, kriegt ein Gummibärchen von mir :)
.

Sorry, aber du hast echt ned kapiert ;)

Dein Zeitbeschleunigerbeispiel ist völlig unpassend, hat mit der Proboematik genau 0 zu tun. (btw, Lösung: es würde sich gar nix ändern, denn wenn du die Zeit in selben Maße änderst wie den speed vom pc werden sich die benchmarks ned ändern)

Zurück zum Thema.

Stell dir vor der core kann nur in periodischen Abständen mit einer gewissen Frequenz Daten vom Speicher annehmen und dann weiterverarbeiten. Der Speicher selbst hat wiederrum selbst eine eigene UNABHÄNGIGE Frequenz in der er Daten dem core bereitstellen kann. Das heißt, nur wenn BEIDE Übergabefenster für die Daten OFFEN sind kann es zu einem Informationsaustausch kommen. Es werden umso mehr Übergabefenster entstehen PRO ZEITEINHEIT je höher die Frequenz BEIDER Takte ist. Jetzt muß man noch dazusagen, daß die Frequenzen bei beiden Parteien sehr hoch sind, es gibt also bereits sehr viele Übergabefenster. Wenn man jetzt jedoch Frequenz A um 10% erhöht, dann werden natürlich nicht exakt 10% mehr Fenster entstehen, aber, da die Frequenz sehr hoch ist, sagen wir mal 8% mehr Fenster. So, jetzt sind wir schon mal bei PLUS 8% mehr Fenster. Jetzt machen wir das selbe mit Frequenz B, welche vielleich sogar schlechter reagiert (da langsamer als A) und es entstehen nur vielleicht 7% mehr (bei einer Anhebung um 10%, also wie bei A). Zuerst hatten wie 8% mehr, jetzt nochmal 7% mehr --> 15% mehr, also eindeutig mehr Fenster als 10%, obwohl wir beide Frequenzen mit nicht mehr als 10% angehoben haben :cool:

Ist das selbe Phänomen wie bei fps und hz Zahl des Monitors und vsync ;)

misterh
2005-10-10, 08:08:36
Das ist schlicht unmöglich, wenn man korrekt bencht und wenn die Takte wirklich so im Chip umgesetzt werden (was beim G70 nicht der Fall ist, da die Takte intern ja auf verschiedene Takte verteilt werden, und man von außen die Taktrate gar nicht linear steuern kann... wie man an dem RivaTuner Problem gesehen hat).

Denkst doch was du für richtig hält

ich hab mein richtig getestet und zwar mit ein benchmark funktion.

Ausserdem war diese mit AA/AF eingeschaltet. Bei Far Cry Timedemo.

Tomcat70
2005-10-10, 08:10:56
Nein, wird es nicht. Es wird exakt 10% bessere Rundenzeiten einfahren (wenn Du alle Komponenten um genau 10% verbesserst) und keinen Deut mehr.

sorry, aber einfach nur looool.
das ist dir auch noch ernst? war ein scherz von tombman btw ;)

Grestorn
2005-10-10, 08:14:20
sorry, aber einfach nur looool.
das ist dir auch noch ernst? war ein scherz von tombman btw ;)Ja, es ist mir ernst.

Sorry, es tut mir leid, aber ich kann auch nichts machen, wenn ihr das nicht versteht. Es ist ein einfaches Grundprinzip der Logik.

Wenn ihr meine Modelle nicht akzeptiert, nicht mal bereit seit, darüber nachzudenken, dann kann ich leider auch nicht weiterhelfen...

tombman
2005-10-10, 08:16:35
Nein, wird es nicht. Es wird exakt 10% bessere Rundenzeiten einfahren (wenn Du alle Komponenten um genau 10% verbesserst) und keinen Deut mehr.
ROFL, das kannst ned ernst meinen, Gresti ;)

Wenn ich den Motor um 10% verbessere, dann muß es eine %-Zahl GRÖSSER 0 geben, um die die Rundenzeit BESSER wird. Sagen wir mal 5%. Wenn ich die AD um 10% verbessere, dann wird es ebenso eine %-Zahl >0 geben um die die Rundenzeit ERNEUT besser wird. Sagen wir 6% ERNEUT besser. Tjo, dann sind wir aber schon bei ÜBER 10% bessere Gesamtzeit,denn wir haben dann RZ*1.05*1.06= RZ*1.113, also 11.13% besser, und das obwohl wir die Einzelkomponenten nicht mehr als 10% verbessert haben. WZBW

Grestorn
2005-10-10, 08:23:36
Sorry, aber du hast echt ned kapiert ;)Wenn Du meinst...


Dein Zeitbeschleunigerbeispiel ist völlig unpassend, hat mit der Proboematik genau 0 zu tun.Das Beispiel ist ein MODELL. Es soll verdeutlichen, was passiert, wenn man alle Komponenten um exakt 10% beschleunigt, mehr nicht.

(btw, Lösung: es würde sich gar nix ändern, denn wenn du die Zeit in selben Maße änderst wie den speed vom pc werden sich die benchmarks ned ändern)Natürlich schaust Du von außen, also von außerhalb des Zeitbeschleunigers, auf das System. Würdest Du das nicht tun, ändert sich in der Tat gar nichts.

Aber wenn man von außen auf das System schaut wird man - oh wunder - feststellen, dass darin alles genau 10% schneller abläuft. AUCH DIE BENCHMAKRS! Also hat das System insgesamt 10% mehr Leistung.

Ein Grundprinzip geschlossener Systeme! (Endlich, da ist das entscheidende Wort)

Stell dir vor der core kann nur in periodischen Abständen mit einer gewissen Frequenz Daten vom Speicher annehmen und dann weiterverarbeiten. Der Speicher selbst hat wiederrum selbst eine eigene UNABHÄNGIGE Frequenz in der er Daten dem core bereitstellen kann. Das heißt, nur wenn BEIDE Übergabefenster für die Daten OFFEN sind kann es zu einem Informationsaustausch kommen. Es werden umso mehr Übergabefenster entstehen PRO ZEITEINHEIT je höher die Frequenz BEIDER Takte ist. Jetzt muß man noch dazusagen, daß die Frequenzen bei beiden Parteien sehr hoch sind, es gibt also bereits sehr viele Übergabefenster. Wenn man jetzt jedoch Frequenz A um 10% erhöht, dann werden natürlich nicht exakt 10% mehr Fenster entstehen, aber, da die Frequenz sehr hoch ist, sagen wir mal 8% mehr Fenster. So, jetzt sind wir schon mal bei PLUS 8% mehr Fenster. Jetzt machen wir das selbe mit Frequenz B, welche vielleich sogar schlechter reagiert (da langsamer als A) und es entstehen nur vielleicht 7% mehr (bei einer Anhebung um 10%, also wie bei A). Zuerst hatten wie 8% mehr, jetzt nochmal 7% mehr --> 15% mehr, also eindeutig mehr Fenster als 10%, obwohl wir beide Frequenzen mit nicht mehr als 10% angehoben haben :cool:Stark vereinfaches Rechenmodell:

Ein System hängt zu 40% an der einen Kenngröße (z.B. GPU Takt) und zu 60% an einer anderen (z.B. GPU-RAM). Alle anderen Sachen lassen wir mal außer acht.

(Außerdem lassen wir mal außer acht, dass eine Erhöhung des Takts einer Komponente das Verhältnis natürlich ändert, was die Rechnung etwas unexakt macht).

Wir beschleunigen den GPU Takt um 10%. Diese 10% Erhöhung wirken sich also zu 40% auf das System aus. Das System wird also um 4% schneller werden.

Beschleunigt man das RAM um 10% wirkt sich das zu 60% aus, das System wird also um 6% schneller.

Erhöht man nun beides gleichzeitig um 10%... wird das Gesamtsystem um 10% beschleunigt. Einfach und übersichtlich.

VSync hat absolut gar nichts damit zu tun. Aber auch da gilt: Wenn Du alle limitierenden Faktoren um exakt 10% erhöhst - also auch die Frequenz des Monitors - wirst Du am Ende genau eine 10% höhere Framerate haben, und zwar ganz egal ob VSync an ist oder nicht.

Grestorn
2005-10-10, 08:31:49
ROFL, das kannst ned ernst meinen, Gresti ;)Doch, das meine ich voll und ganz ernst.

Wenn ich den Motor um 10% verbessere, dann muß es eine %-Zahl GRÖSSER 0 geben, um die die Rundenzeit BESSER wird. Sagen wir mal 5%.Ok. Wenn der Motor bei 10% Verbesserung 5% mehr Leistung des Gesamtsystems bringt, dann ist der Motor mit 50% an der Gesamtleistung beteiligt, oder?

Wenn ich die AD um 10% verbessere, dann wird es ebenso eine %-Zahl >0 geben um die die Rundenzeit ERNEUT besser wird. Sagen wir 6% ERNEUT besser.Ok. Wenn die Aero-Dynamik bei 10% Verbesserung 6% mehr Leistung des Gesamtsystems bringt, dann ist die Gesamtleistung zu 60% von der AD abhängig, oder?

Tjo, dann sind wir aber schon bei ÜBER 10% bessere Gesamtzeit,denn wir haben dann RZ*1.05*1.06= RZ*1.113, also 11.13% besser, und das obwohl wir die Einzelkomponenten nicht mehr als 10% verbessert haben. WZBWDir fällt auf, wo Dein Denkfehler steckt? 50% + 60% = 110%

Die Einzelkomponenten tragen immer einen Anteil zur Gesamtleistung bei, und die Summe kann per Definition niemals mehr als 100% betragen. Auch wenn die Verteilung bei den meisten Systemen hochdynamisch ist (d.h. sich ständig ändert), so bleibt diese Regel immer erhalten (denn sie ist die Definition des Begriffs "Gesamtleistung eines geschlossenen Systems").

Tomcat70
2005-10-10, 08:53:07
Die Einzelkomponenten tragen immer einen Anteil zur Gesamtleistung bei, und die Summe kann per Definition niemals mehr als 100% betragen. Auch wenn die Verteilung bei den meisten Systemen hochdynamisch ist (d.h. sich ständig ändert), so bleibt diese Regel immer erhalten (denn sie ist die Definition des Begriffs "Gesamtleistung eines geschlossenen Systems").

für ein statisches system geb ich dir da gerne recht. was ist aber wenn es dynamisch mit wechselwirkungen/-beeinflussungen ist?

Grestorn
2005-10-10, 08:59:24
für ein statisches system geb ich dir da gerne recht. was ist aber wenn es dynamisch mit wechselwirkungen/-beeinflussungen ist?Dann ändern sich nur die Verhältnisse dynamisch. Aber das Gesamtgesetz bleibt das gleiche.

Wie gesagt, denkt Euch das System als Blackbox. Egal was ihr in dieser Blackbox macht, wenn irgendetwas darin um 10% beschleunigt, wird der Gewinn maximal 10% sein. Und es ist egal, welchen Anteil dieses etwas hat, es wird nie mehr als 10% sein. Auch wenn 2 Komponenten um 10% beschleunigt werden, der Gewinn kann 10% trotzdem nicht übersteigen.

Je mehr Komponenten innerhalb der Blackbox um 10% beschleunigt werden, desto mehr nähert sich der Gesamtgewinn an die 10% insgesamt an. Bis er erreicht ist, wenn alle Komponenten um exakt 10% beschleunigt wurden.

Tomcat70
2005-10-10, 09:07:40
Dann ändern sich nur die Verhältnisse dynamisch. Aber das Gesamtgesetz bleibt das gleiche.

Wie gesagt, denkt Euch das System als Blackbox. Egal was ihr in dieser Blackbox macht, wenn irgendetwas darin um 10% beschleunigt, wird der Gewinn maximal 10% sein. Und es ist egal, welchen Anteil dieses etwas hat, es wird nie mehr als 10% sein. Auch wenn 2 Komponenten um 10% beschleunigt werden, der Gewinn kann 10% trotzdem nicht übersteigen.

Je mehr Komponenten innerhalb der Blackbox um 10% beschleunigt werden, desto mehr nähert sich der Gesamtgewinn an die 10% insgesamt an. Bis er erreicht ist, wenn alle Komponenten um exakt 10% beschleunigt wurden.

du gehst davon aus das die beschleunigung einer jeden komponente sich linear verhält und keine andere komponenten ausser dem endergebnis beeinflusst.

Grestorn
2005-10-10, 09:21:42
du gehst davon aus das die beschleunigung einer jeden komponente sich linear verhält und keine andere komponenten ausser dem endergebnis beeinflusst.Nein, davon gehe ich nicht aus.

Wenn man es mathematisch exakt machen wollte, dann müsste man die Leistungssteigerung in unendlich kleine Schritte zerteilen, für jeden dieser Schritte die genaue Verteilung der Anteile an der Gesamtleistung bestimmen und dann diese einfache Formel anwenden.

Da dies in der Praxis nicht möglich ist, ist eine genaue Vorhersage, wieviel Leistungssteigerung tatsächlich am Ende rauskommt, praktisch nicht möglich.

Das ändert aber gar nichts an dem Gesetz, dass man zu keinem Zeitpunkt in dieser angenommenen Rechnung mehr rausbekommen hat als 100%. Das bedeutet, wenn man genau die Leistungssteigerung erhalten würde, die vom Betrag her identisch mit der maximalen Beschleunigung einer Komponente ist, dann hat man den theoretisch möglichen Grenzwert erreicht, der nie überschritten und in der Praxis auch nie erreicht werden kann.

Es bleibt als Gesetz: Wenn Du x Komponenten hast, und jede Komponente um einen unterschiedlichen Grad beschleunigst, so kann das Gesamtsystem nicht stärker beschleunigt sein, als die Betragsmäßig größte Beschleunigung einer Einzelkomponente.

Also z.B. GPU +10%, GPU-RAM +5%, CPU +20%, RAM +10%, Bus: +30%

Das Gesamtsystem kann bei diesen Werten nie mehr als 30% schneller werden, wahrscheinlich ist es aber sehr viel weniger. Und dieses Gesetz gilt, egal wie man die Zahlen verteilt.