PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Was hat es mit der Revision A3 beim G80 auf sich?


Super Grobi
2007-08-31, 23:09:08
Hallo Leute,
mir ist aufgefallen, das oft in Verkaufsthreads nach der Revision gefragt wird und allgemein die A3 bevorzugt wird. Warum ist das so? ich hab Google bemüht, aber wie man sich vorstellen kann, findet man mit "Revision A3" unglaublich viel, aber nichts was zum Threma passt :crazy:

Gruß und dank
SG

Gast
2007-08-31, 23:11:59
Das ist halt die neueste Version des G80 Kerns, das ist alles. Viele meinen der taktet höher als die älteren. Daher wollen den alle haben. Mehr isses ned.

AnarchX
2007-08-31, 23:17:00
Es ist die Revision, die mit der Ultra kam und somit wohl doch in gewissen Bereichen Vorteile haben sollte, wenn auch nur geringe.
Auf der 8800GTS wird sie zum Teil auch verbaut.

Super Grobi
2007-08-31, 23:21:15
Es ist die Revision, die mit der Ultra kam und somit wohl doch in gewissen Bereichen Vorteile haben sollte, wenn auch nur geringe.
Auf der 8800GTS wird sie zum Teil auch verbaut.

Mit "Vorteile" meinst du auch nur den Takt, oder gibts noch mehr Vorteile? Ich selbst habe auch eine 88gts mit A3 Chip, daher auch das Interesse.

SG

Gast
2007-08-31, 23:25:03
Der verbraucht 50% weniger Leisung :D






Natürlich nicht. Für den Anwender ergeben sich keinerlei sonstigen Vorteile.

Arschhulio
2007-09-01, 10:38:01
Mit "Vorteile" meinst du auch nur den Takt, oder gibts noch mehr Vorteile? Ich selbst habe auch eine 88gts mit A3 Chip, daher auch das Interesse.

SG


Habe auch gehört das der A3 der "gleiche" Chip sein soll der auf der Ultra zum Einsatz kommt, habe auch einen und komme ohne Probleme über 600Mhz GPU Takt, das reicht für mich um zu sagen: A3 rockt ;D

TobiWahnKenobi
2007-09-01, 10:45:34
und das ging bei euch mit A2 nicht??? wenn ich A3 auf der GTX hätte, würde ich erst behaupten, dass A3 rockt, wenn damit mehr als 650(648)MHz stabil möglich wären.


(..)

mfg
tobi

The_Invisible
2007-09-01, 10:46:04
ja, A3 ist der "ultra" chip, wird dann anscheinend auch bei den kleineren karten verbaut.

mfg

Gast
2007-09-01, 11:34:25
Ja natürlich oder meint ihr die produzieren A2 und A3 parallel? Viel zu hoher Aufwand, die Produktion ist komplett auf A3 umgestellt, A2 findet man nur noch auf "Ladenhütern".

Die gelbe Eule
2007-09-01, 12:09:01
Mit meiner A2 GTS hatte ich auch 630MHz anliegen und dort waren bereits OC Versionen mit 580MHz zu kaufen. Sollte jemand nach einer Rev A3 fragen, so müsste die Karte ja auch ziemlich neu sein. Muss aber nicht heißen, daß man beschnittene Ultras bekommt, weil soviele gibt es garantiert nicht, daß man sie nun zum Fenster rauswerfen muss.

Gast
2007-09-01, 12:16:21
Meine Xpertvision 8800 Ultra hat A2 Stepping,,, laut Everest. Die Taktung entspricht dem Referenz Takt und lässt sich wenn man will, auch bis 655/1650/1250 problemlos hochtakten. Also ist bei den Ultras nicht unbedingt immer das A3 Stepping verbaut,

Gast
2007-09-01, 12:32:07
Meine Xpertvision 8800 Ultra hat A2 Stepping,,, laut Everest. Die Taktung entspricht dem Referenz Takt und lässt sich wenn man will, auch bis 655/1650/1250 problemlos hochtakten. Also ist bei den Ultras nicht unbedingt immer das A3 Stepping verbaut,


Ok, laut dem neusten Rivatuner hat die Karte A3 Stepping. Muss wohl das ATI Tool falsch auslesen.

Deathcrush
2007-09-01, 13:00:03
Schade das man nicht mehr wie früher die Pipes freischalten kann. Das war noch ein Spass mit der 6800nu :) Aber so dumm wird NV auch nicht mehr sein, einfach nur die Pipes zu deaktivieren.


P.S Hab auch ein A3 Stepping

Gast
2007-09-01, 15:21:21
Habe auch gehört das der A3 der "gleiche" Chip sein soll der auf der Ultra zum Einsatz kommt, habe auch einen und komme ohne Probleme über 600Mhz GPU Takt, das reicht für mich um zu sagen: A3 rockt ;D

also meine A2 GTS läuft seit dem ersten tag mit 650/1500MHz.

Schrotti
2007-09-01, 15:30:32
Ich war schon bei 700MHz GPU Takt (habe eine GTS mit A3).

also meine A2 GTS läuft seit dem ersten tag mit 650/1500MHz.

1500MHz Ramtakt? ;)

Deathcrush
2007-09-01, 16:01:39
Wakü oder Werkskühler?

Schrotti
2007-09-01, 17:59:51
Werkskühler.

Super Grobi
2007-09-01, 18:03:16
Ich war schon bei 700MHz GPU Takt (habe eine GTS mit A3).



1500MHz Ramtakt? ;)

Natürlich nicht, das wird wohl Shadertakt meinen.

SG

Chrisch
2007-09-01, 18:05:50
Rev. A3 is schon besser...

meine 8800er (A3) läuft ohne VMod mit 702/1000 100% stable, mit VMod (vGPU
um 0.03v angehoben) is sogar 730/1000 100% stable (756/1050 kann ich noch
problemlos benchen). :)

Meine vorherige A2 Karte hat bei 730Mhz GPU Takt dicht gemacht (mit VMod und
sehr hoher Spannung, war auch nur zum benchen zu gebrauchen da nicht stable!
Ohne VMod max. 702Mhz GPU Takt zum benchen, nicht stable!).

Super Grobi
2007-09-01, 18:07:56
Das ist aber kein großer Unterschied! Das kann streuung sein. Beide Werte sind sehr sehr gut.

SG

Chrisch
2007-09-01, 18:51:33
Das ist aber kein großer Unterschied! Das kann streuung sein. Beide Werte sind sehr sehr gut.

SG
Naja, kann man sehen wie man will..

mit der Spannung die die A2 Karte brauchte um 702Mhz stable zu fahren kann ich die
A3 mit 756Mhz stable fahren ;)

Ich finde das is nen gewaltiger unterschied :)

Gast
2007-09-01, 19:09:42
Naja, kann man sehen wie man will..

mit der Spannung die die A2 Karte brauchte um 702Mhz stable zu fahren kann ich die
A3 mit 756Mhz stable fahren ;)

Ich finde das is nen gewaltiger unterschied :)

Und ich finde du solltest dich mal mit Statistik und Serienstreuung beschäftigen.

Chrisch
2007-09-01, 19:11:57
Und ich finde du solltest dich mal mit Statistik und Serienstreuung beschäftigen.
fakt is das die A3 sich besser takten lassen, kannst dich gern in anderen foren umschauen
wo die A2 immer so gelandet sind und wo die A3 so landen...

Das hat nix mehr mit "Serienstreuung" zu tun, es ist einfach eine bessere GPU.

(+44)
2007-09-01, 19:35:34
Das hat nix mehr mit "Serienstreuung" zu tun, es ist einfach eine bessere GPU.

Stepping, kein neuer Chip.

Chrisch
2007-09-01, 19:46:20
in dem sinne eine besserer Revision, war einfach falsch ausgedrückt...

Deathcrush
2007-09-01, 19:49:05
Lasst ihr die Lüftersteuerung auf AUTO oder legt ihr einen Wert fest?

Gast
2007-09-01, 21:55:37
[QUOTE=Schrotti;5805412


1500MHz Ramtakt? ;)[/QUOTE]

nö, shaderclock natürlich, RAM-takt wäre doch etwas viel ;)

genau gesagt 648MHz Core und 1512 Shader-clock.

Super Grobi
2007-09-01, 21:57:14
Lasst ihr die Lüftersteuerung auf AUTO oder legt ihr einen Wert fest?

Wozu? Der Lüfter wird ab 80°C selber aktiv ;). Die Temp geht dann nicht über 85°C.

SG

The_Invisible
2007-09-01, 22:16:54
A3 wird sicher nicht "schlechter" als A2 sein, wär ja irgendwie komisch.

mfg

Super Grobi
2007-09-01, 22:28:50
A3 wird sicher nicht "schlechter" als A2 sein, wär ja irgendwie komisch.

mfg

Na du bist lustig :uup: Da wäre ich auch alleine drauf gekommen ;)

Aber wenn alle so geil auf A3 sind, muss ja was dran sein, oder es ist einfach nur ein "selbstläufer". Irgentwer behauptet, das A3 so besonders ist und alle posten das kreuz und quer und alle glauben das. Sowas hab ich ja schon öfter gelesen/bemerkt. Stichwort: BurnIn

SG

Gast
2007-09-01, 22:39:52
Jo. Sowas nennt man auch Hype :D

Sascha1971
2007-09-01, 22:40:47
Eine normale GTX gibt es leider nicht als A3.
Man bekommt A3 nur als GTS oder eben G80 Ultra.

ZipKaffee
2007-09-01, 23:46:33
Und warum gibt es keine A3 GTX? ;D

Super Grobi
2007-09-01, 23:50:27
Und warum gibt es keine A3 GTX? ;D

Weil aktuell die Lager noch mit A2 GTXsen voll sind und man daher keine neuen braucht? Die nachfrage aber nach GTS 320MB und 640MB immer noch sehr groß ist und man "nachproduzieren" muss?

SG

Coda
2007-09-01, 23:53:02
Alle G80-Chips die jetzt noch vom Band laufen (falls sie überhaupt noch produziert werden) sind auf jeden Fall A3.

AcmE
2007-09-02, 01:38:01
hab ne "A2,96SP" laut RivaTuner und die geht auch gut...

Deathcrush
2007-09-02, 08:01:01
Ich denke auch das das vollkommen egal ist ob A2 und A3. Es hat nur einen Vorteil, man kann das Ding teurer verkaufen da alle auf das A3 Stepping aus sind :D :D :D

Sascha1971
2007-09-02, 09:03:24
Alle G80-Chips die jetzt noch vom Band laufen (falls sie überhaupt noch produziert werden) sind auf jeden Fall A3.

Die großen Onlinehändler + Snogard haben immer noch die A2 als 8800GTX.
Und bei der Nachfrage bei Zotag wurde auch gesagt, das es die GTX nur als A2 gibt. Auch die neuen noch.

Gast
2007-09-02, 10:46:27
A3 ist das "Ultra" Stepping. Und auch von den Chips gibts es natürlich Ausschuss bei der Produktion, der entweder den Ultra-Takt ned packt oder bei denen SP defekt sind. Die werden dann, wenn nicht zuviel kaputt ist, auf GTS Karten gelötet.

TobiWahnKenobi
2007-09-02, 10:56:18
A3 ist einfach das aktuelle stepping, fertig. klar, dass die derweil auf ultras und GTS landen. GTXen scheinen noch genug auf halde zu liegen.

ne A2-GTX würde ich nicht gegen eine A3-GTS tauschen wollen ;)


(..)

mfg
tobi

Gast
2007-09-02, 11:12:22
Jo klar, GTX wurden so viele produziert dass es immer noch "ganze Halden" davon gibt, klar, ne. Sehr überzeugend :rolleyes:

Chrisch
2007-09-02, 11:27:49
Ich denke auch das das vollkommen egal ist ob A2 und A3. Es hat nur einen Vorteil, man kann das Ding teurer verkaufen da alle auf das A3 Stepping aus sind :D :D :D
da kannste nix teurer verkaufen, da kann sich jeder einfach ne Zotac GTS bestellen,
da sind 100% A3 drunter..

Und die die meinen das es da keinen Unterschied gibt sollen halt in den Glauben
bleiben, andere wissen es besser ;)

Super Grobi
2007-09-02, 11:40:18
Jo klar, GTX wurden so viele produziert dass es immer noch "ganze Halden" davon gibt, klar, ne. Sehr überzeugend :rolleyes:

Natürlich, oder willst du mir jetzt erzählen, das NV A2 und A3 parallel produziert? Wozu?

SG

Master3
2007-09-02, 11:54:16
Ich kann jetzt nicht unbedingt sagen das A2 schlecht geht. Meine läuft auch mit 650Mhz Chiptakt(mehr nicht getestet).Nur der VRAM will nicht über 950Mhz, aber dafür ist sie schwarz:biggrin:.

Laxer
2007-09-02, 12:21:24
Passt zwar nicht 100%ig in diesen Thread, aber da hier oft die Rede von der GTS von Zotac ist:
Weiss Jemand zufällig welcher Speicher auf der Zotac verbaut wird? Samsung, Hynix, etc.? 1,1 ns oder 1,2 ns? Frage u.a. zwecks OC innerhalb der Spezifikation :)

Chrisch
2007-09-02, 12:38:01
;)

http://img355.imageshack.us/img355/1823/zotaczf1.jpg

laufen aber recht unterschiedlich, beim einen problemlos 1100Mhz, beim anderen
nur 950Mhz usw. Liegt evtl daran das die Spannungen von Graka zu Graka ein wenig
schwanken.

Gruß
Chris

Deathcrush
2007-09-02, 12:38:39
da kannste nix teurer verkaufen, da kann sich jeder einfach ne Zotac GTS bestellen,
da sind 100% A3 drunter..

Und die die meinen das es da keinen Unterschied gibt sollen halt in den Glauben
bleiben, andere wissen es besser ;)


Du brauchst bei Ebay nur "seltenes A3 Stepping" dazu schreiben und die deppen stürzen sich wie die Geier darauf :D


Und ja ich glaube daran das das A3 Stepping keinerlei vorteile bietet. Übertakten ist immer reine Glückssache. Hab schon von genug A3én gelesen, die nicht mal 620MHZ GPU schaffen. Brauchst nur mal in div Foren zu schaun wie weit die Leute ihre Karten takten konnten.

Chrisch
2007-09-02, 12:40:45
Und ja ich glaube daran das das A3 Stepping keinerlei vorteile bietet. Übertakten ist immer reine Glückssache. Hab schon von genug A3én gehört die nicht mal 620MHZ GPU schaffen. Brauchst nur mal in div Foren zu schaun wie weit die Leute ihre Karten takten konnten.
ehrlich? dann muss es dazu ja screens bzw posts geben..

verlinke die doch bitte mal, würde mich gern selbst davon überzeugen ;)

Laxer
2007-09-02, 12:44:43
@ Chri$ch: Super! Vielen Dank!! :smile: Packen die Hersteller eigentlich unterschiedliche Timings der Speicher ins Bios?

Gast
2007-09-02, 14:16:26
Natürlich, oder willst du mir jetzt erzählen, das NV A2 und A3 parallel produziert? Wozu?

SG

Keine Ahnung was NV da macht aber die Erklärung, alle GTX bis heute wären alte Lagerware, ist mE totaler Quatsch. Es muss einen anderen Grund geben warum auf den GTX bisher nur A2 gesichtet wurden.

Gast
2007-09-02, 14:33:51
Keine Ahnung was NV da macht aber die Erklärung, alle GTX bis heute wären alte Lagerware, ist mE totaler Quatsch. Es muss einen anderen Grund geben warum auf den GTX bisher nur A2 gesichtet wurden.


die karten sind natürlich nicht lagerware, aber es gab/gibt eben noch genug funktionierende G80-chips auf lager die darauf warten auf eine karte gebaut zu werden.

Gast
2007-09-02, 15:10:58
So lange nach der angeblichen Produktionsumstellung? Glaube ich auch nicht.

TobiWahnKenobi
2007-09-02, 15:46:04
naja, seinen glauben kann man ja "gott"lob frei wählen ;)


(..)

mfg
tobi

Angiesan
2007-09-03, 17:55:27
Ich denke man verwendet das A2 Stepping bei der GTX um die Ultra zu
rechtfertigen.

Aber fast jede GTX schafft ja eh die Ultrataktraten und da soll bei den Ultras
natürlich noch ein wenig Luft nach oben bleiben:D

Aber ich merk das eh nicht beim Spielen, habe am Anfang auch mal geschaut
was bei meiner GTX so geht und 630/1030 sind gar kein Problem.
Vom 3D Mark mal abgesehen merke ich da beim Spielen einfach keinen
Unterschied und ob das nun bei 40FPS oder eben 42 FPS läuft ist so was
von egal.

Also läuft mein schwarzes Baby mit standard Taktung und bin zufrieden.

Für Leute die aber immer den längsten Balken vorweisen müssen, ist das A3
Stepping sicher das bessere und wenn man nur sagen kann, meine läuft auch
noch mit 7XX und 11XX RS. mich würde schon mal interessieren was so eine
Übertaktung bei Spielen denn bringt, lohnt das wirklich?
Ich habe früher (X800XTX) auch getaktet was das Zeug hielt, da war es aber
etwas enger wenn man gerne mit AA und AF sowie mit 1280/1024 spielen
wollte aber selbst da ist es mir nicht gelungen ein Spiel ruckelfrei zum laufen zu bringen
was unter standard Taktung geruckelt hat.
Heute habe ich bis jetzt noch kein Spiel gesehen was nicht auch noch in 1680X1050
mit 4xAA und 16xAF ruckelt. ....... OK, Bioshock könnte so ein Spiel sein.
Da habe ich eine Stelle entdeckt wo ich nur 34 FPS habe ohne AA mit 16xAF und alles
auf high in DX 10

Es ist mir bewusst, dass dies hier der falsche Thread ist aber ich stelle das
Savegame gerne mal zur Verfügung um mal zu sehen was es denn nun wirklich
bringt eine Graka so zu übertakten.

Das soll bitte auch nicht als Provokation betrachtet werden, ich finde es schon
interessant zu sehen was es denn wirklich bringt, denn mein Eindruck ist der,
dass die 8800 nicht so sehr mit steigendem Takt skaliert wie dies die Vorgängergeneration
getan haben.
Ich kann mich natürlich irren, aber das ist ja nun mal menschlich.

Also Chri$ch oder wer auch immer wer hat Lust und Zeit und natürlich
Bioshock?



Grüße

derwalde
2007-09-03, 18:19:14
ich würds ja machen hab aber leider kein bioshock zu verfügung. :frown:

Angiesan
2007-09-03, 18:33:17
ich würds ja machen hab aber leider kein bioshock zu verfügung. :frown:

Schade, das Sys was Du hast ist ja mal nicht schlecht und da wäre ein
Vergleich sehr gut möglich gewesen, obwohl mein C2D nicht so hoch getaktet ist
wie deiner:)

Aber das sollte bei Bioshock nicht kriegsentscheidend sein, denn ob nun 2,8 oder 3,2GHz hat bei mir keinen Unterschied gemacht.
insoweit scheint die Stelle auch Graka limitiert zu sein.

Grüße

Angiesan
2007-09-03, 19:46:11
Kann mir jemand eine Adresse nennen wo ich das Save hochladen könnte?
Das hat 8,76MB und selbst als 7z sind das immer noch über 6MB:mad:

Super Grobi
2007-09-03, 19:53:44
Bitte kommt zum Topic zurück. Wenn ihr Benchmarks von Bioshock vergleichen oder vorzeigen wollte, geht doch bitte in den entsprechenden Thread. (es sei den, das Bioshock @A3 bei gleichen Takt besser performt, als mit A2 :)))

Hier geht es um das "dubiose" A3 beim G80

Nicht bös gemeint ;)
SG

Gast
2007-09-03, 19:59:29
Das Thema ist doch sowieso durch.

Super Grobi
2007-09-03, 23:11:49
Das Thema ist doch sowieso durch.

Sagt GAST!

Selbst wenn?! Es ist eine neue Diskusion, die schon besteht und dann in den passenden Thread weiter geführt werden sollte.

SRY, aber der Versuch war jetzt zu primitiv. :biggrin:

SG

Angiesan
2007-09-03, 23:58:13
Bitte kommt zum Topic zurück. Wenn ihr Benchmarks von Bioshock vergleichen oder vorzeigen wollte, geht doch bitte in den entsprechenden Thread. (es sei den, das Bioshock @A3 bei gleichen Takt besser performt, als mit A2 :)))

Hier geht es um das "dubiose" A3 beim G80

Nicht bös gemeint ;)
SG

Aber um was geht es Dir dann, wenn nicht um die Steigerung der Taktrate?
Oder was erwartest Du von einer neuen Revision einer GPU?

Eben nicht das sie bei gleichem Takt mehr Leistung bringt oder ?

In sofern finde ich die Frage schon berechtigt was es dann bringt, wenn man so
hoch takten kann.

Weil nur um zu sagen meiner ist besser, weiter, langer oder was auch immer
ist hoffentlich nicht dein Beweggrund diese Frage zu stellen.

Es ist doch schon interessant was so eine Möglichkeit der Übertaktung in realen
Anwendungen für einen Vorteil in der Geschwindigkeit mit sich bringt sonst ist die Frage wie der Gast schon schrieb eh durch.

Denn: Die Revision A3 des G80 ist einfach die aktuelle.
Der Vorteil scheint der zu sein, dass sich mehrheitlich höhere Taktraten
erzielen lassen wie mit den vorausgegangenen Revisionen.
Dies scheint wie bei fast allen Chips begründet zu liegen in der mit der Zeit verfeinerten
und optimierten Herstellungsprozessen.

Was vergessen?

Also was bleibt da noch für eine Frage offen?

Was bringt dies in den Spielen denn nur dafür sind diese Karten gebaut:D
und werden wohl auch mehrheitlich dafür genutzt.

Gast
2007-09-03, 23:59:14
Was an A3 ist dir denn noch unklar?

Super Grobi
2007-09-04, 00:46:30
Was an A3 ist dir denn noch unklar?

1. Warum A3 auf der GTX nicht zu finden ist.
2. Ob A3 wirklich mehr MHZ bringt (ich hab eine xy ist leider nur eine Einzelkarte).
3. Via Google fand ich gar Leute, die behauten, das A3 weniger Saft, als A2 benötigt/verbraucht.

Ich hab nichts gegen Benchmarks, nur frag ich mich, was diese beim Thema A2 vs. A3 bringen sollen? Soll dann die gut gehende A2 Karter überzeugen, das A3 nur schmarn ist (weil diese in dem Fall sehr schlecht geht)?

SG

Angiesan
2007-09-04, 06:56:41
1. Warum A3 auf der GTX nicht zu finden ist.
2. Ob A3 wirklich mehr MHZ bringt (ich hab eine xy ist leider nur eine Einzelkarte).
3. Via Google fand ich gar Leute, die behauten, das A3 weniger Saft, als A2 benötigt/verbraucht.

Ich hab nichts gegen Benchmarks, nur frag ich mich, was diese beim Thema A2 vs. A3 bringen sollen? Soll dann die gut gehende A2 Karter überzeugen, das A3 nur schmarn ist (weil diese in dem Fall sehr schlecht geht)?

SG

Hi SG,

zu 3.) Nein natürlich nicht. Ich möchte hier nicht A2 gegen A3 benchen, sondern übertaktet gegen unübertaktet unabhänig von der Revision.
Wie auch hier schon beschrieben, es ist immer auch Glück dabei
ob eine Karte nun gut oder weniger gut zu übertakten ist.Und Du wirst
immer Leute finden die werden sagen mein A2 geht genau so gut wie A3 usw.
Auch möchte ich deinen Thread nicht kaputt machen und das Interesse
an Benches ist eh nicht da.So werden wir mal wieder mit den sagenhaften
Punkten von 3DM 06 Vorlieb nehemen müssen weil das ist ja so.........

Grüße

Gast
2007-09-04, 10:22:05
1. Warum A3 auf der GTX nicht zu finden ist.
2. Ob A3 wirklich mehr MHZ bringt (ich hab eine xy ist leider nur eine Einzelkarte).
3. Via Google fand ich gar Leute, die behauten, das A3 weniger Saft, als A2 benötigt/verbraucht.

Ich hab nichts gegen Benchmarks, nur frag ich mich, was diese beim Thema A2 vs. A3 bringen sollen? Soll dann die gut gehende A2 Karter überzeugen, das A3 nur schmarn ist (weil diese in dem Fall sehr schlecht geht)?

SG

1.) Weiss keiner genau, kann dir nur nVidia beantworten. Vermutungen wurden hier ja genug angestellt aber es sind eben nur Vermutungen.

2.) Weiss keiner genau, alles Vermutungen, kann dir nur nVidia sicher beantworten.

3.) Via Google finde ich gar Leute, die die Erde immer noch für eine Scheibe halten. Ich bezweifle dass A3 weniger Leistung aufnimmt, jedenfalls so signifikant weniger dass es auch Dumpfbacken ohne breite Vergleichsbasis (Serienstreuung...) und ohne genaue Messgeräte und vor allem ohne das Wissen wie man diese einsetzt und was Messfehler und Fehlerrechnung sind, beurteilen können.

Damit sind die Fragen alle beantwortet. Darüberhinausgehende Spekulationen sind nur das: Spekulationen ohne fassbare Grundlage und damit wertlos.

Super Grobi
2007-09-04, 12:36:47
Hi Angiensan,
der Gast hat mich überzeugt. Meinet wegen kannst du mal Benches posten. Interessant ist es in jeden fall und bei meinem Topic kommen wir ja eh nicht weiter.

Also her damit :biggrin:

Gruß
SG

Angiesan @work
2007-09-04, 16:37:40
Mach ich doch glatt.

Bin aber noch auf der Arbeit, werde später die Sache mal angehen.

Grüße

Chrisch
2007-09-04, 18:24:30
Hab auch mal verglichen (Graka Def. vs OC)

Sys:

E6850 @ 3.6Ghz (400 x 9)
2GB GSkill F2-8500 @ 600Mhz 5-5-4-12
Zotac 8800GTS 640MB (def. 513/800 || oc 729/1000)
BS: Windows Vista Ult. 32Bit


3DMark06

Default (513 / 800)

SM2.0 = 3905
SM3.0 = 3700

OC (729 [~42%]/ 1000 [25%])

SM2.0 = 5347 (~37% mehr)
SM3.0 = 4959 (~34% mehr)


Aquamark3 (recht CPU abhängig)

Default (513 / 800)

GFX = 36,294
CPU = 18,407
Ges. = 182,695

OC (729 [~42%]/ 1000 [25%])

GFX = 38,901
CPU = 19,747
Ges. = 195,995 (~7% mehr)


Fur OpenGL Rendering

Default (513 / 800)

FPS Min = 21
FPS Max = 33
FPS Avg = 26
Score = 1534

OC (729 [~42%]/ 1000 [25%])

FPS Min = 30
FPS Max = 48
FPS Avg = 36
Score = 2158 (~40% mehr)

Angiesan
2007-09-04, 22:04:40
So habe mal ein paar Bilder Hochgeladen:

Einstellungen Siehe Bild 1

Als Treiber wurde der 162.50 verwendet

System besteht aus einem C2D 6400@ 2650 MHz und einer 8800 GTX

http://666kb.com/i/arixdn7spcfbdc72k.jpg

Das zweite Bild zeigt die besagte Stelle.

http://666kb.com/i/arixj2jj9q9f0pivg.jpg

Und dies zeigt die besagte Stelle, hier läuft die GTX @ 630/1000
Was ein ganzes Bild mehr pro Sek. bringt und nach meinen Tests ist die
Stelle auch nicht CPU limitiert den mit höherem OC verändert sich hier
nichts.
http://666kb.com/i/arixn03qf945zwhjg.jpg

Grüße

p.s. Vsync habe ich erst übernommen nach dem ich das erste Bild gemacht habe.

Gast
2007-09-04, 22:12:26
also für mich sieht dass so aus als würde die GPU einfach durch vsync ohne TP ausgebremst werden und das 1frame unterschied dürfte lediglich eine messungenauigkeit sein.

Super Grobi
2007-09-04, 22:20:18
Eine GTX finde ich eh für den Test ungeeignet. Die Karte bringt @ default schon mehr als genung Power. Bioshock kann die Karte nicht killen mit einem "normalen" Monitor.

Der Test mit einer GTS 640MB wäre schon interessanter gewesen. Da sollte OCing doch mehr bringen.

SG

Angiesan
2007-09-04, 22:48:14
Hier noch ein Bild mit dem FOV Hack von Racer_S:massa:

Die Frames steigen und das nicht nur in diesem Beispiel obwohl ich mehr auf dem Bildschirm sehe:confused::crazy:

http://666kb.com/i/ariysdgc0grozukss.jpg
ups falsches Bild
http://666kb.com/i/ariytjhserau7cfd8.jpg

Und nein vsync ist und war aus lieber Gast es sind zufällig 30FPS und nicht
aufgrund von eingeschaltetem vsync.

Super Grobi
2007-09-04, 22:56:24
Gibts den FOV Hack auch für die Demo? Wenn ja, wo?

Danke
SG

derwalde
2007-09-04, 22:58:29
erstmal dürften es keine 630/1000 sein sondern 621/999 *klugscheiss*;). ansonsten denke ich dass es schonmal vorkommen kann dass du bei den min fps nur 1-2 fps mehr hast. bei average oder vorallem max fps dürften es ein paar mehr sein. also ich habe doch definitv eine leistungssteigerung durch oc meiner ultra gemerkt.

Angiesan
2007-09-04, 23:23:01
Gibts den FOV Hack auch für die Demo? Wenn ja, wo?

Danke
SG


Guckst Du Da: http://www.widescreengamingforum.com/forum/viewtopic.php?t=11685

ob der aber auch für die Demo ist kann ich Dir nicht sagen, war jetzt zu faul
zum Lesen.

Grüße

Angiesan
2007-09-04, 23:30:46
erstmal dürften es keine 630/1000 sein sondern 621/999 *klugscheiss*;). ansonsten denke ich dass es schonmal vorkommen kann dass du bei den min fps nur 1-2 fps mehr hast. bei average oder vorallem max fps dürften es ein paar mehr sein. also ich habe doch definitv eine leistungssteigerung durch oc meiner ultra gemerkt.

Da kannst Du natürlich recht haben, und ja lt. Everest sind es die besagten 621 / 999 MHz aber der Shadertakt ist ja bei 1458 MHz.

Aber eine blöde Frage, hast Du das beim Spielen gemerkt oder abgelesen.
Ich merk da nix, bin ich jetzt ein Grobmotoriker?:D

derwalde
2007-09-05, 11:25:46
ich habe es beim spielen nicht bemerkt. spiele im mom nur stalker und da hab ich fps technisch überhaupt keine probleme selbst in 1920x1200 alles max hab ich nie unter 35fps und idR um die 50-80 draussen und drinnen nicht selten über 100. und auch in der bioshock demo bin ich mit 1920x1200 4xMSAA 16xHQAF nie unter 30fps gekommen.
aber die ultra wird sicher schon bald (s. crysis,) in die bedrouille kommen wo wirklich jedes fps zählen kann, und dass auch spürbar.
ausserdem besagt doch ein alter spruch:"man kann nie genug leistung haben". und wenn ich bis zu 10% mehrleistung aus meiner ultra holen kann, und dass für lau, wieso nicht. es ist ja wohl alles andere als schwer oder aufwenidig seine graka zu oc'en.
ich bin ganz ehrlich. ich hatte erst eine gtx von zotac die hat niemals die 600mhz gpu takt gesehen und auch nicht die 1000 speichertakt. die hab ich dann halt zurückgehen lassen und habe nicht zuletzt wegen der a3 revision zur ultra gegriffen. gut ich muss dazu sagen dass ich die ultra für 500,- bekommen hab und da konnt ich einfach nicht nein sagen. die 50 euro waren es mir definitiv wert. ;)

Angiesan
2007-09-05, 21:32:44
ich habe es beim spielen nicht bemerkt. spiele im mom nur stalker und da hab ich fps technisch überhaupt keine probleme selbst in 1920x1200 alles max hab ich nie unter 35fps und idR um die 50-80 draussen und drinnen nicht selten über 100. und auch in der bioshock demo bin ich mit 1920x1200 4xMSAA 16xHQAF nie unter 30fps gekommen.
aber die ultra wird sicher schon bald (s. crysis,) in die bedrouille kommen wo wirklich jedes fps zählen kann, und dass auch spürbar.
ausserdem besagt doch ein alter spruch:"man kann nie genug leistung haben". und wenn ich bis zu 10% mehrleistung aus meiner ultra holen kann, und dass für lau, wieso nicht. es ist ja wohl alles andere als schwer oder aufwenidig seine graka zu oc'en.
ich bin ganz ehrlich. ich hatte erst eine gtx von zotac die hat niemals die 600mhz gpu takt gesehen und auch nicht die 1000 speichertakt. die hab ich dann halt zurückgehen lassen und habe nicht zuletzt wegen der a3 revision zur ultra gegriffen. gut ich muss dazu sagen dass ich die ultra für 500,- bekommen hab und da konnt ich einfach nicht nein sagen. die 50 euro waren es mir definitiv wert. ;)

Da kann ich Dir in allen Punkten nur zustimmen. und für 500,-- Euro hätte ich
an deiner Stelle auch zur Ultra gegriffen.

Wie hoch taktet deine eigentlich ab Werk ?

Grüße

derwalde
2007-09-06, 12:17:51
ab werk war ganz normaler ultra standard. 612/1512/1080