Archiv verlassen und diese Seite im Standarddesign anzeigen : 4850 512 MB vs 4850 1GB
AGENT_SMITH
2008-10-29, 18:59:18
Hat schon jemand etwas über einen test der beiden Grakas gefunden?
MFG
AnarchX
2008-10-29, 19:01:03
http://www.google.de/search?hl=de&client=firefox-a&rls=org.mozilla%3Ade%3Aofficial&hs=LXF&q=4850+1024MB+Test&btnG=Suche&meta=
;)
Artikel von CB und PCGH sind empfehlenswert.
patrese993
2008-10-30, 04:34:27
imho lohnt die 1GB Version aktuell nicht, und es wird wohl auch nicht soweit kommen, weil bis dahin ist die GPU dann wohl zu lahm, bis dahin holt man sich dann eine HD5870 1GB, oder was auch immer.... Meine Meinung....
Bei nV Karten ist das was anderes, die gehen etwas weniger sparsam mit dem Speicher um, da kommt man mit 512 MB sehr viel schneller an die Grenze
imho lohnt die 1GB Version aktuell nicht, und es wird wohl auch nicht soweit kommen, weil bis dahin ist die GPU dann wohl zu lahm, bis dahin holt man sich dann eine HD5870 1GB, oder was auch immer.... Meine Meinung....
Bei nV Karten ist das was anderes, die gehen etwas weniger sparsam mit dem Speicher um, da kommt man mit 512 MB sehr viel schneller an die Grenze
Hmm, Du weißt schon, dass die 4850 und 4870 die selbe GPU haben oder?
Nur die eine etwas langsamer mit 625mhz. die andere etwas flotter 750mhz.
Also der GPU auf der 4850 geht def. nicht die Luft aus.
Meine 4850GS hält sich wacker bei 1920er, selbst Crysis rennt mit ~30fps und high/very high settings.
Aber sie skailiert sehr gut mit dem schnellen Gddr5 auf der 4870.
Eggcake
2008-10-31, 12:15:17
Also bei mir rennt Crysis mit 1680x1050 doch etwas dürftig. Aber das liegt kaum am RAM.
Wenn du eine Karte mit 1GB für wenig mehr bekommst, dann kauf sie. Wenn du 30€+ dafür bezahlen müsstest lohnt es sich imho nicht mehr.
patrese993
2008-10-31, 17:18:41
Hmm, Du weißt schon, dass die 4850 und 4870 die selbe GPU haben oder?
Nur die eine etwas langsamer mit 625mhz. die andere etwas flotter 750mhz.
Also der GPU auf der 4850 geht def. nicht die Luft aus.
Meine 4850GS hält sich wacker bei 1920er, selbst Crysis rennt mit ~30fps und high/very high settings.
Aber sie skailiert sehr gut mit dem schnellen Gddr5 auf der 4870.
weiß ich, allerdings ist der Taktvorteil bei der 4870 nicht zu unterschätzen, läßt sich ja auch noch gut ocen. Abgesehen davon ist der Speicher auch noch schneller.... Ich will es mal so sagen, wenn man die 1GB Variante der 4850 mit geringem Aufpreis bekommt, kann man da auf alle Fälle zuschlagen, bei der 4870 macht es imo noch "ein wenig" mehr Sinn.
Abgesehen davon hab ich oben von der kommenden 5870 gesprochen ;)
Wie kann man nur stur 512MiB empfehlen?
avgFPS sind doch alles, in Verbindung mit 60s CB Benches, wo die Spielfigur kein Stück bewegt oder gedreht wird.
weiß ich, allerdings ist der Taktvorteil bei der 4870 nicht zu unterschätzen
Jo, die 30% Mehrperformance reissen es dann raus. :rolleyes:
läßt sich ja auch noch gut ocenKann man eine 4850 natürlich nicht.
Das durchschnitliche 4870 OC Ergebniss ist nichtmal besonders herausragend.
Kaffetasse
2008-11-01, 02:38:42
Also bei mir rennt Crysis mit 1680x1050 doch etwas dürftig. Aber das liegt kaum am RAM.
Wenn du eine Karte mit 1GB für wenig mehr bekommst, dann kauf sie. Wenn du 30€+ dafür bezahlen müsstest lohnt es sich imho nicht mehr.
Das ist schon seltsam, ich kann nicht meckern.
http://img296.imageshack.us/img296/7403/crysispiczw5.th.jpg (http://img296.imageshack.us/my.php?image=crysispiczw5.jpg)
Ingame habe ich dabei noch nicht mal solche Frameeinbrüche wie im Test, alles rennt schön smooth.
Cpl. Dwayne Hicks
2008-11-05, 10:10:42
Eigentlich würde ich auch sagen es lohnt nicht die 1GB Version zu kaufen... aber ich war damals schon froh dass ich gleich die grössere 256MB RADEON 9800 PRO gekauft hatte... da hatte ich z.B. in Doom3 und Quake 4 mehr Spass als die 128MB User....
wer weiss wenn die Spiele eher in Richtung Shader power gehen könnten die RV770 GPUs doch noch eine ganze Weile mithalten.
Eggcake
2008-11-05, 10:13:56
Das ist schon seltsam, ich kann nicht meckern.
http://img296.imageshack.us/img296/7403/crysispiczw5.th.jpg (http://img296.imageshack.us/my.php?image=crysispiczw5.jpg)
Ingame habe ich dabei noch nicht mal solche Frameeinbrüche wie im Test, alles rennt schön smooth.
Spiel mal die Fahrzeugmission in Warhead (ist glaube ich die dritte).
Was der Bench sagt ist mir wurscht, geht drum obs auch wirklich spielbar ist, und das ist es an gewissen Stellen bei mri definitiv nicht.
OT: Die Gainward GS scheint sehr beliebt zu sein. Noch reicht mir die default Leistung. Werde aber mal testen, wie weit man sie übertakten kann.
Geht die Garantie damit direkt flöten? Oder nur wenn man sie durchbrennen lässt?
Kaffetasse
2008-11-05, 17:29:09
Spiel mal die Fahrzeugmission in Warhead (ist glaube ich die dritte).
Was der Bench sagt ist mir wurscht, geht drum obs auch wirklich spielbar ist, und das ist es an gewissen Stellen bei mri definitiv nicht.
Warhead werde ich mal höchstens als Demo spielen, aber sicher nicht die Vollversion. Hab zwar nix zu verbergen, aber "Zusatzsoftware" die einem Virus gleicht?! :rolleyes:
@Fox
Da brennt so schnell nix durch, außerdem wird Dir eh vorher alles instabil. Darum lasse ich meine GS auch auf default laufen mit 700/1100.
wer weiss wenn die Spiele eher in Richtung Shader power gehen könnten die RV770 GPUs doch noch eine ganze Weile mithalten.
Wenn man die Shaderpower freigeben würde.
Furmark zeigt ja, das maximal 50% feigeben werden.
Ja ich meine nur, ob man sorgenfrei in Maßen Übertakten kann oder ob man im Garantiefall eben doch schnell prüfen könnte, dass die GPU oder der Speicher bereits übertaktet wurden und somit die Garantieleistung verweigert wird, auch wenn sie nicht wegen der Übertaktung ausgefallen ist. Die gute Kühlung ist schon verführerisch bei der GS.
Szenario: Man könnte zB. einen FAG Rückläufer bekommen, den irgendein Hirni mal total übertaktet hatte.
Wenn man die Shaderpower freigeben würde.
Furmark zeigt ja, das maximal 50% feigeben werden.
Blödsinn. Einzig Furmark wird durch den Treiber gebremst, sonst nix.
Ja ich meine nur, ob man sorgenfrei in Maßen Übertakten kann oder ob man im Garantiefall eben doch schnell prüfen könnte, dass die GPU oder der Speicher bereits übertaktet wurden und somit die Garantieleistung verweigert wird, auch wenn sie nicht wegen der Übertaktung ausgefallen ist. Die gute Kühlung ist schon verführerisch bei der GS.
Nee, ohne Spannungserhöhung kriegste durch Übertakten 'ne GraKa nicht kaputt, das kannste vergessen.
An der Spannung drehe ich nie etwas. Was ohne geht, geht und mehr eben nicht. Aber es könnte ja sein, dass die Settings mitgeloggt werden und wenn die Karte aufgrund eines "normalen" Defektes mal nicht mehr geht, wird der Austausch verweigert, weil in den Logs eben nicht die Standardwerte für GPU und Speicher stehen. Das wären meine Bedenken.
Eggcake
2008-11-05, 20:40:53
Übertaktungen sind theoretisch immer erkennbar, aber ich glaube nicht, dass sich ne Firma wirklich die Mühe macht und das überprüft - es sei denn es ist offensichtlich.
Aber generell wirst du keinen Anspruch mehr auf Garantie haben, ganz egal ob dir der Kühler abfällt oder die Karte hochgeht.
Blödsinn. Einzig Furmark wird durch den Treiber gebremst, sonst nix.
Richtig, nur das Proagramm, das Shaderpower fordert wird gebremst.
Ich kann noch eins und eins zusammenzählen.
A sagt: Geile Shaderpower
Treiber sagt: 100% Shaderpower ist nicht (Furmark)
Cpl. Dwayne Hicks
2008-11-06, 01:43:54
Richtig, nur das Proagramm, das Shaderpower fordert wird gebremst.
Ich kann noch eins und eins zusammenzählen.
A sagt: Geile Shaderpower
Treiber sagt: 100% Shaderpower ist nicht (Furmark)
Also ATi bremst die RV770 Karten aus damit sie nicht überhitzen? Das wär ja schön blöd wenn die das in jeder Anwendung bzw. Spiel erzwingen würden...
Kann man für Furmark nicht einfach die .exe umbenennen? Irgendwie war mir so...
Warum verändern die nicht einfach die Lüftersteuerung... vor allem das HD4870 Kühlsystem hat doch noch massig Reserven.
Schlammsau
2008-11-06, 07:39:02
Also ATi bremst die RV770 Karten aus damit sie nicht überhitzen? Das wär ja schön blöd wenn die das in jeder Anwendung bzw. Spiel erzwingen würden...
Kann man für Furmark nicht einfach die .exe umbenennen? Irgendwie war mir so...
Warum verändern die nicht einfach die Lüftersteuerung... vor allem das HD4870 Kühlsystem hat doch noch massig Reserven.
Es gibt kein Spiel was künstlich ausgebremst wird, einzig und allein der FURMark wird durch den Treiber gedrosselt! Und noch dazu, warum sollte ATi seine Karten in Games künstlich langsamer machen? Das wäre doch absolut kontraproduktiv.
Ich finde es nicht schlecht, die Drosellung des FUR.....sollte nVidia auch einführen, bei dem Heatbug der GTX2xx Serie.
Kann man für Furmark nicht einfach die .exe umbenennen?
Ja.
Warum verändern die nicht einfach die Lüftersteuerung...
Ein paar Hersteller haben Mist gebaut, die Spawakühlung vergessen.
Es gibt kein Spiel was künstlich ausgebremst wird
Es gibt auch kein Spiel, das die volle Shaderleistung fordert und somit zum Hitzekollaps führen würde.
Ergo stützt sich die Behauptung der geilen Shaderleistung auf die technischen Daten.
Meine Behauptung der Überhitzung bei 100% Auslastung, stützt sich auf Fakten.
Cpl. Dwayne Hicks
2008-11-06, 08:44:19
Also wenn ich die Furmark.exe umbenenne verdoppelt sich die Framerate fast... Aber die GPU Temperatur pendelt sich dabei auf ca. 77 Grad ein, bei 40% Lüfter, also vom Hitzetod ist das IMO noch weit entfernt.
Du hast auch eine Referenz 4870. :rolleyes:
AMD muss den Scheiss der Hersteller jetzt ausbaden und jeder leidet daraunter!
Wer Glück hat, der kann die exe umbennen und seine gut gekühlte Karte schaffts. Das ist lediglich stressig und bei weitem nicht jeder weiß das. Ergo verschenken viele hier Leistung.
Wenns scheisse läuft, hat AMD mal wieder Shaderreplacements oder anderes an die exe gekoppelt. Tja, dann ist die Performance trotzdem im Arsch oder es fehlt AA oder Details.
was bringt es mir, wenn nur furmark dadurch schneller wird?? solange die games auf volle pulle laufen ist es doch egal.
Da kannst nicht behaupten, das Shaderpowerreserven da sind, wenn die Situation, wo diese schwer zugängliche (5D Shader) mal genutzt werden die ganze Karte überhitzen.
renamtes Furmark: Viel Hitze, Treiber drosselt auf 50%
angenommenes Shader forderndes Spiel: Na wie verhält es sich? Keine Hitze? :rolleyes:
Schlammsau
2008-11-06, 16:09:39
Da kannst nicht behaupten, das Shaderpowerreserven da sind, wenn die Situation, wo diese schwer zugängliche (5D Shader) mal genutzt werden die ganze Karte überhitzen.
renamtes Furmark: Viel Hitze, Treiber drosselt auf 50%
angenommenes Shader forderndes Spiel: Na wie verhält es sich? Keine Hitze? :rolleyes:
Ok du hast recht, ATi drosselt ihre Karten. Ups....dann ist die 4800` Serie ja in noch schneller! Schäm dich ATi, schäm dich....;D
Ok du hast recht, ATi drosselt ihre Karten. Ups....dann ist die 4800` Serie ja in noch schneller! Schäm dich ATi, schäm dich....;D
Hä?
Es gibt:
- Anwendungen, die nicht die ganze Shaderleisung brauchen, sind praktisch alle. Dort findet keine Drosselung statt, dort cheatet man nur am AF und Details ist ein anderes Thema.
- 1 Anwendung, die die Shaderleisung braucht. Diese wird auf 50% gebremst, weil einige Hersteller schrott ausliefern (ungekühlte Spawas)
Übrigens, dein vermeintlicher Shaderleistungsvorteil, wo ist er?
So viel weiter liegt die Konkurrenz nicht zurück, dafür ist es dort leichter, die Dinger auszulasten, liegt am Design.
Irgendwie diskutieren wir aneinander vorbei.
Wo ist der Konflikt, welchen Punkt wurde nicht verstanden?
1. Teilauslastung ok.
2. Vollauslastung nicht möglich.
3. Eventuelle Shaderleisung ist in Zukunft nicht eher nutzbar als jetzt, oder wächst den Schrottkarten (ich meine nicht das Referenzdesign) über Nacht eine gescheite Kühlung?
Eggcake
2008-11-06, 17:27:56
Wieso wird Furmark gedrosselt? Das Programm ist ja da um die Karte zu erhitzen. Wo liegt also der Sinn dahinter? :ugly:
Wieso wird Furmark gedrosselt? Das Programm ist ja da um die Karte zu erhitzen. Wo liegt also der Sinn dahinter? :ugly:
Worin liegt der Sinn von Furmark :rolleyes:
Wieso wird Furmark gedrosselt? Das Programm ist ja da um die Karte zu erhitzen. Wo liegt also der Sinn dahinter? :ugly:
Weil ein paar Partner scheisse genaut haben, das AMD jetzt zum Nachteil aller korrigiert hat.
Die Referenz 4870 ist auf Volllast ausgelegt, bei der 4870 X2 wissen wir es mangels Furmark Profil nicht, aber man kann davon ausgehen, das sie es nicht ist, alleine hat die X2 schon Probleme.
Worin liegt der Sinn von Furmark :rolleyes:
In der Auslastung der ALUs/der maximalen Hitzeentwicklung.
Dieses Ziel verfehlt man jetzt.
Eggcake
2008-11-06, 17:41:22
Worin liegt der Sinn von Furmark :rolleyes:
Steht im quote.
In der Auslastung der ALUs/der maximalen Hitzeentwicklung.
Dieses Ziel verfehlt man jetzt.
Oh ja ein sehr wichtiges Ziel :rolleyes:
Oh ja ein sehr wichtiges Ziel :rolleyes:
Stimmt, warum verbieten wir nicht noch Prime95, dann müssen wir nur noch P1M als Stabilitätstest nehmen und sind alle glücklich mit Rechenfehlern, Abstürzen und höherem Takt.
Stimmt, warum verbieten wir nicht noch Prime95, dann müssen wir nur noch P1M als Stabilitätstest nehmen und sind alle glücklich mit Rechenfehlern, Abstürzen und höherem Takt.
Solche "Auslastungsprogramme" sind sowieso fürn Arsch, es gibt genug Fälle wo eine Primestabile CPU oder Furstabile GPU in normalen Anwendungen instabil waren :P
Eggcake
2008-11-06, 18:01:49
Solche "Auslastungsprogramme" sind sowieso fürn Arsch, es gibt genug Fälle wo eine Primestabile CPU oder Furstabile GPU in normalen Anwendungen instabil waren :P
Du kennst wohl das Wort "Wahrscheinlichkeit" nicht. Wie dem auch sei - ich klink mich mal aus ;)
Cpl. Dwayne Hicks
2008-11-06, 22:02:12
Da kannst nicht behaupten, das Shaderpowerreserven da sind, wenn die Situation, wo diese schwer zugängliche (5D Shader) mal genutzt werden die ganze Karte überhitzen.
renamtes Furmark: Viel Hitze, Treiber drosselt auf 50%
angenommenes Shader forderndes Spiel: Na wie verhält es sich? Keine Hitze? :rolleyes:
Schwer zugängliche 5D Shader? Wir wollen mal nicht übertreiben, ATi wird sich nicht ohne Grund für diese Architektur entschieden haben, Shadercode eignet sich halt sehr gut um Parallelität zu extrahieren. Die Ausluastung wird sich im Durchschnitt schon im Bereich von 80% bewegen...
Deswegen schlägt ATi die nVidia Karten auch in dem Grossteil der reinen Shadertests... aber vielleicht drosselt nVidia ihre Karten ja auch, gerade kühl sind die GT2xx Karten unter Volllast ja auch nicht.
Warum läuft denn der Speicher der 1024MB Variante 100Mhz tiefer, als der der 512 GS? Kann man die Differenz ausgleichen?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.