PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon Eyefinity Edition 5870 2 GB (P)Review-Thread


mapel110
2010-03-31, 09:53:44
http://img191.imageshack.us/img191/3774/slide01f.jpg

http://www.guru3d.com/article/radeon-hd-5870-eyefinity6-review/1
http://hothardware.com/Articles/ATI-Radeon-HD-5870-Eyefinity-6-Edition/
http://www.pcper.com/article.php?aid=889

IVN
2010-03-31, 09:54:29
http://www.anandtech.com/show/3621/amds-radeon-hd-5870-eyefinity-6-edition-reviewed

LovesuckZ
2010-03-31, 10:00:01
Geht man nach dem PC Perspektive Review, so sind die erhöhten Min-Frames der GTX4xx Karten nicht ein Grund des Speichers. Auch sehr interessant.

AnarchX
2010-03-31, 10:00:01
http://www.hexus.net/content/item.php?item=24023
http://www.tweaktown.com/articles/3211/ati_radeon_eyefinity6_2gb_video_card_at_5760_x_1200/index.html
http://www.tomshardware.com/reviews/radeon-5870-eyefinity6,2595.html
http://www.firingsquad.com/hardware/ati_radeon_5870_eyefinity_6_edition/
http://www.rage3d.com/reviews/video/ati_hd5870_eyefinity6/
http://www.neoseeker.com/Articles/Hardware/Reviews/hd5870eyefinity6/
http://www.extremetech.com/article2/0,2845,2362027,00.asp

derguru
2010-03-31, 10:04:08
Geht man nach dem PC Perspektive Review, so sind die erhöhten Min-Frames der GTX4xx Karten nicht ein Grund des Speichers. Auch sehr interessant.
klar aus deinen augen,haben ja die konsolengames ausgepackt oder noch besser metro2033 nicht mal in max gebencht.;)

in stalker,crysis und metro wird es definitve was bringen.
und crysis ist nicht mal max detail.
http://www.abload.de/img/bfbc2single2z0r.jpghttp://www.abload.de/img/22281kx30.jpghttp://www.abload.de/img/22288ybuz.jpg

edit:hier haste deine heavenwurst LS.(och hat die 480 ramprobleme;))

http://www.abload.de/img/01425sz1i22374700ab47.jpghttp://www.abload.de/img/01425sz1i22374900hywl.jpg

IVN
2010-03-31, 10:09:21
klar aus deinen augen,haben ja die konsolengames ausgepackt oder noch besser metro2033 nicht mal in max gebencht.;)

in stalker,crysis und metro wird definitve was bringen.

http://www.abload.de/img/22288x90w.png
Klar, bringt ein bisschen. Aber nicht so, wie vor kürzem von vielen Atianern behauptet: "AMD wird die 2Gig-Version rausbringen, und dann kann Nv sofort einpacken."

Schlammsau
2010-03-31, 10:29:00
Klar, bringt ein bisschen. Aber nicht so, wie vor kürzem von vielen Atianern behauptet: "AMD wird die 2Gig-Version rausbringen, und dann kann Nv sofort einpacken."

Nicht meine Worte verdrehn....ich hab geschrieben eine auf >300Watt Verbrauch getrimmte 5870/2GB@1050/13(5)0Mhz, default ist 850/1200Mhz, würde einer 480 paroli bieten. Ganz sicher sogar!
Ausnahmen bestätigen wie immer die Regel!

IVN
2010-03-31, 10:45:42
Nicht meine Worte verdrehn....ich hab geschrieben eine auf >300Watt Verbrauch getrimmte 5870/2GB@1050/13(5)0Mhz, default ist 850/1200Mhz, würde einer 480 paroli bieten. Ganz sicher sogar!
Ausnahmen bestätigen wie immer die Regel!
In "Ausnahmen" wie SF4 (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=19), HAWX (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=20) und FC2 (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=21) braucht die 5870 eher 1300-1600MHz für die GPU, um gleichziehen zu können. Und ich wundere mich wie es in nem Monat, mit verbesserten Treibern aussschauen wird.

Der 10.3 hat den Radeons 5-10% gebracht, und ich denke, so viel ist auch bei den Geforces drin.

Gast
2010-03-31, 10:49:53
In "Ausnahmen" wie SF4 (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=19), HAWX (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=20) und FC2 (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=21) braucht die 5870 eher 1300-1600MHz für die GPU, um gleichziehen zu können. Und ich wundere mich wie es in nem Monat, mit verbesserten Treibern aussschauen wird.

Der 10.3 hat den Radeons 5-10% gebracht, und ich denke, so viel ist auch bei den Geforces drin.
du bist n komiker. denkst du allen ernstes das NV erst jetzt mit treiber coden anfängt? die sind seit letztem august dran!

IVN
2010-03-31, 10:55:11
du bist n komiker. denkst du allen ernstes das NV erst jetzt mit treiber coden anfängt? die sind seit letztem august dran!
Auch ATI war seit langem "dran", und trotzdem brachte der letzte Treiber zusätzliche Performance, und das nicht gerade wenig.

Mark3Dfx
2010-03-31, 10:56:09
@ Gastkomiker
Und deshalb sind sie schon am Ende der Treiberentwicklung für den Thermi?
Wie lange hat AMTi schon am HD5k Treiber "gecodet"?

Schlammsau
2010-03-31, 10:56:26
In "Ausnahmen" wie SF4 (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=19), HAWX (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=20) und FC2 (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=21) braucht die 5870 eher 1300-1600MHz für die GPU, um gleichziehen zu können. Und ich wundere mich wie es in nem Monat, mit verbesserten Treibern aussschauen wird.

Der 10.3 hat den Radeons 5-10% gebracht, und ich denke, so viel ist auch bei den Geforces drin.

Ich sage ja, Ausnahmen bestätigen die Regel.
Genauso wirds ja auch Ausnahmen auf pro ATi Seite geben....es gibt viele Games, wo sich auch jetzt schon eine 480 nicht wirklich von einer default 5870 absetzen kann. Im Mittel sind es ja "nur" ~20% Vorsprung der 480 gegenüber der 5870 mit ~80% mehr Lastverbrauch. :freak:

Aber auch nVidia wird mit den kommenden Treibern zulegen können.

IVN
2010-03-31, 11:02:25
Ich sage ja, Ausnahmen bestätigen die Regel.
Genauso wirds ja auch Ausnahmen auf pro ATi Seite geben....es gibt viele Games, wo sich auch jetzt schon eine 480 nicht wirklich von einer default 5870 absetzen kann. Im Mittel sind es ja "nur" ~20% Vorsprung der 480 gegenüber der 5870 mit ~80% mehr Lastverbrauch. :freak:
Aber auch nVidia wird mit den kommenden Treibern zulegen können.

Für die letzten % an Leistung musste man schon immer überproportional viel hinblechen. Preis sowie Verbrauch.

Aber b2t:

Z.Z. bringen die 2Gig bei der Radeon sehr wenig. Es sieht so aus, als hätte man eine sehr effiziente Speicherverwaltung geschaffen, die auch aus "nur" 1 Gig sehr viel rausholt. Die 2Gig werden wohl erst bei kommenden Spielen von Bedeutung sein.

Schlammsau
2010-03-31, 11:06:26
Für die letzten % an Leistung musste man schon immer überproportional viel hinblechen. Preis sowie Verbrauch.

Aber b2t:

Z.Z. bringen die 2Gig bei der Radeon sehr wenig. Es sieht so aus, als hätte man eine sehr effiziente Speicherverwaltung geschaffen, die auch aus "nur" 1 Gig sehr viel rausholt. Die 2Gig werden wohl erst bei kommenden Spielen von Bedeutung sein.

Bei Metro, Crysis (Warhead) und noch anderen speicherhungrigen Games in Auflösungen jenseits der 1080p und 4xAA, wird sich der Mehrspeicher schon auszahlen.
Bei Metro bringts schon ab 1650x1050 was.

LovesuckZ
2010-03-31, 11:06:43
Ich sage ja, Ausnahmen bestätigen die Regel.
Genauso wirds ja auch Ausnahmen auf pro ATi Seite geben....es gibt viele Games, wo sich auch jetzt schon eine 480 nicht wirklich von einer default 5870 absetzen kann. Im Mittel sind es ja "nur" ~20% Vorsprung der 480 gegenüber der 5870 mit ~80% mehr Lastverbrauch. :freak:

Aber auch nVidia wird mit den kommenden Treibern zulegen können.

Der Lastverbrauch liegt gemittelt bei 50% mehr. :rolleyes:

Mark3Dfx
2010-03-31, 11:11:05
Ist natürlich gleich viel sparsamer. X-D

LovesuckZ
2010-03-31, 11:11:42
Ist natürlich gleich viel sparsamer. X-D

Natürlich. Weil 5 < 8. :rolleyes:

Mark3Dfx
2010-03-31, 11:12:45
Und 5 > 0 gegenüber ATI.
/EOT

Schlammsau
2010-03-31, 11:14:56
Der Lastverbrauch liegt gemittelt bei 50% mehr. :rolleyes:

Ich hab mich dabei auf die Messungen von CB verlassen, die der 480 ~150Watt mehr Verbrauch unter Last zuschreiben.

AnarchX
2010-03-31, 11:24:28
Ich hab mich dabei auf die Messungen von CB verlassen, die der 480 ~150Watt mehr Verbrauch unter Last zuschreiben.
Zumal man dort Crysis gemessen hat, wo sich 5870 und GTX 480 nicht viel nehmen.

Bei PCGH sind es +84% in Grid (http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=2) und HT4u hat +45-55% in HAWX (http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index15.php) gemessen. In letzerem dürfte wohl aber die Pro-Watt-Leistung stimmen.

Gast
2010-03-31, 11:50:53
Da diese Grafikkarte ja jetzt bis zu 6 Monitore anschließen kann, würden mich mal Tests mit entsprechenden Auflösungen wie z.B. 1920x3600 interessieren. Kann man eigentlich 3 Monitore über DVI-D anschließen oder ist der Display Port nötig?

btw. warum ist die Antwort das 1kb 1024byte falsch???

AnarchX
2010-03-31, 11:54:47
http://img51.imageshack.us/img51/9315/65606440.jpg
http://www.firingsquad.com/media/article_image.asp/2510/05

Für mehr als 2 DVI braucht man wieder einen aktiven Adapter.

Gast
2010-03-31, 12:10:22
Danke, das macht das ganze leider ein ganzes Stück teurer

Gast
2010-03-31, 12:24:25
@ Gastkomiker
Und deshalb sind sie schon am Ende der Treiberentwicklung für den Thermi?
Wie lange hat AMTi schon am HD5k Treiber "gecodet"?
sie haben wohl etwa gleich lang dran rumgeschraubt. ati evnt. 2 oder 3 monate länger. trotzdem erwarte ich von beiden etwa gleich viel weiterentwicklung und performance zuwächse. ist natürlich nur meine bescheidene meinung, ihr komiker.

Bucklew
2010-03-31, 12:30:51
Absolute Nischenkarte, Samsung hat die Entwicklung von Spezialmonitoren mit schmalem Rand zumindest für 6 Schirm aufgegeben - zu kleiner Nischenmarkt.

Aber immerhin wissen wir jetzt, dass die 2GB für die 5870 kein Allheilmittel gegen Fermi sind ;)

Spasstiger
2010-03-31, 12:49:44
Es gibt schon Fälle, wo der zusätzliche Grafikspeicher deutliche Vorteile bringt, hier mit Crossfire auf einem Triple-Monitor-Setup mit 8xMSAA:

http://media.bestofmicro.com/H/R/242991/original/1GB%20vs%202GB%208xAA.png
Quelle: http://www.tomshardware.com/reviews/radeon-5870-eyefinity6,2595-11.html

In der Auflösung mit 8xAA dürften auch zwei GTX 480 nicht mehr ganz so überzeugend abschneiden. Der Vorteil der vier Rasterengines und der höheren Geometrieleistung kommt ja vor allem in niedrigen Auflösungen zum Tragen.

LadyWhirlwind
2010-03-31, 21:32:08
frage hierzu: im Moment habe ich ne normale 5870 und da ich nen imac habe, der ja mini-DP input von externen sourcen erlaubt, überlege ich mir, die hier zu kaufen. Bringt mir das bei der nativen auflösung des imacs (2560x1440) etwas? oder wär nen einfacher adapter billiger.

Dr. Lloyd
2010-03-31, 22:07:39
frage hierzu: im Moment habe ich ne normale 5870 und da ich nen imac habe, der ja mini-DP input von externen sourcen erlaubt, überlege ich mir, die hier zu kaufen. Bringt mir das bei der nativen auflösung des imacs (2560x1440) etwas? oder wär nen einfacher adapter billiger.
Ich verstehe deine Frage nicht ganz, daher erschlage ich einfach mal alles: :D

Wie die aktuellen Tests zeigen, ist nur in speziellen Anwendungen eine Leistungssteigerung von 1GB auf 2GB zu verzeichnen - selbst bei 2.560x1.600.

Alle 5870-Karten verfügen über mind. einen Display-Port-Anschluss. Und Mini-Display-Port hat die gleiche Bandbreite wie der normale Display-Port zur Verfügung.

Ich hoffe, da war eine Antwort auf deine Frage dabei. :)

Gast
2010-03-31, 23:31:34
btw. warum ist die Antwort das 1kb 1024byte falsch???

kilo = 10^3. kB = 10^3 Byte = 1.000 Byte.

The Jackal
2010-04-02, 17:19:23
@Gast Post #29

1 kB(genauer kiB) sind 2^10 Byte = 1024 Byte. Wenn wir von PC Komponenten sprechen, sprechen wir immer von Kibibyte (KiB), Mebibyte (MiB), Gibibyte (GiB). Es liegt immer einer 2 hoch Exponent Funktion vor.

Nur Festplattenhersteller geben die angaben im mathematischem Sinne 10^3, 10^6, 10^9 an. Deshalb hat man bei einer 750GB Palatte 698GiB im Windows System.

http://de.wikipedia.org/wiki/Byte

_DrillSarge]I[
2010-04-04, 06:17:50
lieferbar zu nettem preis :/
http://www.alternate.de/html/shop/productDetails.html?artno=JDXSV5

Dr. Lloyd
2010-04-04, 06:33:19
Nicht nett. Das Äquivalent von PowerColor gab es die letzten Tage bereits lagernd bei Mindfactory für unter € 490,- (inkl. Versand).

tombman
2010-04-04, 07:37:15
Tjo, das wars dann wohl mit der 2Gb Metro2033 Hoffnung:

http://www.pcper.com/article.php?aid=889&type=expert&pid=10

Warum? Darum:

We ran Metro 2033 with Advance DOF disabled because it brought all of the cards but the GTX 480 to an unplayable state.

"all" = auch die 2GB HD5870 Edition ;)

Und damit bleibt die 480er die einzige, die das packt ;)

Gast
2010-04-04, 08:59:45
Tjo, das wars dann wohl mit der 2Gb Metro2033 Hoffnung:

http://www.pcper.com/article.php?aid=889&type=expert&pid=10

Warum? Darum:



"all" = auch die 2GB HD5870 Edition ;)

Und damit bleibt die 480er die einzige, die das packt ;)

Schon arm wenn man immer und immer wieder den einen Promo-Titel von Fermi heraus holen muss. Wenn die Karte hier nicht schneller wäre könnte man sie verschrotten.

tombman
2010-04-04, 09:03:46
Schon arm wenn man immer und immer wieder den einen Promo-Titel von Fermi heraus holen muss. Wenn die Karte hier nicht schneller wäre könnte man sie verschrotten.
Du weißt ja nichtmal auf wen oder was ich mich beziehe...
Ansonsten: :comfort2:

Gast
2010-04-04, 09:05:14
Du weißt ja nichtmal auf wen oder was ich mich beziehe...
Ansonsten: :comfort2:

Na eh ist klar, nur weil du Metro schreibst und Metro verlinkst. :ugly:

Gast
2010-04-04, 09:19:01
Tombman ist eh nur geschockt weil ATI diesmal das ingesamt rundere Produkt mit der HD5xxx Serie hat. Und das schon Monate vor NVIDIA. Für Menschen wie ihn ist das schon schlimm und kann einen aus der Bahn werfen. Da werden auch kurze Strohhälme zu meterlangen Rohren stilisiert *ROFL*

horn 12
2010-04-04, 09:28:38
Abwarten, mal auf den Neuen Treiber warten... da geht noch viel bei AMD-ATI...

Gast
2010-04-04, 09:34:37
Der Anzahl der Beiträge nach die sich hier in den Hardware-foren auf Metro beziehen, könnte man annehmen, dass das Spiel hunderte Stunden Spielzeit bietet.

Jeder gefühlte zweite Beitrag dreht sich um Metro. Tut uns einen gefallen, spielt täglich min. einmal Metro durch und seid glücklich, aber verschont uns hier mit dem Spiel.

tombman
2010-04-04, 09:49:48
Tombman ist eh nur geschockt weil ATI diesmal das ingesamt rundere Produkt mit der HD5xxx Serie hat. Und das schon Monate vor NVIDIA. Für Menschen wie ihn ist das schon schlimm und kann einen aus der Bahn werfen. Da werden auch kurze Strohhälme zu meterlangen Rohren stilisiert *ROFL*
Ja klar, als ob die GTX480 nicht im Schnitt deutlich schneller als die HD5870 wäre und sogar an die HD5970 OHNE MR herankäme :rolleyes:
Die HD5 Serie war SO SCHWACH, daß sie einen Enthusiasten wie mich nicht mal gereizt hat- und ich kaufe normal viel, wenn der Tag lang ist.
+30% zur GTX285 und ~GTX295 speed war einfach zu schwach damals ;)
Manche member sind jetzt eben ob der Niederlage durch Fermi so geschockt, daß sie sich nur als Gäste anonym durchs Forum trollen trauen...

Gast
2010-04-04, 10:14:16
You may thrimuph in the field of nonsense for one day, but against the power of reason, there is no victory.

Gast
2010-04-04, 10:18:40
Tombman ist eh nur geschockt weil ATI diesmal das ingesamt rundere Produkt mit der HD5xxx Serie hat. Und das schon Monate vor NVIDIA. Für Menschen wie ihn ist das schon schlimm und kann einen aus der Bahn werfen. Da werden auch kurze Strohhälme zu meterlangen Rohren stilisiert *ROFL*
Gerade Tombman als Zielgruppe für ein "rundes" Produkt anzusehen hat schon was komisches. Er ist alles, aber keiner der ein "rundes Produkt" braucht.

tombman
2010-04-04, 10:20:36
Gerade Tombman als Zielgruppe für ein "rundes" Produkt anzusehen hat schon was komisches. Er ist alles, aber keiner der ein "rundes Produkt" braucht.
Richtig :)

Gast
2010-04-04, 10:29:10
Tomban braucht seine Traumwelt also lasst sie Ihm.

tombman
2010-04-04, 10:33:39
Tomban braucht seine Traumwelt also lasst sie Ihm.
Naja, du brauchst zumindest einen Deutschkurs ;D

Gast
2010-04-04, 10:33:44
Tomban braucht seine Traumwelt also lasst sie Ihm.
Ist auch das Einzige, was er hat. Von daher muss man Milde walten lassen.

numb
2010-04-04, 10:33:55
Manche member sind jetzt eben ob der Niederlage durch Fermi so geschockt, daß sie sich nur als Gäste anonym durchs Forum trollen trauen...


Die meisten ATiisten sind, ebenso wie die nvidianer davon ausgegangen, dass Fermi +40-50% gegenüber Cypress holt.

Umso erstaunlicher, dass anscheinend jetzt nur die ATi-User (zurecht) von der Fermi-Leistung entäuscht sind, während sich nvidianer trotz "souveränen" 15% Vorsprung und Leistungs-/Temperatur-/Leistungsaufnahme- und Lautstärkefail in immer neuen Lobpreisungen ergötzen ;)

grüße numb

Gast
2010-04-04, 10:45:45
Ja klar, als ob die GTX480 nicht im Schnitt deutlich schneller als die HD5870 wäre und sogar an die HD5970 OHNE MR herankäme :rolleyes:
Die HD5 Serie war SO SCHWACH, daß sie einen Enthusiasten wie mich nicht mal gereizt hat- und ich kaufe normal viel, wenn der Tag lang ist.
+30% zur GTX285 und ~GTX295 speed war einfach zu schwach damals ;)
Manche member sind jetzt eben ob der Niederlage durch Fermi so geschockt, daß sie sich nur als Gäste anonym durchs Forum trollen trauen...


Genau die Karte ist ja auch so viel schneller *g* Toller Sieg Nvidia. Deshalb trollen manche Enthusiasten-User hier auch ständig durch alle Threads um die Vorteile der Fermi Karten anzupreisen....
Es geht hier auch nicht um Fanboyism das ist eher deine Abteilung. :-) Wer außer einer Minderheit will schon von einer G80/G92 oder auch GT200 Karte auf dieses Monstrum wechseln. Dazu ist der Vorsprung/Vorteil eh viel zu gering. Bei einem vernüftigen Refresh kann sich das Blatt allerdings wieder wenden.

tombman
2010-04-04, 10:51:44
Ist auch das Einzige, was er hat. Von daher muss man Milde walten lassen.
Ja klar, nur weil du die Tatsachen nicht akzeptieren kannst, müssen sie aus einer Traumwelt kommen ;D

tombman
2010-04-04, 11:04:23
Die meisten ATiisten sind, ebenso wie die nvidianer davon ausgegangen, dass Fermi +40-50% gegenüber Cypress holt.

Umso erstaunlicher, dass anscheinend jetzt nur die ATi-User (zurecht) von der Fermi-Leistung entäuscht sind, während sich nvidianer trotz "souveränen" 15% Vorsprung und Leistungs-/Temperatur-/Leistungsaufnahme- und Lautstärkefail in immer neuen Lobpreisungen ergötzen ;)

grüße numb
Was die meisten geschätzt haben, interessiert mich nicht. Meine letzte Schätzung war +20%- war also nicht so falsch.
Und es gibt auch andere Kriterien außer reine fps. Für mich ist tatsächlich Fermi das rundere Produkt, selbst wenn er 0% schneller als Cypress gewesen wäre- weil ich bereits genug Rechenleistung besitze! Ich wollte nicht LANGSAMER als GTX295 Quad-SLI werden, aber hätte gerne DX11 (und Phys-X behalten)
Und jetzt ist GTX480 SLI sogar schneller, schlägt auch ATI (netter Nebeneffekt ;)), bringt fette Tessellation-power, hat DX11 und genug VRAM für GTA4 (auch ne Schwäche der 295er).
Es gibt kein game, was man mit GTX480 SLI nicht maximiert gamen kann- was auf ATI-HW nicht zutrifft.

Also was zur Hölle sollte ICH an HD5 in der Praxis toll finden? Eben, nix. Das einzige, was mir gefällt, ist die tolle Shaderleistung- nur leider bringt das offensichtlich in echten games kaum was.
Genau die Karte ist ja auch so viel schneller *g* Toller Sieg Nvidia. Deshalb trollen manche Enthusiasten-User hier auch ständig durch alle Threads um die Vorteile der Fermi Karten anzupreisen....
Es geht hier auch nicht um Fanboyism das ist eher deine Abteilung. :-) Wer außer einer Minderheit will schon von einer G80/G92 oder auch GT200 Karte auf dieses Monstrum wechseln. Dazu ist der Vorsprung/Vorteil eh viel zu gering. Bei einem vernüftigen Refresh kann sich das Blatt allerdings wieder wenden.
ATI war 6 Monate schneller, die nächsten 6 Monate ist es Nvidia- was ist daran jetzt so neu für dich?

Btw, NV hat einen größeren Sprung gemacht als ATI... (480 zu 285 > 5870 zu 4890 :cool:)

Gast
2010-04-04, 11:05:45
Dau-Frage - kann es aber sein, daß die Treiber noch an die 2GB-Varianten angepaßt werden müssen? Afaik war es bei der 4870 1GB doch so, daß die sich erst mit späteren Treibern von der 512MB-Variante absetzen konnte.

Gast
2010-04-04, 11:09:34
@Gast Post #29

1 kB(genauer kiB) sind 2^10 Byte = 1024 Byte. Wenn wir von PC Komponenten sprechen, sprechen wir immer von Kibibyte (KiB), Mebibyte (MiB), Gibibyte (GiB). Es liegt immer einer 2 hoch Exponent Funktion vor.
Falsch.
"k" ist ein SI-Prafix, definiert nach DIN 1301. Deshalb 1k = 10³

Du hast bereits erkannt, "wir sprechen von Kibibyte (KiB) ...." Dann setzt es noch um und schreibe auch von KiB.


Nur Festplattenhersteller geben die angaben im mathematischem Sinne 10^3, 10^6, 10^9 an.
Man trifft die richtigen Bezeichnungen öfter als du denkst. z.b bei Bandbreite o.ä.

Gast
2010-04-04, 11:15:25
Genau die Karte ist ja auch so viel schneller *g* Toller Sieg Nvidia. Deshalb trollen manche Enthusiasten-User hier auch ständig durch alle Threads um die Vorteile der Fermi Karten anzupreisen....

Ganz im Gegenteil, man kann im GTX 400 Launchthread kaum eine Seite ohne die üblichen Flames lesen.
Diskussionen über das Produkt GTX 470/480 werden praktisch im Kern erstickt. Gut, die 470 wird von den Roten meist ignoriert.
Echt schade was aus dem 3DC geworden ist, man könnte meinen CB und HwLuxx laufen von Fanboys über, sodass sie sich hier austoben müssen.
Es ist vollkommen unverständlich, das einige hier soviel Zeit investieren, um diesen Thread immer wieder vollzuspammen.

Wer außer einer Minderheit will schon von einer G80/G92 oder auch GT200 Karte auf dieses Monstrum wechseln. Dazu ist der Vorsprung/Vorteil eh viel zu gering. Bei einem vernüftigen Refresh kann sich das Blatt allerdings wieder wenden.Richtig, wer will schon von G80/G92/GT200/RV770 überhaupt aufrüsten?
Manch einer, manch einer nicht. AMD hat ein paar gefangen, die trotz allem umgestiegen sind.

Gast
2010-04-04, 11:20:20
Tombman, erstell' dir einen Twitteraccount, oder frag die Moderatoren ob sie für dich zu jedem Thema ein Unterforum erstellen. "Planet tombman"
Es nervt einfach nur noch.

tombman
2010-04-04, 11:23:32
Echt schade was aus dem 3DC geworden ist, man könnte meinen CB und HwLuxx laufen von Fanboys über, sodass sie sich hier austoben müssen.

Das hat damit zu tun, daß der Gaststatus hier leider heilig ist und das Forum ohne Gäste offensichtlich finanziell nicht überleben könnte- anders kann ich mir das Festhalten an dieser Seuche nicht erklären. Die paar nützlichen Gäste gehen in der Trollmasse leider unter- schade.

Gast
2010-04-04, 11:26:29
Ja klar, nur weil du die Tatsachen nicht akzeptieren kannst, müssen sie aus einer Traumwelt kommen ;D

Hast Du ja selber geschrieben: "Blöd nur, daß ich, außer dem virtuellen Leben als tombman, kein anderes zur Verfügung habe...."
Oder gehört das in die Rubrik: "Was interessiert mich mein Geschwätz von gestern?"

Auffallend: Dafür, dass Dir die Karte am Allerwertesten vorbeigeht, müllst Du hier erstaunlich viel herum und sorgst NUR für schlechte Stimmung. Geht's eigentlich noch?
Mich interessieren die NV Karten eine feuchten Dreck, entsprechend gibt's nicht 1 Posting von mir in den einschlägigen Threads.

tombman
2010-04-04, 11:39:08
Hast Du ja selber geschrieben: "Blöd nur, daß ich, außer dem virtuellen Leben als tombman, kein anderes zur Verfügung habe...."
Oder gehört das in die Rubrik: "Was interessiert mich mein Geschwätz von gestern?"
Der quote hat nichts mit deinem Diffamierungsversuch zu tun.

Auffallend: Dafür, dass Dir die Karte am Allerwertesten vorbeigeht, müllst Du hier erstaunlich viel herum und sorgst NUR für schlechte Stimmung. Geht's eigentlich noch?
Mich interessieren die NV Karten eine feuchten Dreck, entsprechend gibt's nicht 1 Posting von mir in den einschlägigen Threads.
Dafür interessiert dich aber meine Person aber extrem- redest ja von nix Anderem mehr ;)
Ich habe nur geschrieben, daß die 2GB Metro2033 Hoffnung wahrscheinlich tot ist- was eindeutig zum Thema war. Das hast du und ein paar andere ATI-Gäste nicht verkraftet, und so mußtet ihr persönlich werden ;)
Ich verbreite Tatsachen, und auf Stimmungen habe ich nie und werde auch nie Rücksicht nehmen- nicht mal auf meine eigene :cool:
Wenn du einen ATI-Feel-Good-Platz suchst, dann findest du ihn im Luxx oder woanders- aber nicht hier- denn hier ist tombman. (zumindst bis zum Ban :lol:)

Gast
2010-04-04, 12:06:38
Der quote hat nichts mit deinem Diffamierungsversuch zu tun.

Sondern? Diffamierung heißt übrigens "Gerüchte verbreiten". Das hast bisher nur Du mir gegenüber gemacht.

Dafür interessiert dich aber meine Person aber extrem- redest ja von nix Anderem mehr ;)
Ich habe nur geschrieben, daß die 2GB Metro2033 Hoffnung wahrscheinlich tot ist- was eindeutig zum Thema war. Das hast du und ein paar andere ATI-Gäste nicht verkraftet, und so mußtet ihr persönlich werden ;)
Ich verbreite Tatsachen, und auf Stimmungen habe ich nie und werde auch nie Rücksicht nehmen- nicht mal auf meine eigene :cool:
Wenn du einen ATI-Feel-Good-Platz suchst, dann findest du ihn im Luxx oder woanders- aber nicht hier- denn hier ist tombman. (zumindst bis zum Ban :lol:)

Wo bin ich persönlich geworden? Ich bezog mich nur auf Sachen, die Du selber in einem anderen Unterforum als Fakt niedergeschrieben hast. Ich habe Dich nicht angegriffen, sondern genauer gesagt sogar in Schutz genommen.
Der einzige Vorwurf, denn ich nun machen muss, ist, dass man merkt, dass Du nicht viel mit der Welt außerhalb des Forums zu tun hast. Das ist aber eigentlich auch kein Vorwurf, sondern eine Tatsache.
Gehe mal wieder unter Leute, nimm am echten Leben teil. Dann wirst Du merken, wie stinklangweilig der ganze Käse hier eigentlich ist.

Nun bitte zurück zum Thema. Mehr werde ich zu Dir und deinem Geschreibe nicht sagen. Ich habe ernsthafte Absichten, diese Karte zu kaufen und möchte nicht ständig mit irgendwelchen Nebensächlichkeiten aufgehalten werden. Man könnte den Thread auf ca. 6 Postings kürzen, ohne dass auch nur 1 wertvolle Information verloren ginge, meine Postings eingeschlossen. Sorry an die Moderation.

tombman
2010-04-04, 12:26:53
Sondern? Diffamierung heißt übrigens "Gerüchte verbreiten". Das hast bisher nur Du mir gegenüber gemacht.
Du wolltest den Eindruck vermitteln, daß ich aufgrund meines real lifes logischerweise nur bullshit erzählen kann, da die virtuelle Welt ja so sein muß wie ich sie mir wünsche, sprich Fermi ja nur toll ist, weil er für mich toll sein muß.
Das war das Verwerfliche. Und falls es nicht du warst, kA, da ja jeder nur "Gast" ist :rolleyes:

Wo bin ich persönlich geworden? Ich bezog mich nur auf Sachen, die Du selber in einem anderen Unterforum als Fakt niedergeschrieben hast. Ich habe Dich nicht angegriffen, sondern genauer gesagt sogar in Schutz genommen.
Siehe oben.

Der einzige Vorwurf, denn ich nun machen muss, ist, dass man merkt, dass Du nicht viel mit der Welt außerhalb des Forums zu tun hast. Das ist aber eigentlich auch kein Vorwurf, sondern eine Tatsache.
Gehe mal wieder unter Leute, nimm am echten Leben teil. Dann wirst Du merken, wie stinklangweilig der ganze Käse hier eigentlich ist.

Wenn es so langweilig ist, warum "diskutierst" dann solange mit mir? Ich rede hier schließlich nicht mit mir selbst. Insofern solltest du deinen eigenen Ratschlag befolgen. Glaub mir, DU kannst mir nichts über das echte Leben erzählen, was ich nicht schon wüßte. Eher im Gegenteil, ich könnte dir die Augen öffnen ;)

Nun bitte zurück zum Thema. Mehr werde ich zu Dir und deinem Geschreibe nicht sagen. Ich habe ernsthafte Absichten, diese Karte zu kaufen und möchte nicht ständig mit irgendwelchen Nebensächlichkeiten aufgehalten werden. Man könnte den Thread auf ca. 6 Postings kürzen, ohne dass auch nur 1 wertvolle Information verloren ginge, meine Postings eingeschlossen. Sorry an die Moderation.
Wie schon gesagt, du solltest mir dankbar sein, denn schließlich habe ich eine FÜR DICH möglicherweise wertvolle Information rausgelassen- aber offensichtlich willst du nur Gutes über "deine" Karte hören, damit du dich wohlfühlen kannst beim Kauf.
Hmm, WER da wohl in einer Traumwelt lebt...

Gast
2010-04-04, 13:58:58
Glaub mir, DU kannst mir nichts über das echte Leben erzählen, was ich nicht schon wüßte. Eher im Gegenteil, ich könnte dir die Augen öffnen ;)

Wie schon gesagt, du solltest mir dankbar sein, denn schließlich habe ich eine FÜR DICH möglicherweise wertvolle Information rausgelassen- aber offensichtlich willst du nur Gutes über "deine" Karte hören, damit du dich wohlfühlen kannst beim Kauf.
Hmm, WER da wohl in einer Traumwelt lebt...


Genau, weil du mit deinen zwei 295 GTX das Prinzip des Lebens entschlüsselt hast und jetzt Master of Infinity bist.
Vergebt uns Herr dass wir so unwissend sind.

Blaire
2010-04-04, 19:57:02
I[;7949150']lieferbar zu nettem preis :/
http://www.alternate.de/html/shop/productDetails.html?artno=JDXSV5

Dagegen ist selbst die GTX480 ein richtiges Schnäppchen. ;D Aber immerhin ist sie lieferbar. ;)

derguru
2010-04-04, 20:08:43
naja die gibts auch schon lieferbar für ~500euro (http://geizhals.at/deutschland/a519640.html),aber selbst das ist mir noch viel zu teuer,ich hab die 5870 für 320 euro gekauft und sehe ganz sicher nicht ein für eine 2 gb karte fast 200 euro aufpreis zuzahlen.die muss runter mit den preisen aber da mach ich mir auch nicht die sorgen denn sonst bleibt die karten in den regalen.

_DrillSarge]I[
2010-04-05, 06:32:49
vor allem stock-clock karten (und referenzkühlung :rolleyes:). wenn das ding 1000/1500 oder so hätte (:freak:) = gekauft, aber so nicht.

derguru
2010-04-08, 22:07:46
http://www.abload.de/img/metro20337mbs.jpg

5870 2gb 900*1300

Frames, Time (ms), Min, Max, Avg
510, 30000, 14, 20, 17.000

Schlammsau
2010-04-08, 22:09:19
http://www.abload.de/img/metro20337mbs.jpg

5870 2gb 900*1300

:lol:.....wo hast den die 2GB Version her?

Das heisst ja, eine minimal übertaktete 5870/2GB würde mit der 480 gleichziehen.
Jedenfalls in Metro!

y33H@
2010-04-08, 22:09:38
@ derguru

Haste durch OC noch 2 Fps raus geholt, wa? ;D So oder so - beeindruckend.

dllfreak2001
2010-04-08, 22:13:56
Komisch, die HD5er haben bei Metro2033 am Speicher gehangen?
Verdrehte Welt, früher haben die Geforcen immer mehr Speicher gebraucht.

Schlammsau
2010-04-08, 22:15:17
Komisch, die HD5er haben bei Metro2033 am Speicher gehangen?
Verdrehte Welt, früher haben die Geforcen immer mehr Speicher gebraucht.

Die 480 hat ein halbes Gigabyte mehr! Scheint bei Metro der ausschlaggebende Punkt zu sein.

Gast
2010-04-08, 22:16:36
Warum hat AMDs 600€ Flagschiff nur 1GiB bekommen? Nicht im Preis enthalten?

y33H@
2010-04-08, 22:20:35
Seit es MGPU-Karten gibt, sind es VRAM-Krüppel. 79x0 GX2, die 9800 GX2 ein Totalausfall und die GTX295 kaum besser, die HD4870 X2 war ok und die HD5970 ist nur so lala.

derguru
2010-04-08, 22:24:44
@ derguru

Haste durch OC noch 2 Fps raus geholt, wa? ;D So oder so - beeindruckend.

leider ist die sperre drin,hätte gern mit 1ghz gebencht.;(

die staker min fps sind auch ganz nice und in warhead auch siehe benchfred.

Blaire
2010-04-08, 22:41:44
Das heisst ja, eine minimal übertaktete 5870/2GB würde mit der 480 gleichziehen.
Jedenfalls in Metro!

Ähm... 17fps (übertaktete 5870) vs. 21 fps (GTX480 Default) ist schon noch ein bissl. ;) Da wo der VRAM ausgeht, bringt es natürlich auch was. Aber es liegt ja nicht immer nur am VRAM...

Schlammsau
2010-04-08, 22:45:33
Ähm... 17fps (übertaktete 5870) vs. 21 fps (GTX480 Default) ist schon noch ein bissl. ;) Da wo der VRAM ausgeht, bringt es natürlich auch was. Aber es liegt ja nicht immer nur am VRAM...

Oups...hab übersehen das bei PCGH nur die avg und min fps angezeigt werden.
Sorry.....

y33H@
2010-04-08, 22:47:42
Max. Fps sind auch fürn Ar*** ;)

derguru
2010-04-08, 22:47:44
Ähm... 17fps (übertaktete 5870) vs. 21 fps (GTX480 Default) ist schon noch ein bissl. ;) Da wo der VRAM ausgeht, bringt es natürlich auch was. Aber es liegt ja nicht immer nur am VRAM...
das ist aber fermis paradebenchmark,so wie hier der fermi überlegen ist so ist die ati in crysis überlegen.

wie auch immer,jedenfalls sieht es nicht mehr so düster aus in metro.;)

y33H@
2010-04-08, 22:50:56
Bench doch mal bitte 1680 - da ist der VRAM wohl nicht ausschlaggebend.

derguru
2010-04-08, 22:52:28
später bin am laptop.

Blaire
2010-04-08, 23:06:50
das ist aber fermis paradebenchmark,so wie hier der fermi überlegen ist so ist die ati in crysis überlegen.


Beim Unterbieten der Bildqualität? ;D Nee, im Endeffekt läuft es doch eher auf einen Gleichstand hinaus.

dllfreak2001
2010-04-08, 23:11:20
Achso, ich habe nicht daran gedacht, dass die Geforce soviel mehr Speicher hat.

Zu Crysis war das nicht so, dass dieses Gecheate mit der Filterqualität in älteren Treibern nicht drin war?
Schau mal nach und mach mal Benchmarks wenn du kannst oder willst. Der Performance-Unterschied wäre hier sehr interessant.

y33H@
2010-04-08, 23:11:28
Gibt's eigentlich Bilder des PCBs einer Eye6?

Denn die VaporX hat zwar 2G, aber kein Referenz-PCB ergo passt der VRM-R4 nicht und Overvolting geht nicht. OK, der VRM-Kühler der v2.0 ist verschraubt und da OV eh nicht geht, reicht der locker samt einem MK-13. Aber ich werde das Gefühl nicht los, nur eine "halbe" Karte zu kaufen :usad:

Gast
2010-04-08, 23:26:01
Ähm... 17fps (übertaktete 5870) vs. 21 fps (GTX480 Default) ist schon noch ein bissl. ;) Da wo der VRAM ausgeht, bringt es natürlich auch was. Aber es liegt ja nicht immer nur am VRAM...

Genau, da fehlt noch die Treiberoptimierung seitens ATI, da dies ja ein Nv Vorzeigetitel ist.

derguru
2010-04-08, 23:26:22
Bench doch mal bitte 1680 - da ist der VRAM wohl nicht ausschlaggebend.

5870 900/1300
Frames, Time (ms), Min, Max, Avg
579, 30000, 15, 23, 19.300


unter 1920*1200 geht der 470 schon der ram flöten.

hab auch mal warhead unter 8xsgssaa gebencht,16fps avg.im cf sollte es spielbar sein.:biggrin:

y33H@
2010-04-08, 23:29:31
Warhead würde ich mit 1680 samt 4x SGSSAA mal antesten. Das könnte "spielbar" sein. Aber CF @ 30 Fps? Igitt.

Oha - 19,3 ist ein Plus von 17%. Nice nice. War aber mit OC, oder? Falls nein - noch besser ;D

Armaq
2010-04-08, 23:31:40
Falls die Werte stimmen ist es eine Bombenkarte.

y33H@
2010-04-08, 23:35:50
derguru bencht mit dem PCGH-Save nach Anleitung. Ich gehe davon aus, dass sie korrekt sind. Seine Benches mit OC passen rechnerisch und die Werte so an sich auch.

Das stimmt mich freudig - so muss für geile Performanc und viel VRAM kein stromfressener Fermi her und ich habe SGSSAA. Win Win ;D

derguru
2010-04-08, 23:41:42
Falls die Werte stimmen ist es eine Bombenkarte.
nicht übertreiben,es ist eher die ausnahme das sich 2gb rentiert,bombe ist es nur ab und zu.

z.b. dürfte unter y33H@ setting in WH also bei 1680*1050 4xsgssaa sich nicht viel tun zur 1gb variante.

ich bench mal wh und crysis.

y33H@
2010-04-08, 23:47:28
Hmmm, selbst mit der HD5850 @ 1680 mit 4x SGSSAA @ Enthusiast habe ich noch grob 15 Fps [und boah, die Optik flasht jedes Mal erneut ;D]. Allerdings mit Rygel-Texturen. Mit einer HD5870 OC sollten es etwa 20 Fps sein, der Speicher läuft mit Garantie bei den Settings schon über, daher rechne ich mit 25-30 Fps.

LovesuckZ
2010-04-08, 23:50:32
derguru bencht mit dem PCGH-Save nach Anleitung. Ich gehe davon aus, dass sie korrekt sind. Seine Benches mit OC passen rechnerisch und die Werte so an sich auch.

Das stimmt mich freudig - so muss für geile Performanc und viel VRAM kein stromfressener Fermi her und ich habe SGSSAA. Win Win ;D

Was? Nach euch ist die GTX480 immer noch 30% schneller und kostet genauso viel. Für SGSSAA braucht man keine 2GB version, da 8xSGSSAA in den Spielen, wo sich der Speicher auswirkt, sowiso nicht flüssig darstellen lässt.

y33H@
2010-04-08, 23:52:15
Ich zock alles mit Textur-Mods, da sind 2G ein Segen. HD5870/2G @ 950/2.400 MHz ist teils lahmer und teils (klar) schneller als Fermi plus SGSSAA - klingt gut ;)

Und per ATTs kann ich mir ingame die Uhrzeit anzeigen lassen, klares pro Radeon *lach*

Gast
2010-04-09, 00:19:50
Du vergleichst Default vs Übertaktet? Naja.

Davon ab, Texturen sind wichtig, aber nicht die Texturglättung? Ist doch nur ein Kompromiss, mit SGSSAA gibts du auch wiederrum die Hybriden auf.

tombman
2010-04-09, 00:24:31
21fps (GTX480) zu 16fps (HD5870 2Gb ohne OC) ist aber immer noch ein großes Stück, nämlich 30%!
Also wurde es nix mit der 2Gb-Hoffnung in Metro 2033, da selbst CF perfekt skalieren müßte um 30fps zu erreichen- und CF mit 30fps- igitt ;)

Mit 480 SLI werden die 30fps sogar erreicht, wenn es nur zu 50% skaliert, bei normalen 80% wären es schon 37.8fps und mit OC dann 40fps- der SLI-Wohlfühlzone ;)

y33H@
2010-04-09, 00:25:22
Metro µRuckelt mit 40 Fps wie Seuche.

tombman
2010-04-09, 00:27:56
Metro µRuckelt mit 40 Fps wie Seuche.
Was aber dann am Spiel liegt und nicht an MGpu. Dann geht man eben auf 1680x1050, und schon flutscht es wieder- GTX480 SLI kann man nicht aufhalten ;)

Gast
2010-04-09, 00:30:26
Lieferbar um die 450 Euro. Das ist viel zu viel. Sobald die 480 aufschlägt müssen die mit dem Preis runter gehen.

y33H@
2010-04-09, 00:30:45
Es liegt an Metro wie an SLI, beiden tragen ihren Teil bei. Wer schuld ist, ist mir egal - es suckt. Punkt.

derguru
2010-04-09, 00:31:14
Was aber dann am Spiel liegt und nicht an MGpu. Dann geht man eben auf 1680x1050, und schon flutscht es wieder- GTX480 SLI kann man nicht aufhalten ;)
ne versuchs lieber unter 1280*1024 und dank interpolation hast du gleich ein wide-tent modi inkl.:wink:

Armaq
2010-04-09, 00:31:48
Lieferbar um die 450 Euro. Das ist viel zu viel. Sobald die 480 aufschlägt müssen die mit dem Preis runter gehen.
Da du gerade ein Unmöglichkeit im RaumZeitKontinuum vorhergesagt hast, kann deine Bedingung nicht eintreten.

tombman
2010-04-09, 00:32:15
Es liegt an Metro wie an SLI, beiden tragen ihren Teil bei. Wer schuld ist, ist mir egal - es suckt. Punkt.
Spätestens auf 1680x1050 nicht mehr, Punkt ;)

Max Details in jedem game: GTX480 SLI :cool:

Lebt damit ;)

Gast
2010-04-09, 00:33:51
Da du gerade ein Unmöglichkeit im RaumZeitKontinuum vorhergesagt hast, kann deine Bedingung nicht eintreten.

Stimmt, hab mich vertan. Die kostet sogar 490! Die haben doch ein Rad ab...

y33H@
2010-04-09, 00:33:55
Naja, selbst da droppst du an fiesen Stellen weit unter 30 Fps :ulol: Selbst DX10 @ 1680 ist nicht µRuckler-frei ... da muss eine GTX 580 her. So wie in Crysis *SCNR*

LieberAal
2010-04-09, 00:34:07
Metro µRuckelt mit 40 Fps wie Seuche.
Auf ATI Schrott mit Sicherheit, aber never auf dem QualitätsFermi.
Die GTX480 ist die beste Karte ever, direkt nach der FX 5200 - bis heute die einzigen Karte, mit der man Crysis@2560+alleReglerAuf11 ruckelfrei und sorglos genießen kann.

y33H@
2010-04-09, 00:34:51
Oh ja, die FX 5200. Grandioseste Karte ever :ugly:

tombman
2010-04-09, 00:37:50
Naja, selbst da droppst du an fiesen Stellen weit unter 30 Fps :ulol: Selbst DX10 @ 1680 ist nicht µRuckler-frei ... da muss eine GTX 580 her. So wie in Crysis *SCNR*
Ich verstehe, daß du diese Illusion brauchst angesichts der suckage von HD5 ;)

Gast
2010-04-09, 00:38:07
Ey hört mal uff. Die Königskarte ist die ATI 2900XT! Die schlägt man nicht so leicht.

y33H@
2010-04-09, 00:42:01
König der Krüppel die mal Highend sein wollten, ja. Gefolgt von der FX 5800 Ultra und der GTX 480.

Gast
2010-04-09, 00:43:51
nunja, mancher denkt halt so über die 480 und der andere so. Aber soll mir egal sein. Mir fällt nur in vielen Foren auf, das die ATI-Fanboys immer aggressiver werden.

Nochmal zu der 2 Gigabyte Variante: Völlig überteuert!

tombman
2010-04-09, 00:44:02
König der Krüppel die mal Highend sein wollten, ja. Gefolgt von der FX 5800 Ultra und der GTX 480.
Blos, daß die 480er ihr Ziel erreicht hat- schnellste Single-Gpu :ufinger:

y33H@
2010-04-09, 00:45:57
Die FX 5800 Ultra auch :ufinger: Und ups, die HD2900 XT nicht. Naja, dafür hatte sie lange die "Stromsauf"-Krone inne *epic* :uclap: Und nun B2T bitte.

Frage: Die HD5870/1G hat 188W TDP, die Eye6 hat 40W mehr. Was hat eine HD5870/2G Custom-Design? =)

derguru
2010-04-09, 00:47:32
Blos, daß die 480er ihr Ziel erreicht hat- schnellste Single-Gpu :ufinger:
auf biegen und brechen,eine singlegpu mit den nachteilen einer mulitgpu wie verbrauch und temps und dabei aber nicht viel schneller als eine singlegpu,herzlichen glückwunsch.:whistle:

Gast
2010-04-09, 00:51:37
auf biegen und brechen,eine singlegpu mit den nachteilen einer mulitgpu wie verbrauch und temps und dabei aber nicht viel schneller als eine singlegpu,herzlichen glückwunsch.:whistle:

Wo wir bei übertakten sind. Im EVGA Forum wird schon gebencht.

800/1600/2015 ist bei der 480 schon mal drinne:)

tombman
2010-04-09, 00:53:04
auf biegen und brechen,eine singlegpu mit den nachteilen einer mulitgpu wie verbrauch und temps und dabei aber nicht viel schneller als eine singlegpu,herzlichen glückwunsch.:whistle:
Wen interessiert der 2. Mann am Mond? :cool:
Der Abdruck, Baby, der Abdruck! :biggrin:

Tesseract
2010-04-09, 00:53:26
Die FX 5800 Ultra auch :ufinger:

nein.

Gast
2010-04-09, 00:57:31
Wo wir bei übertakten sind. Im EVGA Forum wird schon gebencht.

800/1600/2015 ist bei der 480 schon mal drinne:)

Mit Lüfter auf 100%, ganz toll. :uclap:

Gast
2010-04-09, 00:59:27
Mit Lüfter auf 100%, ganz toll. :uclap:

Weil er keine Eier hat, deswegen. Hätte ich die Karte hätte ich den gesenkt. Egal, bald isses soweit und die 480 ist da. Ist sie ja jetzt schon, siehe EVGA Forum.

Gast
2010-04-09, 01:01:46
Mit Lüfter auf 100%, ganz toll. :uclap:
Enthusiasten haben das nicht nötig.
Deren Radiatoren sind leistungsmäßig darauf eingestellt bei geringer Drehzahl die Wärme abzuführen, sofern sie sich für Lautstärke interessieren und den PC nicht neben dem Klo aufstellen.

Gast
2010-04-09, 01:03:46
auf biegen und brechen,eine singlegpu mit den nachteilen einer mulitgpu wie verbrauch und temps und dabei aber nicht viel schneller als eine singlegpu,herzlichen glückwunsch.:whistle:
Oh, die entscheidenden MGPU Nachteile verschweigen wir, herzlichen Glückwunsch.

Die z.b. dazu führen, das sich eine 5970 im Reallife sich nicht von der GTX 480 absetzen kann.

Gast
2010-04-09, 01:04:20
Es sieht auf jedenfall so aus, als ob sich die 480 doch ganz gut übertakten lässt. Soviel zum "Da geht nix mehr" seitens der ATI-Fanboys.

tombman
2010-04-09, 01:04:27
...neben dem Klo aufstellen.
Der steht NICHT wegen der Lautstärke dort, sondern aus anderen Gründen (Raumaufheizung und Geruchsentwicklung).
Klo= "Serverraum" ;)

y33H@
2010-04-09, 01:04:37
800/1600/2015 ist bei der 480 schon mal drinne
Crap ;D 850/1650/2.400 @ 70% - ha!

LovesuckZ
2010-04-09, 01:05:02
auf biegen und brechen,eine singlegpu mit den nachteilen einer mulitgpu wie verbrauch und temps und dabei aber nicht viel schneller als eine singlegpu,herzlichen glückwunsch.:whistle:

Hä? Nachteile einer mGPU sind bestimmt nicht verbrauch und temps. :rolleyes:

Gast
2010-04-09, 01:10:52
Der Kommentar ist gut.

I am seriously thinking about selling my 5970, the gtx 480 almost matches it I am blown away by this

Keep in mind though that the 2gb 5870 will perform exactly the same as the 1gb version, 2gb version was made to accommodate six monitors and not run out of vram at such a high resolution and thats it, same goes for 4gb 5970.

y33H@
2010-04-09, 01:12:55
Ah ja - "1G the sam as 2G".

Setzen, 6.

Dimon
2010-04-09, 01:15:32
leider ist die sperre drin,hätte gern mit 1ghz gebencht.;(

die staker min fps sind auch ganz nice und in warhead auch siehe benchfred.

Poste mal deinen Stromverbrauch :biggrin:

tombman
2010-04-09, 01:19:13
Poste mal deinen Stromverbrauch :biggrin:
Vorallem zusammen mit der kleinen NV-Karte für Füsix ;D

Dimon
2010-04-09, 01:22:12
Vorallem zusammen mit der kleinen NV-Karte für Füsix ;D

Im endeffekt wird das Kärtle genausoviel verbrutzeln, dabei etwas langsamer sein und kein PhysX oder Cuda besitzen....

Nicht zu vergessen von der mangelnden Tess leistung :freak:

Gast
2010-04-09, 01:23:43
Im endeffekt wird das Kärtle genausoviel verbrutzeln, dabei etwas langsamer sein und kein PhysX oder Cuda besitzen....

Nicht zu vergessen von der mangelnden Tess leistung :freak:

Man kann halt nicht alles haben Freak

Gast
2010-04-09, 01:25:08
Ich bin auch immer wieder am Schmunzeln wenn ich einen mit 5870 und 8800GTX im Sysprofil sehe. Der Widerspruch in Sachen Stromverbrauch schlechthin.

y33H@
2010-04-09, 01:28:38
Habe die Tage meine 88 Ultra vermessen. 83W in 2D *gruselig* :ugly:

Dimon
2010-04-09, 01:28:54
Man kann halt nicht alles haben Freak

Doch kann man wenn einige Leute nicht so engstirnig wären ;)

derguru
2010-04-09, 01:29:21
Vorallem zusammen mit der kleinen NV-Karte für Füsix ;D
apropo füsix,da auch gute nacht.;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7952600&postcount=27

Hmmm, selbst mit der HD5850 @ 1680 mit 4x SGSSAA @ Enthusiast habe ich noch grob 15 Fps [und boah, die Optik flasht jedes Mal erneut ;D]. Allerdings mit Rygel-Texturen. Mit einer HD5870 OC sollten es etwa 20 Fps sein, der Speicher läuft mit Garantie bei den Settings schon über, daher rechne ich mit 25-30 Fps.

performance gut getippt y33H@

5870 2gb 900/1300

links 4sgssaa+ edge inkl.rygel texturen // rechts 4sgsaa inkl.rygel texturen

http://www.abload.de/thumb/crysisrygelbench4sgssa53da.png (http://www.abload.de/image.php?img=crysisrygelbench4sgssa53da.png)http://www.abload.de/thumb/crysisrygelbench4sgssa19zk.png (http://www.abload.de/image.php?img=crysisrygelbench4sgssa19zk.png)

Dimon
2010-04-09, 01:30:07
Habe die Tage meine 88 Ultra vermessen. 83W in 2D *gruselig* :ugly:

Ich glaube meine alte 88GTX hatte mehr 2D verbrauch :)

Woher kommt sowas?

y33H@
2010-04-09, 01:31:43
Du glaubst, ich messe.

Gast
2010-04-09, 01:33:05
und ich weiß es jetzt :ugly:

Dimon
2010-04-09, 01:34:01
Du glaubst, ich messe.

sehr klug :facepalm:

Willst´n Fähnchen zum hochhalten? ;)

Gast
2010-04-09, 01:34:59
Ja hatte auch mal eine 8800GTX und die hatte noch kein 2D-Profil. Am Ende kommt bei einer 5870+8800GTX als PhysX mehr Stromverbrauch im Idle, Unter Last soviel wie eine 480 und PhysX Performance klar unter 480.

y33H@
2010-04-09, 01:35:31
Was soll ich auf dein Post anderes antworten? Du glaubst etwas, hast aber keine Werte. Ich schon [auch für die 88GTX, die hat n bissl über 70W].

Dimon
2010-04-09, 01:37:53
Was soll ich auf dein Post anderes antworten? Du glaubst etwas, hast aber keine Werte. Ich schon [auch für die 88GTX, die hat n bissl über 70W].

Ich sagte doch das ich eine hatte, leider ist dieses wunderbare Kärtle abgeraucht ;(

Du solltest doch ahnung haben wieso sowas vorkommt das eine 88GTX im idle mehr braucht wie ne 88U, oder täusche ich mich da?

Gast
2010-04-09, 01:39:24
Hast du Werte wie es unter Last mit einer 5870+8800GTX aussieht? Man könnte ja Batman AA nehmen. Ich befürchte(!) das wird annähernd 480 Niveau sein.

Hab keine 5870 deswegen kann ich nicht nachmessen.

Gast
2010-04-09, 01:54:19
Du solltest doch ahnung haben wieso sowas vorkommt das eine 88GTX im idle mehr braucht wie ne 88U, oder täusche ich mich da?
Und wir sollen dir glauben, das du die Leistung auf 10W genau SCHÄTZEN kannst?

tombman
2010-04-09, 02:24:34
apropo füsix,da auch gute nacht.;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7952600&postcount=27

Wow, Phys-X @ Low- wie passend für ATi ;D

Ich spiel lieber auf High ;)

Gast
2010-04-09, 16:27:33
Wow, Phys-X @ Low- wie passend für ATi ;D

Ich spiel lieber auf High ;)


Ich pfeif lieber ganz drauf, der Performace Hit auf einer High End Nvidia ist ja gruselig in Relation zum Gebotenen. :D

Gast
2010-04-09, 20:23:47
Wow, Phys-X @ Low- wie passend für ATi ;D

Ich spiel lieber auf High ;)

Du willst wirklich Dark Void spielen, na so toll ist das Spiel nicht.
Kaufst du eigentlich auch Spiele nur aus dem einen Grund weil sie dir PhysX bieten?

Schlammsau
2010-04-09, 20:28:58
Du willst wirklich Dark Void spielen, na so toll ist das Spiel nicht.
Kaufst du eigentlich auch Spiele nur aus dem einen Grund weil sie dir PhysX bieten?

Denk ich auch, das Spiel soll ja wirklich nich so dolle sein.

Für Tombi ist das die neue Art einer Sch****ver******. Er braucht da was zum angeben!

derguru
2010-04-09, 20:32:20
Wow, Phys-X @ Low- wie passend für ATi ;D

Ich spiel lieber auf High ;)


dann versuchs mal im benchmark;)

Gast
2010-04-09, 20:33:29
Was aber dann am Spiel liegt und nicht an MGpu. Dann geht man eben auf 1680x1050, und schon flutscht es wieder- GTX480 SLI kann man nicht aufhalten ;)
Und du willst ein Enthusiast sein?
Ein wahrer Enthusiast kauft sich noch eine dritte GTX480 und übertaktet alle drei damit es auch in 1920x1200 und mehr astrein läuft.

tombman
2010-04-09, 21:09:52
Denk ich auch, das Spiel soll ja wirklich nich so dolle sein.

Für Tombi ist das die neue Art einer Sch****ver******. Er braucht da was zum angeben!
Immerhin hab ich einen Sch**** und keine P****...den braucht man nämlich für GTX4, zusammen mit Ei** :rolleyes:

Kinder...

@Gast: vielleicht mach ich das sogar, sowie noch 3 andere User ;) Zuerst mal 2 Karten zum Abchecken und ne 3. dazu, wenn wir mehr wollen.
Das ist unsere Strategie ;)

btw: Metro2033 @ 19x12 + 4xAA + DX11 maxxed rennt mit 34 fps ohne OC auf GTX480 SLI ;)
Wenn ich auf dem TV/Beamer spiele, sinds schon 10% mehr, wegen 1200 -> 1080, und mit OC sind nochmal 10% drin, also 20%. 34 * 1.2 ~ 40fps.

Gast
2010-04-09, 21:19:14
Immerhin hab ich einen Sch**** und keine P****...den braucht man nämlich für GTX4, zusammen mit Ei** :rolleyes:

Kinder...

@Gast: vielleicht mach ich das sogar, sowie noch 3 andere User ;) Zuerst mal 2 Karten zum Abchecken und ne 3. dazu, wenn wir mehr wollen.
Das ist unsere Strategie ;)
(btw: Metro2033 @ 19x12 + 4xAA + DX11 maxxed rennt mit 34 fps ohne OC auf GTX480 SLI ;))


Dann fehlen ja nur noch 26 FPS + Vsync On damit es spielbar ist.
Da brauchst min. vier GTX 480 Karten die zusätzlich noch massiv übertaktet werden müssen.
Die Wahrscheinlichkeit dass du vier GTX 480 bis zum Jahresende regulär bei einem Händler kaufen kannst, ist so groß wie die Wahrscheinlichkeit vom Blitz erschlagen zu werden.

pest
2010-04-09, 21:19:34
krasse Werte in DarkVoid @guru

tombman
2010-04-09, 21:24:47
Dann fehlen ja nur noch 26 FPS + Vsync On damit es spielbar ist.
Ich definiere "spielbar" aber anders...außerdem spiele ich ohne Vsync, und zwar immer- viel zu viel Input-lag mit Vsync.

corvus
2010-04-09, 21:39:25
Ihr habt alle kräftig einen an der Waffel :lol:
Der eine mit eifinity für +500 + füssigX die anderen mit 2 oder 3 von den Brennern :D

Man was bin ich froh das ich diese Sch... nicht mehr brauch ... und schon garnicht für diesen Metro Schrott.

tombman
2010-04-09, 22:39:09
Man was bin ich froh das ich diese Sch... nicht mehr brauch ...
Aber du brauchst es jedenfalls zu posten wie sehr du es nicht brauchst ;)
Denk mal drüber nach ;)

corvus
2010-04-09, 23:47:34
ach watt, so unterschwellig kann ich garnicht denken ...glaub mirs.

Mayk-Freak
2010-04-10, 00:13:31
Ihr habt alle kräftig einen an der Waffel :lol:
Der eine mit eifinity für +500 + füssigX die anderen mit 2 oder 3 von den Brennern :D

Man was bin ich froh das ich diese Sch... nicht mehr brauch ... und schon garnicht für diesen Metro Schrott.

Du hast wohl Hardwareentzug weil du so unterschwellig rumjammerst.:D

Iruwen
2010-04-10, 00:19:27
Über Metro und Dark Void motzen aber Crysis zocken :freak:

corvus
2010-04-10, 08:06:41
Du hast wohl Hardwareentzug weil du so unterschwellig rumjammerst.:D
nönö ich kloppe mir immer noch auf die Schulter das ich davon bin :D, bis jetzt schaff ich das mein max bei 350€ ohne Waküler zu halten bei Grakas...allerdings gönn ich mir schon mal nen Moni für 900 Öere sowas ist mir mittlerweile mehr "Wert".

corvus
2010-04-10, 08:13:22
Über Metro und Dark Void motzen aber Crysis zocken :freak:

Metro hab schon lange durch auf DX9 und SGSSAA :D und nichts hat mich begeistert....ich dachte immer ich war besoffen alles verwischt und fliegende Teufel :lol:

Dark Void kenn ich garnicht....

und Crysis hatte ich bis vor kurzem noch auf Platte um an und ab ein paar Bildchen zu machen... gespielt.....ist schon Ewigkeiten her.....ich werde jetzt aber wieder installieren um nen Vergleich zu haben :D

Iruwen
2010-04-10, 16:18:59
Metro hab schon lange durch auf DX9 und SGSSAA :D und nichts hat mich begeistert....ich dachte immer ich war besoffen alles verwischt und fliegende Teufel :lol:

:biggrin:

y33H@
2010-04-10, 16:29:51
Zu dumm, dass unter DX9 kein Object Motion Blur geht ...

Tesseract
2010-04-10, 16:39:25
Ich definiere "spielbar" aber anders...außerdem spiele ich ohne Vsync, und zwar immer- viel zu viel Input-lag mit Vsync.

kann ich absolut nicht verstehen. "spielbar" ist für mich ohne tearing und am besten an der refreshrate des monitors pickend. also quasi wie prerendered.
dann ist auch (besonders mit triplebuffer) der inputlag nicht höher als mit irgendeiner <40 FPS gurkerei ohne vsync und man hat zudem kein chop-suey-bild.

für diesen komfort bin ich auch bereit auf ingame details zu verzichten sofern es nicht anders geht.
der "game flow" ist dann einfach 100 mal besser.