PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 480 und 470: (P)Review-Thread


Seiten : 1 2 3 4 5 6 [7] 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28

Megamember
2010-03-27, 23:04:44
Ich finde das PhysiX in Mafia irgendwie übertrieben eingesetzt wurde. Übnerall fliegen dicke Brocken rum und Funken fliegen. Also ein besonderer Kaufgrund für ne 4XX ist da ja wohl nicht wirklich.
SIeht auch nicht wirklich beeindruckend aus als das sowas ohne Physx garnicht möglich wäre.

AYAlf_2
2010-03-27, 23:04:57
hatte jetzt die ati bei alternate fuer 499 glaube gesehen .. hatte in einem anderen forum nen link geklickt.
http://www.hardwareboard.eu/entry.php?4-Aufruf-Wir-werden-siegen!-Wir-sind-unbesiegbar!/page2#comments

tombman
2010-03-27, 23:05:50
Hauptsächlich greife ich gar nicht wegen der Leistung zu NV, sondern wegen 3 Sachen:

DX11+ Phys-X+ SLI

*DX11, weils schon interessanten content gibt, und weils Zeit wird

*Phys-X, weil ich gerne alles sehen will, egal wie unbedeutend.

*Sli deshalb, weil mir die Leistung einer HE-Karte nicht genug ist, selbst wenns nur für eine handvoll games wirklich sinnvoll ist.

Da bleibt am Ende nur GTX480 SLI übrig.

Strom/Hitze/Temperaturprobleme kann man alle umgehen, das ist nur eine Geldfrage.
Eyefinity brauche ich nicht, da ich keine Balken im Sichtfeld haben will.

Mir geht also nix ab, was eine HD5 kann und eine GTX4 nicht. Eine GTX4 kann einfach mehr.

Gast
2010-03-27, 23:05:56
GTX 470 350 Euro ATI 5870 380 Euro. HALLO?

Gast
2010-03-27, 23:06:53
Die Frage ist, ob für alle Details bei "Mafia 2" eine GTX470 schon genügt, oder ob man diese erst ab einer GTX480 genießen kann?

Ah geh, was auf einer 470 nicht vernünftig läuft ist auf der 480 auch nicht deutlich besser. So gross ist der Unterschied nun nicht.

looking glass
2010-03-27, 23:10:48
ich kann mich gar nicht satt hoeren an der gtx480 http://www.youtube.com/watch?v=xfQOU3T0O3Q

wenn was schnell ist muss es auch laut sein und viel verbrauchen .. ist doch in der formel 1 auch so :tongue:

Ich frag mich ja, ob sie diesmal auch so cool an das Thema ran gehen, wie damals bei der Geforce FX 5800, zur Erinnerung:

http://www.youtube.com/watch?v=WOVjZqC1AE4&fmt=18

Gast
2010-03-27, 23:10:57
All the things been driven by PhysX

mehr gibts da nicht zu sagen.

LovesuckZ
2010-03-27, 23:12:25
Ich frag mich ja, ob sie diesmal auch so cool an das Thema ran gehen, wie damals bei der Geforce FX 5800, zur Erinnerung:

http://www.youtube.com/watch?v=WOVjZqC1AE4&fmt=18

Warum sollten sie? Solche Lautstärken sind heute für 300 Watt Monster normal. Und im Gegensatz zu AMD haben sie keine > 10.5" größere Karte gebaut, um sie halbwegs kühlen zu können.
Die 4870x2 war keinen deut besser. Wurde aber nicht annährend mit soviel Häme überhäuft. Und gehypt wurde sie auch - schnellste Karte und so.

Gast
2010-03-27, 23:12:38
Ich frag mich ja, ob sie diesmal auch so cool an das Thema ran gehen, wie damals bei der Geforce FX 5800, zur Erinnerung:

http://www.youtube.com/watch?v=WOVjZqC1AE4&fmt=18

Das kommt drauf an ob die nächste Generation das hält was für diese versprochen wurde. Wenn ja gibts mit Sicherheit eine Neuauflage :)

Gast
2010-03-27, 23:13:08
Also jetzt mal ernsthaft lieber Mod. Ich kenne dich nicht, aber du lässt anscheinend deine persönliche Sichtweise in deine "Arbeit" hier einfließen und das ist eigentlich nicht Sinn der Sache (zumindest sieht es für mich danach aus).

Ich gehe davon aus das dies ist ein freies Forum ist und man sollte an unterschiedlichen Sichtweisen interessiert sein, aber wie gesagt habe ich nicht das Gefühl das dem so ist. Ich beleidige grundsätzlich keine Leute mit meinen Beiträgen also wo ist das Problem?

Exxtreme
2010-03-27, 23:15:26
Also jetzt mal ernsthaft lieber Mod. Ich kenne dich nicht, aber du lässt anscheinend deine persönliche Sichtweise in deine "Arbeit" hier einfließen und das ist eigentlich nicht Sinn der Sache (zumindest sieht es für mich danach aus).

Ich gehe davon aus das dies ist ein freies Forum ist und man sollte an unterschiedlichen Sichtweisen interessiert sein, aber wie gesagt habe ich nicht das Gefühl das dem so ist. Ich beleidige grundsätzlich keine Leute mit meinen Beiträgen also wo ist das Problem?
Auch wenn die Diskussion über moderative Entscheidungen hier im Forum nicht gewünscht ist ...


Billige Einzeiler ala "xyz saugt ihr Fanboys bla..." werden rigoros entfernt.

pXe
2010-03-27, 23:16:39
Für die SLI-Freunde:
http://www.techarp.com/article/NVIDIA/GTX400_Tech_Report/slide_07_big.png

http://www.techarp.com/showarticle.aspx?artno=668&pgno=1

Muhaha, die Balken sind mal wieder ganz doll skaliert.
Auf den ersten Blick dachte ich es geht um 4 way SLI oder mehr.


pXe

Gast
2010-03-27, 23:18:57
Ich frag mich ja, ob sie diesmal auch so cool an das Thema ran gehen, wie damals bei der Geforce FX 5800, zur Erinnerung:

http://www.youtube.com/watch?v=WOVjZqC1AE4&fmt=18
Was soll eigentlich immer der Vergleich mit der FX5800 Ultra? Deren Popellüfter hat(te) 2,88 Watt. Das ist ne Luftpumpe, der ist kreischt nur.
Finden aber viele unangenehm.
Die jetzigen erzeugen wenigstens nur ein dezentes Heulen, das lauteste ist mit Abstand das Rauschen.

AYAlf_2
2010-03-27, 23:19:06
mal ehrlich, wir sind doch alle hier um ein paar nerds zu erleben.. die die eier in der hose haben sich einen sli der aktuellen nvidia generation anzutuen und auch noch darueber berichten. ich bin ganz ehrlich... ich bin auch deswegen hier im forum .. wo gibts denn sonst noch sowas.

vernunft ist fuer weicheier und ati besitzer :tongue: ... der rest kauft nvidia :freak:
(zumindest in dieser generation)

[wer ironie findet darf sie behalten.]

@mods sorry 4 leichtes ot

Don Vito
2010-03-27, 23:21:17
mal ehrlich, wir sind doch alle hier um ein paar nerds zu erleben.. die die eier in der hose haben sich einen sli der aktuellen nvidia generation anzutuen und auch noch darueber berichten. ich bin ganz ehrlich... ich bin auch deswegen hier im forum .. wo gibts denn sonst noch sowas.

vernunft ist fuer weicheier und ati besitzer :tongue: ... der rest kauft nvidia :freak:
(zumindest in dieser generation)

[wer ironie findet darf sie behalten.]

@mods sorry 4 leichtes ot


So sieht es aus.
Jeder flamed und blabla.
aber wissen wollen doch alle was geht und nicht geht, mit SLI usw.

Gast
2010-03-27, 23:21:27
Hauptsächlich greife ich gar nicht wegen der Leistung zu NV, sondern wegen 3 Sachen:

DX11+ Phys-X+ SLI

*DX11, weils schon interessanten content gibt, und weils Zeit wird


Aso, dx11 bietet ati natürlich nicht schon seit über nem halben jahr an, kk!!


*Phys-X, weil ich gerne alles sehen will, egal wie unbedeutend.


Treiberhack 4tw!!


*Sli deshalb, weil mir die Leistung einer HE-Karte nicht genug ist, selbst wenns nur für eine handvoll games wirklich sinnvoll ist.


Für das geld was dir 2*gtx480 +wakü kostet kannst dir auch 4 hd5870 kaufen. Rate mal, was schneller ist!...

Byteschlumpf
2010-03-27, 23:24:43
Ich finde das PhysiX in Mafia irgendwie übertrieben eingesetzt wurde. Übnerall fliegen dicke Brocken rum und Funken fliegen. Also ein besonderer Kaufgrund für ne 4XX ist da ja wohl nicht wirklich.
SIeht auch nicht wirklich beeindruckend aus als das sowas ohne Physx garnicht möglich wäre.
Jau, ich frage mich da auch, wie die beeindruckenden Physikeffekte der CryEngine 2 ohne PhysiX da überhaupt möglich sein sollen? ;)

crux2005
2010-03-27, 23:25:11
Dann habe ich noch 2x MSI + 2x ASUS GTX480 bestellt, weil diese Vcore Adjust bieten. Je nachdem was ich kriegen kann, wirds die eine oder die andere Marke :)

tombman´s back? :biggrin:
dachte beschnitten Grafikkarten kommen bei dir nicht ins Haus...

looking glass
2010-03-27, 23:25:33
Was wird hier über die 5800 geblubbert - es ging mir darum das auch die 5800 als laut galt und sie mit dem Thema auf diese Weise umgegangen sind, ironisch, nicht darum die Sonewerte der 5800 mit der 480 vergleichen zu wollen.

Bucklew
2010-03-27, 23:25:45
vernunft ist fuer weicheier und ati besitzer :tongue: ... der rest kauft nvidia :freak:
ATIler sollen halt auch mal ne Karte aus rationalen Gründen kaufen können und nicht nur aus Sympathie - konnten sie ja schon lange genug net :biggrin:

(der erste post hätte auch ruhig stehen bleiben können, Mods, so schlimm war er ja nun net :rolleyes: )

Gast
2010-03-27, 23:33:52
Ob offen oder nicht sollte bei dem Aufbau dann egal sein wenn die Luftzufuhr ins gehäuse größer ist als die Abfuhr aus dem Gehäuse. ....

Aber das hat man immer, das nicht allein ein Problem der aktuellen NV Generation.
Bei nem offenem Aufbau wirst du IMMER niedrigere Temperaturen haben, gegenüber einem normalen, oder normal gut belüfteten Gehäuse.

Und nein, das Problem hat man nicht immer, denn erst mit so einem Monster wird es zu einem Problem; wenn andere Single GPU Karten 5° wärmer werden, wird man nämlich nicht Taub, oder kann auf der Grafikkarte Kartoffeln kochen.


Leistungstechnisch ist man im Durchschnitt schneller. Von der Architektur deutlich besser auf DX11 abgestimmt als die FX auf DX9. Ich seh da keine FX.

Du willst keine FX sehen, das ist alles.

KEIN Review spricht der GTX480 die Single-GPU-Leistungskrone ab, KEINER.
[ ] Du weißt was ein Durchschnitt ist

Und über Tess. und DX11 müssen wir nicht reden, da wird die HD5 deklassiert ;)

Deklassiert, ich roffel mich weg. Weisst du wo hier wer wen deklassiert? Der RV870 in Performance pro Watt den GF100. Selbst in DX11.

Btw; (moderat) schneller zu sein, heisst nicht besser zu sein.


3.) Was irrelevant ist, entscheidest du nur für dich selbst- für mich ist zb Strom/Hitze/Lautstärke irrelevant.


Wahrscheinlich brauch ich nicht lange, um dich mit früheren Aussagen hier überführen zu können, aber das brauch ich erst gar nicht; wer sich ne GTX 480 für im Schnitt 20% und vereinzelt 50% (bei zum Teil völlig unwichtigen Benches, oder Avg FPS) macht sich lächerlich.

Hauptsächlich greife ich gar nicht wegen der Leistung zu NV, sondern wegen 3 Sachen:

DX11+ Phys-X+ SLI

*DX11, weils schon interessanten content gibt, und weils Zeit wird

*Phys-X, weil ich gerne alles sehen will, egal wie unbedeutend.


DX11? In den meisten fällen bedeutet das nicht spielbarer, und wo es das tut, interessiert den Schinder. Trölfzigfache Performance in Synthetischen Benchmarks interessieren den Schinder.

PhysX? PhysX ist tot. Akzeptier es. Im neusten PhysX Titel fährst du sogar besser mit CPU PhysX als über GPU, wenn der Prozessor schnell genug ist.


Strom/Hitze/Temperaturprobleme kann man alle übergehen, das ist nur eine Geldfrage.
Eyefinity brauche ich nicht, da ich keine Balken im Sichtfeld haben will.


Nur eine Geldfrage? So viel Unvernunft und befremdete Realitätswahrnehmung ist unbeschreiblich.

Gast
2010-03-27, 23:37:12
Was wird hier über die 5800 geblubbert - es ging mir darum das auch die 5800 als laut galt und sie mit dem Thema auf diese Weise umgegangen sind, ironisch, nicht darum die Sonewerte der 5800 mit der 480 vergleichen zu wollen.

Im Moment kann im Grünen Hauptquartier mit ziemlicher Sicherheit niemand drüber lachen. Das braucht Zeit. Und ein gutes Nachfolgeprodukt. :)

Zauberer
2010-03-27, 23:37:30
Da tombman, den ich wirklich sehr schätze, mein Posting nicht erst genommen hat, hier mal ein Screenshot.
Mich interessiert wirklich nur das Crysis Warhead, Enthusiast, 1920x1200, 4aa, 16 AF, DX10, Setting.

Da ich immer noch auf eine Karte warte, die mir das durchspielen ermöglicht.
Darum ist die Karte ein Witz, eine schlechtere und teurere Kopie der ATi 5870, die mit ca. 9 Monaten Verspätung auf dem Markt kommt.
Ich habe eigentlich mindestens 30% höhere Werte als bei ATi in dem Setting erwartet.
Jedenfalls war dies früher bei Nvidia so.

http://freenet-homepage.de/ballzauberer/3dcenter/schwa480.png
Quelle: computerbase.de (http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_nvidia_geforce_gtx_480/16/#abschnitt_crysis_warhead)

Man kann nur hoffen, dass der Refresh mit 512sp und gesenktem Verbrauch, Lautstärke usw. besser ausfällt.

Darum habe ich mir auch die GTX 285 und nicht die GTX 280 geholt, ich bin voll zufrieden mit meiner Karte, und in den Shuttle würde dieses Monster sowieso nicht passen. ;)

AYAlf_2
2010-03-27, 23:38:03
ATIler sollen halt auch mal ne Karte aus rationalen Gründen kaufen können und nicht nur aus Sympathie - konnten sie ja schon lange genug net :biggrin:

(der erste post hätte auch ruhig stehen bleiben können, Mods, so schlimm war er ja nun net :rolleyes: )

wollte erst nicht antworten .. weil das hier dann doch eher weniger mit dem thema zu tun hat.
ganz ehrlich? hier in dem forum gibt es bestimmt nur eine handvoll ati fanboys (wenn ueberhaupt). der grossteil hier im forum ist nvidia glaeubig.
und ich weiss auch nicht was an gesundem preisbewusstsein (preis/leistung) fanboy-verhalten sein soll?
die 4xxx generation war nicht perfekt... aber sie hatte fuer das gebotene ein perfektes p/l verhaeltnis. einen rationaleren grund gibt es fuer mich nicht, sorry.

Gast
2010-03-27, 23:38:18
Wahrscheinlich brauch ich nicht lange, um dich mit früheren Aussagen hier überführen zu können, aber das brauch ich erst gar nicht; wer sich ne GTX 480 für im Schnitt 20% und vereinzelt 50% (bei zum Teil völlig unwichtigen Benches, oder Avg FPS) macht sich lächerlich.
Die 480 ist nie 50% schneller als die 470.

LovesuckZ
2010-03-27, 23:39:11
nVidia sollte die GTX480 Karten mit einem zusätzlichen Lüfter bündeln:
nce the side of the enclosure was open, the fix was pretty simple. I attached a 120mm fan to the top of the enclosure with electrical tape and pointed it directly at the exposed heat pipes. With the fan running around 1500RPM, the GPU temperature gradually dropped a total of 11° Celsius. Furthermore, the noise of the 120mm fan began to drown out the fan on the graphics card, which eventually throttled down to 55%.
http://www.nvnews.net/vbulletin/showthread.php?t=149400


Du willst keine FX sehen, das ist alles.

Ach reunion oder ein der vielen anderen, anonymen Verteidiger von AMD:
Es ist keine FX. Da muss man auch sich nichts einbilden und dauernd wiederholen, dass es doch angeblich eine wäre.

Gast
2010-03-27, 23:42:29
Ach reunion oder ein der vielen anderen, anonymen Verteidiger von AMD:
Es ist keine FX. Da muss man auch sich nichts einbilden und dauernd wiederholen, dass es doch angeblich eine wäre.
Eben, sie ist sogar das Gegenteil einer FX.
Die FX war für die Vergangenheit-Gegenwart gerüstet, die 400er ist für die Gegenwart-Zukunft gerüstet.

Da sie abgesehen davon weder Lautstärke noch Verbrauchsrekorde aufstellt ist sie etwas 1005ig anderes.

tombman
2010-03-27, 23:43:46
Aso, dx11 bietet ati natürlich nicht schon seit über nem halben jahr an, kk!!
Ohne die anderen Sachen konnte ich aber warten.

Treiberhack 4tw!!

Ja klar, ich soll ne zusätzliche NVIDIA Karte kaufen, damit ich dann einen Slot verliere und ansonsten weniger habe, als
wenn ich mir gleich eine GTX4 gekauft hätte- vollkommen logisch :ugly:

Für das geld was dir 2*gtx480 +wakü kostet kannst dir auch 4 hd5870 kaufen. Rate mal, was schneller ist!...
Ne, weil nur mehr 6 slots für die Karten übrig bleiben, du hast den Überblick über deinen eigenen Plan verloren.
1 Karte ist ja eine gehackte NV Karte für Phys-X. Und dann kannst noch einen Slot abziehen wegen der Soundcard, die hätte
ich nämlich auch gerne im System. Bleiben also nur 2x HD5870+ 1x NV + 1x Sound (4 Slots + 1 Slot + 1 Slot= 6 slots)
Bei 4x HD5 geht weder Phys-X noch Sound, da es 8 slots sind- außerdem wären das 1600€.
Ich zahle für 2x GTX480 @ Wakü unter 1100 Euro. (Wakü nur 20€ pro Stück ;))

Und wer will überhaupt schneller sein, wenn ALLES @ flüssig mit nur 2 Gpus rennt? ;)
Man muß sich ja nicht freiwillig maximale MR aufhalsen, wenn auch anders geht :)

SLI mit 2 Gpus hat am wenigsten MR, wenn es denn MGPU sein muß- und bei mir muß es das eben, weil ich in Crysis und co. keine 3x fps haben will, wenns auch anders geht.

@Zauberer: selbst +30% hätten nicht viel geholfen in Crysis, da 26fps * 1.3 auch nur 33fps sind. Ein größeres Feuergefecht, und du bist unter 30fps- garantiert. Es gibt noch keine Single-gpu, die Crysis maximiert alleine packt.
Da braucht man 2 Gpus, und am besten von NV WEGEN SLI ;)

urfaust
2010-03-27, 23:44:02
Ich nutze z.B. ein Notebook als "Hauptrechner"

Also mit "sowas" würd ich mich net als "Hauptrechner" abgeben,
das ist nix halbes und nix ganzes. Für einen "Enthusiasten" sehr inkonsequent muss ich bemerken (!!!)
Dicken BMW vor der Tür aber nix im Kühlschrank.


Da relativisiert sich doch eher die Sache mit Verbrauch;)


so ein Notebook kostet ja nix..


Mit dieser Tatsache stehe ich sicher nicht alleine da.

auch Randgruppen haben ihre Daseinsberechtigung

AYAlf_2
2010-03-27, 23:45:01
Ach reunion oder ein der vielen anderen, anonymen Verteidiger von AMD:
Es ist keine FX. Da muss man auch sich nichts einbilden und dauernd wiederholen, dass es doch angeblich eine wäre.

du verkennst hier was .. amd/ati muss sich nicht verteidigen. die haben dieses mal alles richtig gemacht. hier geht es um die gtx480/470. bitte beim thema bleiben.

Eggcake
2010-03-27, 23:48:55
Bei nem offenem Aufbau wirst du IMMER niedrigere Temperaturen haben, gegenüber einem normalen, oder normal gut belüfteten Gehäuse.

Das ist Blödsinn. Mit einigen Sekunden bis Minuten Überlegung kommst du auch selbst drauf...verallgemeinern will ich jetzt nicht, aber bei mir war bis jetzt immer das umgekehrte der Fall. Wenn nicht, wurde das Gehäuse falsch belüftet. Kommt jetzt natürlich draufan was du mit "offenem Aufbau" meinst.

Edit: Und ich bin dafür, dass GastAccounts für eine Weile deaktiviert werden. Ist langsam wirklich genug...

Gast
2010-03-27, 23:49:14
Ohne die anderen Sachen konnte ich aber warten.

Ja klar, ich soll ne zusätzliche NVIDIA Karte kaufen, damit ich dann einen Slot verliere und ansonsten weniger habe, als
wenn ich mir gleich eine GTX4 gekauft hätte- vollkommen logisch :ugly:

Für das geld was dir 2*gtx480 +wakü kostet kannst dir auch 4 hd5870 kaufen. Rate mal, was schneller ist!...[/QUOTE]
Ne, weil nur mehr 3 slots für die Karten übrig bleiben, du hast den Überblick über deinen eigenen Plan verloren.
1 Karte ist ja eine gehackte NV Karte für Phys-X. Und dann kannst noch einen Slot abziehen wegen der Soundcard, die hätte
ich nämlich auch gerne im System. Bleiben also nur 2x HD5870+ 1x NV + 1x Sound (4 Slots + 1 Slot + 1 Slot= 6 slots)
Bei 4x HD5 geht weder Phys-X noch Sound, da es 8 slots sind- außerdem wären das 1600€.
Ich zahle für 2x GTX480 @ Wakü unter 1100 Euro. (Wakü nur 20€ pro Stück ;))

Und wer will überhaupt schneller sein, wenn ALLES @ flüssig mit nur 2 Gpus rennt? ;)
Man muß sich ja nicht freiwillig maximale MR aufhalsen, wenn auch anders geht :)[/QUOTE]

bitte mach dir einen twitter account, es interessiert keinen

Spasstiger
2010-03-27, 23:51:58
Und "Lautstärken, die einen Wert von 40 db tagsüber bzw. 30 db nachts überschreiten, stellen grundsätzlich eine Überschreitung der Zimmerlautstärke dar. Dies kann jedoch auch für Geräusche unterhalb dieses Pegels gelten, wenn sie nach dem Empfinden eines Durchschnittsmenschen wegen ihrer physiologischen oder psychologischen Wirkung als störend empfunden werden".
Beim Nachbarn kommen aber selbst in ungünstigen Fällen nur noch 10 dB(A) an. Das ist schon nahe der Wahrnehmungsschwelle.
/EDIT: Ich fass es nicht, dass ich auf solche Trollpostings auch noch eingehe. Eine Grafikkarte, die in Spielen leiser ist als eine Radeon HD 4890, soll in Benutzung den Straftatbestand der Ruhestörung erfüllen. :rolleyes:

P.S.: Die Nintendo Wii stellt mit 70 dB(A) im DVD-Spielebetrieb ja schon eine Gefahr für Leib und Leben dar: http://www.pregamelobby.com/forum/gaming-news/2680-console-noisiest.html. ;)

Gast
2010-03-27, 23:52:09
AMD braucht wohl keiner zu verteidigen. Die Reviews der GTX480 sprechen für sich. Sie ist ein absoluter FAIL und da hilft auch das ständige beschwören der angeblichen Zukunftssicherheit überhaupt nichts, zumal hier keiner weiß wie sich die Game-Industrie entwickelt. Dank der veralteten Konsolen werden auch DX11-Titel Ausnahmen bleiben und wie stark in diesen Titeln dann Gebrauch von Tesselation gemacht wird weiß absolut niemand.

Wenn ich eine Graka brauche dann interessiert mich, was sie jetzt und heute leisten kann (in realen Games und nicht in synthetischen Benchmarks) und nicht wo sie vielleicht in 12 Monaten steht.

Die Situationen in denen eine GTX480 den Unterschied zwischen spielbar oder unspielbar gegenüber HD5870 ausmacht gibt es einfach so gut wie nicht.

Armaq
2010-03-27, 23:57:46
Bleibt zu hoffen, dass dieses Jahr überhaupt noch Bewegung in den Markt kommt. ATI mit offenen Profilen wäre zumindest für unsere MGPU-Freunde etwas nettes.

Nvidia muss dringend etwas nachschieben, dass nicht als Heizung durchgeht. Der Refresh von Fermi wird sicherlich in allen Punkten besser und der kleine Ableger scheint sich ja zu mausern (GF104).

Die Messe zu Fermi ist abgesungen und klang nicht wirklich überzeugend. Ich ordne den 100 auf Höhe der HD2900/3800-Serie ein. Die hat auch nicht wirklich jemand gekauft.

realist.
2010-03-27, 23:58:29
Das ist Blödsinn. Mit einigen Sekunden bis Minuten Überlegung kommst du auch selbst drauf...verallgemeinern will ich jetzt nicht, aber bei mir war bis jetzt immer das umgekehrte der Fall. Wenn nicht, wurde das Gehäuse falsch belüftet.

Das hat nichts mit Überlegungen zu tun; wenn keiner der Gehäuselüfter direkt auf die Grafikkarte bläst, hast du keine Zusätzliche Wärmeabfur. Wenn es doch einer tut, aber die gesammte Wärme nicht ausreichend aus dem Gehäuse geführt wird, hilft es ebenso wenig.
Und da du selbst mit 500 Lüftern IM Gehäuse keine niedrigeren Temperaturen schaffst, wie die Umgebungstemperatur ausserhalb des Gehäuses ist, ist es wirklich nur mit perfekter Gehäusekühlung möglich, eine Bessere Kühlleistung zu erreichen, als mit einem offen stehenden Board - selbst das ginge besser mit zwei langsam drehenden Lüftern direkt auf die Karte geblasen - mach das mal bei nem 0815 Gehäuse.

Du brauchst also nicht nur nen Top Gehäuse, sondern auch X langsam drehende Lüfter (denn darum geht es ja auch, wenn die Lautstärke egal ist, kann man auch den GPU Lüfter manuell hoch drehen lassen), und ggf. nen neues Netzteil (vorzugsweise mit Kabel Management sein).

Btw, ich hab ne Palit / Xpertview 8800 GT
die mit jener Kühlung (http://www.techpowerup.com/img/07-10-30/Palit_8800GT.jpg), und die Lautstärke suckt derbe, obwohl sie seinerzeit als recht gut beschrieben wurde.
Ich möchte garnicht wissen was die GTX 480 in meinem Gehäuse veranstalten würde.
Ob sie lauter ist als die 6600 GT AGP die ich mal hatte? Die war Brütal!

PHuV
2010-03-28, 00:00:51
Die Reviews der GTX480 sprechen für sich. Sie ist ein absoluter FAIL und da hilft auch das ständige beschwören der angeblichen Zukunftssicherheit überhaupt nichts, zumal hier keiner weiß wie sich die Game-Industrie entwickelt.

Da irrst Du Dich, ich glaube, die Karte wird ein Renner, zwar nicht als Grafikkarte, sondern als Numbercruncher. So eine Rechenleistung für entsprechendes Geld, das ist (aktuell) konkurrenzlos. Hättest Du bei der 1.Vorstellung von Fermi aufgepaßt, hättest Du genau erfahren, in welche Richtung Nvidia mit Fermi denkt, Richtung Forschung, Entwicklung, Medizin. Hier wird die Karte wohl ein richtiger Renner, und daß sie nebenbei noch eine sehr gute (nicht die beste) Grafikkarte ist, spricht für diese Architektur.

AnarchX
2010-03-28, 00:05:25
Da irrst Du Dich, ich glaube, die Karte wird ein Renner, zwar nicht als Grafikkarte, sondern als Numbercruncher. So eine Rechenleistung für entsprechendes Geld, das ist (aktuell) konkurrenzlos.
Von der Rechenleistung ist Cypress in einigen Szenarien mit seinen 2,72TFLOPs doch deutlich überlegen. In China gibt es wohl schon einen Supercomputer mit "günstigen" HD5970.

Gast
2010-03-28, 00:06:10
Das mag sein, aber mich interessiert nur die Gaming-Leistung.

Byteschlumpf
2010-03-28, 00:06:48
Das Hauptproblem des GT100 ist nunmal dessen sehr hoher Energieverbrauch und die damit einhergehende hohe Temperatur sowie überaus laute LuKü!
Ohne diese Problematik wäre die neue GTX eine gute Wahl!

Dem FPS-Junkie ist das aber worscht - der legt sich sowieso ein SLI-Gespann der GTX480 zu - der Besonnene würde dagegen zu einer HD5850/70 greifen, wenn man eine solche Karte in naher Zukunft zu halbwegs humanen Preisen irgendwann mal bekommen könnte! ;)
Somit liegt also die Hoffnung auf einem baldigen Refresh des GT100 (GT100b?), der noch höhere Leistung mit leiser LuKü kombiniert - und alle wären glücklich! :)

deekey777
2010-03-28, 00:08:36
Da irrst Du Dich, ich glaube, die Karte wird ein Renner, zwar nicht als Grafikkarte, sondern als Numbercruncher. So eine Rechenleistung für entsprechendes Geld, das ist (aktuell) konkurrenzlos. Hättest Du bei der 1.Vorstellung von Fermi aufgepaßt, hättest Du genau erfahren, in welche Richtung Nvidia mit Fermi denkt, Richtung Forschung, Entwicklung, Medizin. Hier wird die Karte wohl ein richtiger Renner, und daß sie nebenbei noch eine sehr gute (nicht die beste) Grafikkarte ist, spricht für diese Architektur.
Soll das ein Scherz sein?

Überhaupt: So, wie der GF100 aktuell ist, wird er große Schwierigkeiten in einem Supercomputer Platz zu finden.

Gast
2010-03-28, 00:11:49
Dem FPS-Junkie ist das aber worscht - der legt sich sowieso ein SLI-Gespann der GTX480 zu

Wieviele sind das? 0.5%? Oder ist das schon zu hoch gegriffen? Also, auch wenn die besonders laut schreien, relevant sind sie in keiner Beziehung.

Gast
2010-03-28, 00:11:51
Ich glaube leider das bis Ende des Jahres wohl nicht mit einem Refresh der GTX4xx zu rechnen ist und auch MGPU halte ich für ausgeschloßen. Wie sollte das auch gehen.

Gast
2010-03-28, 00:14:29
Von der Rechenleistung ist Cypress in einigen Szenarien mit seinen 2,72TFLOPs doch deutlich überlegen. In China gibt es wohl schon einen Supercomputer mit "günstigen" HD5970.
Man darf nicht vergessen, die 1,344TFLOPs der GTX 480 kann man gut mit entsprechenden 2TFLOPs einer GTX 200 vergleichen, die wiederrum besser als eine HD4 auszulasten war.

AYAlf_2
2010-03-28, 00:15:25
mein fazit zur gtx4xx

die foren sind voll von entaeuschten kunden. und dabei sind die sogenannten ati-fanboys noch nicht mal die, die am meisten auf den karten rumtrampeln, am schlimmsten sind die entaeuschten nvidia fans.

eines hat nvidia jetzt schon geschafft ..die karten sorgen schon vor dem release und ohne spiele fuer eine mega unterhaltung.

danke nvidia! :redface:

Gast
2010-03-28, 00:16:28
Ich glaube leider das bis Ende des Jahres wohl nicht mit einem Refresh der GTX4xx zu rechnen ist und auch MGPU halte ich für ausgeschloßen. Wie sollte das auch gehen.
Schön wärs wenn wenigsten Nvidia den Markt von MGPU verschönen würde.
Allerdings ist Dual GF104 sehr gut möglich.

realist.
2010-03-28, 00:16:36
Da irrst Du Dich, ich glaube, die Karte wird ein Renner, zwar nicht als Grafikkarte, sondern als Numbercruncher. So eine Rechenleistung für entsprechendes Geld, das ist (aktuell) konkurrenzlos. Hättest Du bei der 1.Vorstellung von Fermi aufgepaßt, hättest Du genau erfahren, in welche Richtung Nvidia mit Fermi denkt, Richtung Forschung, Entwicklung, Medizin. Hier wird die Karte wohl ein richtiger Renner, und daß sie nebenbei noch eine sehr gute (nicht die beste) Grafikkarte ist, spricht für diese Architektur.

Träumer .. was für Numbercruncher sollen sich die Karte denn kaufen, hm?
Jene, die meinen ihr Geld für Folding@Home aus dem Fenster zu werfen? Na herzlichen Glückwunsch, sie erhalten mit dieser Karte nur eine Performancesteigerung von 50-70% (http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=18), viel Spaß. Auch beim md5 hashes hacken, da war die 4000er schon dem G200 überlegen.

Und im Industirellen bereich? Für Racks, für GPGPU Rack Systeme? Bei dieser miesen Performance pro Watt Leistung? Wo Nvidia gerade erst die vielfache Mehrleistung von ATI in DP erreicht hat? Wo die Karte in Leistungsaufnahme ist? Stell dir mal nen Tianhe-1 vor, Platz 5 in der Liste der Top 500 der Supercomputer .. wie der mit 2560 GTX 480 abgehen würde .. da schlackert selbst unser Bundes Guido mit den Ohren.

Hör doch bitte auf zu Träumen.

deekey777
2010-03-28, 00:18:06
Man darf nicht vergessen, die 1,344TFLOPs der GTX 480 kann man gut mit entsprechenden 2TFLOPs einer GTX 200 vergleichen, die wiederrum besser als eine HD4 auszulasten war.
Und warum genau darf man das nicht vergessen?
Wenn die Rechenleistung nicht da ist, dann ist sie nicht da. Man kann sie nicht aus dem Hut zaubern.

tombman
2010-03-28, 00:18:16
Wieviele sind das? 0.5%? Oder ist das schon zu hoch gegriffen? Also, auch wenn die besonders laut schreien, relevant sind sie in keiner Beziehung.
Als ob HighEnd generell relevant wäre...

AYAlf_2
2010-03-28, 00:20:28
Als ob HighEnd generell relevant wäre...
richtig, ist es nicht .. dafuer gibt es ja u.a. dieses forum .. hier ist es relevant!

Gast
2010-03-28, 00:23:15
Auch wenn es unvernünftig ist.......

ich hab mir heute auch 2 (bzw. 2x2 falls beim einem Shop nix kommt) 480er bestellt .......

Wärme = Egal wozu gibts ne gute Wakü?
Strom = Irgend nen Sinn müssen 1000 Watt Netzteile haben ;)
Leistung = Besser sowas als wie ein Crossfire mit dem man sich dauernd rumärgern muss :)

Und für jeden der mich für nen dummen Flamer nur hällt:
Lasst doch die 480er Käufer, Käufer sein ....... nicht jeder muss auf Umwelt / Vernunft und Stromrechnung achten........

In diesem Sinne :)

Gast
2010-03-28, 00:26:29
Und warum genau darf man das nicht vergessen?
Wenn die Rechenleistung nicht da ist, dann ist sie nicht da. Man kann sie nicht aus dem Hut zaubern.
Wenn man sie nicht nutzt ist sie im Endeffekt ebenfalls nicht da.

Aber du hast sicher eine gute Erklärung für die brachiale Furmark Performance, bei gerade mal 30% mehr FLOPs, bzw sogar drastisch weniger im Vergleich zur GTX 295.

deekey777
2010-03-28, 00:27:50
Wenn man sie nicht nutzt ist sie im Endeffekt ebenfalls nicht da.

Aber du hast sicher eine gute Erklärung für die brachiale Furmark Performance, bei gerade mal 30% mehr FLOPs, bzw sogar drastisch weniger im Vergleich zur GTX 295.
Furmark ist also eine GPGPU-Anwendung.

realist.
2010-03-28, 00:28:33
Und für jeden der mich für nen dummen Flamer nur hällt:
Lasst doch die 480er Käufer, Käufer sein ....... nicht jeder muss auf Umwelt / Vernunft und Stromrechnung achten........

In diesem Sinne :)

Wenn du dir 2 solche Karten in den Rechner steckst, trotz dessen du dir bewusst bist, das dies eigentlich Unverfünftig ist, ist alles in Butter.
Dekadenten 'uberkonsum' gibts ja überall, aber das ist ja jeder man(n)s recht.

Aber wenn gewisse Individuen die Tatsachen verdrehen, schön reden, verharmlosen, und mehr oder minder einfach Lügen erzählen, ist das etwas völlig anderes.

Viel Spaß mit deinem System, wenn du die möglichkeit hast, stell die Kiste ausserhalb des Raumes, in dem du dich beim Zocken aufhalten möchtest.

Gast
2010-03-28, 00:31:49
Auch wenn es unvernünftig ist.......

ich hab mir heute auch 2 (bzw. 2x2 falls beim einem Shop nix kommt) 480er bestellt .......

Wärme = Egal wozu gibts ne gute Wakü?
Strom = Irgend nen Sinn müssen 1000 Watt Netzteile haben ;)
Leistung = Besser sowas als wie ein Crossfire mit dem man sich dauernd rumärgern muss :)

Und für jeden der mich für nen dummen Flamer nur hällt:
Lasst doch die 480er Käufer, Käufer sein ....... nicht jeder muss auf Umwelt / Vernunft und Stromrechnung achten........

In diesem Sinne :)


Ist ja auch ok. Du kannst schließlich machen was du willst, aber was mich stört ist einfach das einige NV für diese Karten auch noch auf die Schulter klopfen und sagen "tolle Leistung NV". Diese Karten gehören einfach hart kritisiert (ja auch die GTX470 obwohl sie die deutlich bessere bzw "rundere" der beiden ist), denn NV soll sich das ja zu Herzen nehmen und beim nächsten mal was besseres abliefern.

derguru
2010-03-28, 00:48:58
hier ist doch die stärke der fermis klar zusehen,in alten schinken.;)
wieso wird eigentlich so ein grafkkracher von game gebencht?wenn man wenigstens mit ssaa gebencht hätte.
http://www.pcgameshardware.de/aid,743499/Geforce-GTX-470-und-480-im-Benchmark-Test-mit-World-of-Warcraft/Grafikkarte/Test/

Eggcake
2010-03-28, 00:51:44
Das hast du den vielen WoW-Suchties zu verdanken, welche für das Spiel gestimmt haben nehme ich an... :)
WoW kann ja durchaus auch fordernd sein (wenn auch eher für die CPU). Da nicht beide Karten offiziell SSAA können bzw. der gemeinsame Nenner bei MSAA liegt, bleibt eben nur das übrig.

Gast
2010-03-28, 00:55:44
hier ist doch die stärke der fermis klar zusehen,in alten schinken.;)
wieso wird eigentlich so ein grafkkracher von game gebencht?wenn man wenigstens mit ssaa gebencht hätte.
http://www.pcgameshardware.de/aid,743499/Geforce-GTX-470-und-480-im-Benchmark-Test-mit-World-of-Warcraft/Grafikkarte/Test/
Viel wäre nicht drin gewesen, halt 8xS oder 16xS.

Das Blöde ist halt tatsächlich, das man hier der Vergleichbarkeit wegen sowas nicht testen kann.
Aber ich nehme doch stark an, das da noch ein ein SSAA Spezial kommt, eben dann Geforces unter sich?

derguru
2010-03-28, 00:58:03
ich will nicht zwingend eine vergleichbarkeit,mir würde schon reichen wie die sich zur alten generation verhalten.

Eggcake
2010-03-28, 01:01:12
Wäre natürlich schon toll, wenn man sowas auch noch testen würde. Allgemein finde ich den Ansatz von z.B. HardOCP (glaube die waren's) garnichtmal so schlecht die Spiele in den Einstellungen zu benchen, welche noch gut spielbar sind.
Das könnte man für ausgewählte Karten evt. noch separat machen, damit die Vergleichbarkeit nicht ganz flöten geht, aber das ist doch etwas, was fast am meisten interessiert.
So würde man sehen, dass man (rein hypothetisches Beispiel) Spiel XY mit einer GTX480 in 32CSAA super spielen kann, währenddem man sich mit der HD5870 mit 4xMSAA begnügen muss. Das finde ich von der Aussagekraft fast interessanter als Balkenvergleiche. Natürlich kann man das auch immer irgendwie herleiten, das ist klar. Wenn man sieht, dass ein Spiel bei Karte X mit 40FPS avg. rennt und bei Karte Y mit 25FPS avg. dann sieht man schon, dass es bei der einen spielbar ist, bei der anderen nicht. Stehen hingegen 80FPS zu 65FPS, dann ist ja der Vorsprung toll, aber ich würde gerne wissen was mir das BQ-mässig abseits der 15FPS mehr, welche eher uninteressant sind, möglich ist und bei der anderen nicht.

Mal so als Gedankenanstoss für zukünftige Tests - denn momentan wird zwar viel über AA-Modi etc. geschwatzt, aber praktisch nie wirklich verglichen wie gut aktuelle Games damit spielbar sind.

tombman
2010-03-28, 01:06:06
Ist ja auch ok. Du kannst schließlich machen was du willst, aber was mich stört ist einfach das einige NV für diese Karten auch noch auf die Schulter klopfen und sagen "tolle Leistung NV". Diese Karten gehören einfach hart kritisiert (ja auch die GTX470 obwohl sie die deutlich bessere bzw "rundere" der beiden ist), denn NV soll sich das ja zu Herzen nehmen und beim nächsten mal was besseres abliefern.
Kritisieren kann man viel, auf beiden Seiten. Tatsache ist, daß gaming auf dem PC auf NV besser rennt,
da mehr zu sehen ist (Phys-X), NV mehr Einfluß auf die Entwickler hat (TWIMTBP) und generell das Feld nicht kampflos
den Konsolen überlassen will. AMD tut nur das Nötigste, um im Spiel zu bleiben.(sorry, meine Meinung)
Die etwas bessere MGPU Lösung hat NV auch (SLI), also sind sie weiterhin die Nr.1 für mich.
Diese 6 Monate Rückschlag waren wohl übertriebener Größenwahn in Kombination mit der Unfähigkeit von TSMC.
Ich hoffe, NV hat daraus gelernt, aber sie sind eben wie ein sehr talentiertes Kind, das oft 2 Schritte auf einmal gehen will.
Enthusiasmus gehört einfach unterstützt- aber natürlich ist das nicht der Grund warum ich persönlich GTX4 haben will- das hat
eher damit zu tun:
http://www.abload.de/img/slide_31_big955h.png (http://www.abload.de/image.php?img=slide_31_big955h.png)

Gast
2010-03-28, 01:06:44
"Versöhnliche"Review bei bsn:
http://www.brightsideofnews.com/news/2010/3/26/nvidia-geforce-gtx-480--gtx-480-sli-review.aspx?pageid=0
Interessante Sachen dabei:
sli
...und
"ElcomSoft Wireless Security Audit and iPhone Password Breaker applications are heavily used by intelligence agencies. More important for us, they utilize GPU to the fullest"
nichts ist sicher... :up:

mapel110
2010-03-28, 01:12:42
We spoke with Lars Weinand, who told us that Release 256 Driver will come in the next two to three weeks time.
Vielleicht wäre es besser gewesen, diese 2-3 Wochen auch noch zu warten. Aber man wollte wohl Quartal1 als Termin halten.
Dann hätte man zumindest alle Features präsentieren und testen lassen können und die Karten wären kaufbar.

tombman
2010-03-28, 01:21:20
Ist das also ein Sprung von 197 auf 256, oder wie?

AYAlf_2
2010-03-28, 01:23:33
Kritisieren kann man viel, auf beiden Seiten. Tatsache ist, daß gaming auf dem PC auf NV besser rennt,
da mehr zu sehen ist (Phys-X), NV mehr Einfluß auf die Entwickler hat (TWIMTBP) und generell das Feld nicht kampflos
den Konsolen überlassen will. AMD tut nur das Nötigste, um im Spiel zu bleiben.(sorry, meine Meinung)
Die etwas bessere MGPU Lösung hat NV auch (SLI), also sind sie weiterhin die Nr.1 für mich.
Diese 6 Monate Rückschlag waren wohl übertriebener Größenwahn in Kombination mit der Unfähigkeit von TSMC.
Ich hoffe, NV hat daraus gelernt, aber sie sind eben wie ein sehr talentiertes Kind, das oft 2 Schritte auf einmal gehen will.
Enthusiasmus gehört einfach unterstützt- aber natürlich ist das nicht der Grund warum ich persönlich GTX4 haben will- das hat
eher damit zu tun:
http://www.abload.de/img/slide_31_big955h.png (http://www.abload.de/image.php?img=slide_31_big955h.png)

alter .... wenn du kein nvidia fanboy bist .. dann weiss ich es auch nicht mehr :smile:. es lebe nvidia ...;D
verzeih mir .. aber so eine schwachsinnige tabelle gibt es echt nur von nvidia. denen ist echt nix zu peinlich. selbst mit dem chip offensiv nach vorne, nur so glaubt der kunde das. auch wenn es voellig schwachsinnig und belanglos ist.

€: axo .. meiner meinung nach ebnet nvidia mit dem schwachsinn den konsolen den weg. ati ist da wesentlich mehr angagiert ... (meine meinung)

AnarchX
2010-03-28, 01:25:50
Ist das also ein Sprung von 197 auf 256, oder wie?
Ja, weil einige Spiele Probleme machen mit einem Treiberstring < x56.xx.

Dural
2010-03-28, 01:26:47
Soll das ein Scherz sein?

Überhaupt: So, wie der GF100 aktuell ist, wird er große Schwierigkeiten in einem Supercomputer Platz zu finden.

lol ist jetzt aber nicht dein ernst?!? Die 300Watt sind ja nichts im Vergleich was CPUs für die selbe Leistung Verbrauchen würden! Übrigens kommen die Tesla erst mit Bx

tombman
2010-03-28, 01:26:50
alter .... wenn du kein nvidia fanboy bist .. dann weiss ich es auch nicht mehr :smile:. es lebe nvidia ...;D
verzeih mir .. aber so eine schwachsinnige tabelle gibt es echt nur von nvidia. denen ist echt nix zu peinlich. selbst mit dem chip offensiv nach vorne, nur so glaubt der kunde das. auch wenn es voellig schwachsinnig und belanglos ist.
Wo lügt NV denn?

Außerdem kennst du meine Gründe sehr genau, und das hat nix mit Bias zu tun.
Wenn AMD Phys-X und etwas zu SLI Vergleichbares hat-> immer her damit ;)
Ich hatte schon ATI, aber das weißt du eh. Tatsächlich habe ich eine HD4850 2GB hier :)

Dural
2010-03-28, 01:45:59
Wir nehmen einfach mal an, dass deine "Werte" stimmen.
Und jetzt schauen wir uns gemeinsam einfach mal an, was bei Computerbase bezüglich des Gesamtsystemverbrauchs unter Last steht:

4870 - 320W
4890 - 324W
5870 - 305W

GTX 285 - 336W
GTX 480 - 452W

Der GF100 läuft auf der GTX480 also nicht mal "voll"?...na da freue ich mich aber, wenn das Teil mal "voll" läuft. :rolleyes:

was willst du mit den Werten sagen??? 100Watt wenniger wären 350Watt und das wäre völlig OK, viel aber OK für die Leistung! Gerademal 20Watt mehr als eine GTX285

und die 32SP würde wohl kaum einen einfluss auf den Verbrauch machen und es ist ja nicht mal sicher ob die komplett getrennt sind, da könnte sogar noch Strom drauf sein...


Aber ATI hat nunmal nicht alles der MAxleistung geopfert.

Nicht? ATI hat beim RV870 alles Verdoppelt im Vergleich zum RV790! Der RV870 hat ca. 130% mehr Transistoren als RV790!!! und dabei gerade mal 50% rausgeholt... zum Glück ist der Verbrauch so gering...

GF100 übrigens nur ca. 120% im Vergleich zum GT200 ;)

Die Effizient (Leistung/Transistoren) nahm bei ATI im Vergleich zu NV damit sogar ab!

Einziger Kritik-Punkt ist und bleibt der Strom Verbrauch, die Architektur in sich ist für die Zukunft doch sehr gut gerüsstet! NV muss quassi nur den Verbrauch in den Griff bekommen und steht dann mit "Fermi" Super da und das werden sie spätestens mit 28nm hinbekommen... ;-) die frage ist halt was ATI jetzt noch so bringt...


Einige tuen hier ja so als NV bewusst einen 300Watt Chip Entwickelt haben! Wie so der Chip so viel verbraucht dürfte ja mittlerweilen jedem klar sein, der Prozess hat einfach zu viele Leckströme und die sind bei so einem grossen Chip plus Hot Takt purres Gift! NV wird da sicher mit dem Bx einiges gerade biegen, Wunder würde ich aber nicht erwarten!!! denke so 50Watt weniger bei 10% mehr Leistung müsste NV schon hinbekommen... wichtig ist vorallem wie der 40nm Prozess jetzt in den nächsten Monaten noch reifft oder eben nicht...


Auf die Furmark Werte würde ich nicht viel geben, die ATI trosseln da doch deutlich was Fermi aber anscheinend nicht macht! Oder hat jemand andere Infos?

Gast
2010-03-28, 03:25:11
Da irrst Du Dich, ich glaube, die Karte wird ein Renner, zwar nicht als Grafikkarte, sondern als Numbercruncher. So eine Rechenleistung für entsprechendes Geld, das ist (aktuell) konkurrenzlos. Hättest Du bei der 1.Vorstellung von Fermi aufgepaßt, hättest Du genau erfahren, in welche Richtung Nvidia mit Fermi denkt, Richtung Forschung, Entwicklung, Medizin. Hier wird die Karte wohl ein richtiger Renner, und daß sie nebenbei noch eine sehr gute (nicht die beste) Grafikkarte ist, spricht für diese Architektur.

http//www.brightsideofnews.com/Data/2010_3_26/nVidia-GeForce-GTX-480-and-GTX-480-SLI-Review/NVDA_GTX480_Elcom2_675.jpg (http://www.brightsideofnews.com/Data/2010_3_26/nVidia-GeForce-GTX-480-and-GTX-480-SLI-Review/NVDA_GTX480_Elcom2_675.jpg)

In Collatz@Home und Milkyway@Home wird Thermie so dermaßen gegen eine 5870 abstinken...

Schrotti
2010-03-28, 03:29:37
Ich bin echt vollkommen fertig.

Einerseits schockiert mich der Idle Verbrauch anderseits bin ich von der Leistung echt begeistert (außer bei Crysis Warhead, warum eigentlich?).

Würde mir ne 480 zulegen wollen aber gerade bei 1680x1050 lohnt sich das sicher nicht wirklich.

1. kein Wakü Kühler verfügbar
2. zu knappes Netzteil (Enermax Liberty 500W)
3. bin momentan eigentlich nirgends im unspielbaren fps Bereich mit meiner GTX 280 (730/1530/1200) bei 1680x1050

Zudem hat jede Seite ein anderes Ergebnis zur 480 was mich noch mehr verwirrt.

Man man man.

Schrotti
2010-03-28, 03:30:32
http//www.brightsideofnews.com/Data/2010_3_26/nVidia-GeForce-GTX-480-and-GTX-480-SLI-Review/NVDA_GTX480_Elcom2_675.jpg (http://www.brightsideofnews.com/Data/2010_3_26/nVidia-GeForce-GTX-480-and-GTX-480-SLI-Review/NVDA_GTX480_Elcom2_675.jpg)

In Collatz@Home und Milkyway@Home wird Thermie so dermaßen gegen eine 5870 abstinken...


Das ist der richtige Link.

http://www.brightsideofnews.com/Data/2010_3_26/nVidia-GeForce-GTX-480-and-GTX-480-SLI-Review/NVDA_GTX480_Elcom2_675.jpg

Spasstiger
2010-03-28, 03:51:53
1. kein Wakü Kühler verfügbar
EVGA GeForce GTX 480 Hydro Copper FTW (http://geizhals.at/deutschland/a519519.html)

2. zu knappes Netzteil (Enermax Liberty 500W)
Was eigentlich traurig ist für Single-GPU.

3. bin momentan eigentlich nirgends im unspielbaren fps Bereich mit meiner GTX 280 (730/1530/1200) bei 1680x1050
Deshalb ja auch der neue Nvidia-Slogan "Crank it up". ;)

tombman
2010-03-28, 03:52:48
1. kein Wakü Kühler verfügbar
2. zu knappes Netzteil (Enermax Liberty 500W)
.
1. Da reicht jeder Universalkühler nur für die GPU, den Rest mußt ned kühlen mit Wasser, das ist ja das Geniale.
Kostet von Zern zb 20€. Ich machs genauso ;)
2. Wenns ein gutes 500er ist, könnts trotzdem rennen :)

Ansonsten hätte ich hier noch 7xx W NTs abzugeben :)

Schrotti
2010-03-28, 04:07:29
EVGA GeForce GTX 480 Hydro Copper FTW (http://geizhals.at/deutschland/a519519.html)


Wenn dann nur Watercool.

1. Da reicht jeder Universalkühler nur für die GPU, den Rest mußt ned kühlen mit Wasser, das ist ja das Geniale.
Kostet von Zern zb 20€. Ich machs genauso ;)
2. Wenns ein gutes 500er ist, könnts trotzdem rennen :)

Ansonsten hätte ich hier noch 7xx W NTs abzugeben :)

Danke für das Angebot aber ich werde dann halt ein entsprechendes Enermax kaufen (700-800W).

Lawmachine79
2010-03-28, 04:18:08
alter .... wenn du kein nvidia fanboy bist .. dann weiss ich es auch nicht mehr :smile:. es lebe nvidia ...;D
verzeih mir .. aber so eine schwachsinnige tabelle gibt es echt nur von nvidia. denen ist echt nix zu peinlich. selbst mit dem chip offensiv nach vorne, nur so glaubt der kunde das. auch wenn es voellig schwachsinnig und belanglos ist.

€: axo .. meiner meinung nach ebnet nvidia mit dem schwachsinn den konsolen den weg. ati ist da wesentlich mehr angagiert ... (meine meinung)
Meine nächste Karte wird wahrscheinlich eine ATI, weil mir SGSSAA wichtig ist - was ich bei NV nicht kriege. Tombman hat aber in einem Punkt recht: wenn man ein absoluter Enthusiast ist führt kein Weg an einer 480 vorbei. Basta. Da kann man jetzt wieder von wegen "Fanboy" anfangen und das übliche Spiel geht los. Aber NV hat die schnellste Single-Chip-Grafikkarte. Und Enthusiasten wollen keine Microruckler. Basta.

@Generell:
Ich bin mit der momentanen Situation sehr unzufrieden. Man bekommt von beiden Herstellern Karten, die einen nicht glücklich machen können.
NVidia hat kein vernünftiges SSAA (das war mal die Stärke!), verballert 50W im Idle und ist laut bis zum Abkotzen; aber immerhin hat mein ein neues Alibi-AA eingeführt, was sowieso keine sichtbare Verbesserung bringt, selbst für 4xAA --> 8xAA braucht man hochaufgelöste Screenshots. ATI hat die letzten Mülltreiber, kein ausgefeiltes Profilsystem wie NV, hat kein PhysX und bricht mit Tesselation derart ein, daß es zum reinen Checklistenfeature verkommt.
Das einzige was beide wohl langfristig gemein haben werden ist die schlechte Verfügbarkeit. Meine 275GTX bleibt wohl noch ein paar Monate...
Ich glaube wenn ich mir jetzt eine neue Grafikkarte holen MÜSSTE würde es ganz knapp eine 5870 werden. Wobei man nicht weiß, wie wichtig Tesselation sein wird.

Schrotti
2010-03-28, 04:38:24
Meine 275GTX bleibt wohl noch ein paar Monate...
Ich glaube wenn ich mir jetzt eine neue Grafikkarte holen MÜSSTE würde es ganz knapp eine 5870 werden. Wobei man nicht weiß, wie wichtig Tesselation sein wird.

Meine GTX 280 wird noch länger bleiben denn ich bin momentan nicht bereit fast 500€ für ein bissel mehr Leistung zu zahlen.

Tesseract
2010-03-28, 04:53:20
wieso wird eigentlich so ein grafkkracher von game gebencht?wenn man wenigstens mit ssaa gebencht hätte.
http://www.pcgameshardware.de/aid,743499/Geforce-GTX-470-und-480-im-Benchmark-Test-mit-World-of-Warcraft/Grafikkarte/Test/

vermutlich weil das spiel für wesentlich mehr spieler wesentlich mehr relevanz hat als irgendein eyecandy-titel den nach 2 wochen kein schwein mehr interessiert.
abgesehen davon brauchen MMOs aufgrund der unterschiedlichen lastverteilung oft wesentlich mehr performance bzw. stärkere karten als andere spiele. aus 100+ fps "allein im wald" kann im raid schnell mal <30 werden.

Schrotti
2010-03-28, 05:03:24
Wobei es Hammer ist das die GTX 480 minimum mal eben das Maximum der GTX 285 überschreitet.

Gut aber das schafft auch die 470 schon.

tombman
2010-03-28, 05:59:40
Wobei es Hammer ist das die GTX 480 minimum mal eben das Maximum der GTX 285 überschreitet.

Gut aber das schafft auch die 470 schon.
Hmm, du hältst nicht lange durch- Widerstand ist zwecklos; du wirst GTX4x0 kaufen ;)
+64% bei 4xAA und +83% bei 8xAA gegenüber deiner OC-Karte wird schwer sein zu ignorieren :)

dildo4u
2010-03-28, 06:51:22
Geforce GTX 470 und 480 im Benchmark-Test mit World of Warcraft

http://www.abload.de/img/wowj3hm.jpg

http://www.pcgameshardware.de/aid,743499/Geforce-GTX-470-und-480-im-Benchmark-Test-mit-World-of-Warcraft/Grafikkarte/Test/

Krass vorallem die Steigerung zur GTX 285,interresant zu sehen das die 480 auch bei so na uralt Engine punkten kann.

Gast
2010-03-28, 07:56:56
Das Ding knackt mit Standardspannung von 1V und 700Mhz die 300W, wenn du da auch noch voll übertaktest und die Spannung erhöhst bist du da wohl schnell bei 400-500W. Auch eine Wakü leitet die entstehende Wärme nur weiter, das wird selbst dafür schwer zu kühlern IMO.

Ich freue mich eh schon auf Tombmans Erfahrungsbericht mit zwei GTX480, da macht vermutlich eine Wasserkühlung schlapp. :)

Der Tag an dem meine beiden Triple TFC Radis die Wärme nimmer abführen können möcht ich mal erleben.

Reneeeeeee
2010-03-28, 08:32:36
wenn ich sehe das meine 4890 nicht so extrem hinter der 5870 hinterher hinkt überlege ich ob ich nicht warten sollte mit dem neukauf , aber der unterschied ist in anderen games glaube bisl mehr .

Mr. Lolman
2010-03-28, 08:33:04
...

Gouvernator
2010-03-28, 08:40:28
Ich weiß ja nicht was die Leute für Wakü haben aber ein TripleRadi wird für 2 übertaktete Fermi GPUs sicher nicht reichen. Wenn ich schon zwei*150Watt Mehrverbrauch umsetze sind es 300 Watt extra(!). Grob überschlagen ist es wie 3 normale Grafikkarten. Und dann auch noch übertakten?! Und noch mit einer 4ghz CPU im Kühlkreis?!
Das Wasser wird kochen...

Spasstiger
2010-03-28, 08:42:20
Ich weiß ja nicht was die Leute für Wakü haben aber ein TripleRadi wird für 2 übertaktete Fermi GPUs sicher nicht reichen.
tombman hat nicht nur einen Triple-Radi, sondern auch einen vollbestückten Mora.

Mr. Lolman
2010-03-28, 08:42:31
Brrr, das ist ja gruseliger als die Crysis-Shots von PCGH.de, da ich mir vorstellen kann, wie das in Bewegung aussieht. Interessanterweise sah ich mir erst kürzlich das HL2 auf meiner HD 5870 an – aber mit der Cinematic Mod 10.3. Deren Texturen sind schon lange nicht mehr "fies", sondern nur noch hübsch. Das war früher mal anders, etwa bei Version 4 (?), als diese Kieseltextur schlicht in höherer Auflösung vorlag und dadurch extrem aua machte ... urks.

MfG,
Raff

Ich kann mir nicht vorstellen, dass das tatsächlich ingame so zu sehen ist. 16xAppAF bringt sicher nicht diese BQ. Wer ein Savegame von der Stelle hat, her damit.

Gouvernator
2010-03-28, 09:06:58
tombman hat nicht nur einen Triple-Radi, sondern auch einen vollbestückten Mora.
Ich kann mir schon vorstellen das er bereits dieses Krempel hat. :biggrin:
Nur für alle anderen steigt jetzt die Anforderung auf QUAD-SLI Niveau... wenn sie ein einfaches Fermi SLI Gespann bauen wollen.

Spasstiger
2010-03-28, 09:13:05
Für SLI würde ich als "Nicht-Voll-Enthusiast" erstmal die GTX 495 abwarten. Die muss einfach energieeffizienter werden als das, was in Form der GTX 470 und GTX 480 abgeliefert wurde.

Gast
2010-03-28, 09:28:06
Geforce GTX 470 und 480 im Benchmark-Test mit World of Warcraft

http://www.abload.de/img/wowj3hm.jpg

http://www.pcgameshardware.de/aid,743499/Geforce-GTX-470-und-480-im-Benchmark-Test-mit-World-of-Warcraft/Grafikkarte/Test/

Krass vorallem die Steigerung zur GTX 285,interresant zu sehen das die 480 auch bei so na uralt Engine punkten kann.

Schau dir mal die Settings an. Maximale Auflösung und 4xAA dazu, da geht der alten Gen einfach die Puste aus und Fermi lässt die Effizienz spielen.

Mark3Dfx
2010-03-28, 09:34:16
Warum eigentlich "nur"4x MSAA?

Bucklew
2010-03-28, 09:35:05
wollte erst nicht antworten .. weil das hier dann doch eher weniger mit dem thema zu tun hat.
ganz ehrlich? hier in dem forum gibt es bestimmt nur eine handvoll ati fanboys (wenn ueberhaupt). der grossteil hier im forum ist nvidia glaeubig.
und ich weiss auch nicht was an gesundem preisbewusstsein (preis/leistung) fanboy-verhalten sein soll?
die 4xxx generation war nicht perfekt... aber sie hatte fuer das gebotene ein perfektes p/l verhaeltnis. einen rationaleren grund gibt es fuer mich nicht, sorry.
Wenn man so einen Spruch rauskloppt, dann darf man sich nciht wundern, wenn jemand anderer zurückschießt ;) Fass es mit Humor auf, so war es auch geschrieben :biggrin:

Denn die HD4000er Reihe war sicherlich alles, aber nicht das perfekte P/L-verhältnis, wenn man sich mehr als nur die FPS-Balken angeschaut hat.

dargo
2010-03-28, 09:46:07
Schau dir mal die Settings an. Maximale Auflösung und 4xAA dazu, da geht der alten Gen einfach die Puste aus und Fermi lässt die Effizienz spielen.
Ja wie denn jetzt? Ich dachte der Fermi schwächelt mit höheren Auflösungen? :freak:
Was fällt beim WoW-Test von PCGH auf? Der Fermi wird mit höherer Auflösung gegenüber den neuen ATI stärker. Jetzt stelle ich eine einfache Frage - warum ist das bei vielen Games der ganzen Reviews nicht der Fall?

mboeller
2010-03-28, 09:51:01
Wos die Preise der HD5000 wurden erhöht?

Schaut so aus. +25,- Euro auf Geizhals: http://geizhals.at/deutschland/?phist=465655

___

noch was anderes. Neliz hat auf Beyond3D gepostet, das die GTX4x0 in Europa erst am 12. Mai kommen sollen. Er hätte das aus einigen europäischen Online-Shops. Hab selbst aber nichts finden können. Es gibt anscheinend noch gar keine Lieferzeiten für die GTX4x0 (zumindest bei Alternate und Geizhals).

Hat da wer mehr infos?

___

GPGPU scheint ja 1:1 mit den TFlops zu skalieren:

http://www.brightsideofnews.com/Data/2010_3_26/nVidia-GeForce-GTX-480-and-GTX-480-SLI-Review/NVDA_GTX480_Elcom2_675.jpg

z.B.:

129107 / 60616 = ~2,13
2,72 TFlops / 1,344 TFlops = ~2,02

Gouvernator
2010-03-28, 09:55:34
Schaut so aus. +25,- Euro auf Geizhals: http://geizhals.at/deutschland/?phist=465655

___

noch was anderes. Neliz hat auf Beyond3D gepostet, das die GTX4x0 in Europa erst am 12. Mai kommen sollen. Er hätte das aus einigen europäischen Online-Shops. Hab selbst aber nichts finden können. Es gibt anscheinend noch gar keine Lieferzeiten für die GTX4x0 (zumindest bei Alternate und Geizhals).

Hat da wer mehr infos?

___

Das steht irgendwie als totaler Widerspruch zu NVidias Aussage mehr Karten auszuliefern als AMD bis Sommerende.
Bei solchen krassen Gegensätzen würde es mich ebenfalls nicht wundern, wenn die Karten komplett gecancelt werden. :biggrin:

dildo4u
2010-03-28, 10:02:35
GPGPU scheint ja 1:1 mit den TFlops zu skalieren:

http://www.brightsideofnews.com/Data/2010_3_26/nVidia-GeForce-GTX-480-and-GTX-480-SLI-Review/NVDA_GTX480_Elcom2_675.jpg

z.B.:

129107 / 60616 = ~2,13
2,72 TFlops / 1,344 TFlops = ~2,02

Zum Vergleich eine GTX285 schaftt ca 12500 zu 30000 der GTX 480.
http://www.elcomsoft.de/ewsa.html

Gast
2010-03-28, 10:12:55
Schaut so aus. +25,- Euro auf Geizhals: http://geizhals.at/deutschland/?phist=465655

___

noch was anderes. Neliz hat auf Beyond3D gepostet, das die GTX4x0 in Europa erst am 12. Mai kommen sollen. Er hätte das aus einigen europäischen Online-Shops. Hab selbst aber nichts finden können. Es gibt anscheinend noch gar keine Lieferzeiten für die GTX4x0 (zumindest bei Alternate und Geizhals).

Hat da wer mehr infos?


Also wenn der 12. Mai tatsächlich stimmt wäre das natürlich noch mal eine zusätzliche Verhöhnung der Kunden.


___

GPGPU scheint ja 1:1 mit den TFlops zu skalieren:

http://www.brightsideofnews.com/Data/2010_3_26/nVidia-GeForce-GTX-480-and-GTX-480-SLI-Review/NVDA_GTX480_Elcom2_675.jpg

z.B.:

129107 / 60616 = ~2,13
2,72 TFlops / 1,344 TFlops = ~2,02

In Supercomputer ist Fermi ohnehin chancenlos. Denn dort zählt Leistung/Watt. Fermi hat die halbe Rechenleistung bei doppelten Stromverbrauch. :ugly:

Gast
2010-03-28, 10:15:14
Ja wie denn jetzt? Ich dachte der Fermi schwächelt mit höheren Auflösungen? :freak:
Was fällt beim WoW-Test von PCGH auf? Der Fermi wird mit höherer Auflösung gegenüber den neuen ATI stärker. Jetzt stelle ich eine einfache Frage - warum ist das bei vielen Games der ganzen Reviews nicht der Fall?

Weil WoW ein Uraltes Spiel ist, das schon bei erscheinen technisch veraltet war und deshalb schwer vergleichbar ist mit aktuellen Spielen?

AnarchX
2010-03-28, 10:18:38
In Supercomputer ist Fermi ohnehin chancenlos. Denn dort zählt Leistung/Watt. Fermi hat die halbe Rechenleistung bei doppelten Stromverbrauch. :ugly:

Bei doppelter Genauigkeit sieht es nicht ganz so schlimm aus.
Und eine GTX 400 wird man in einem Supercomputer wohl auch nicht sehen, dafür steht immernoch eine 225W Tesla mit 448SPs@1,4GHz und 6GiB GDDR5 im Raum. Zieht man mal den Mehrspeicher ab, müsste man die 1,25 TFLOPs bei 200W TDP (@1,5GiB) erreichen. Wie Nvidia diese Versprechungen bewerkstelligen will, wird sich in den kommenden Monaten zeigen.

Gast
2010-03-28, 10:23:12
Bei doppelter Genauigkeit sieht es nicht ganz so schlimm aus.
Und eine GTX 400 wird man in einem Supercomputer wohl auch nicht sehen, dafür steht immernoch eine 225W Tesla mit 448SPs@1,4GHz und 6GiB GDDR5 im Raum. Zieht man mal den Mehrspeicher ab, müsste man die 1,25 TFLOPs bei 200W TDP (@1,5GiB) erreichen. Wie Nvidia diese Versprechungen bewerkstelligen will, wird sich in den kommenden Monaten zeigen.

Diese Tesla hat man schon vor über sechs Monaten angekündigt. Und von den Desktopkarten aus schließend, und angesichts der schon da sehr kreativen TDP-Angaben halte ich die Angaben für unrealistisch. Schon die GTX470 hat Probleme die 225W einzuhalten und das bei 448SP 1,2Ghz und 1,2GB VRAM

boxleitnerb
2010-03-28, 10:29:43
Das ist in der Tat ein interessantes Thema. Hat jemand Verbrauchsmessungen zu wissenschaftlichen GPGPU Berechnungen parat? Wenn Fermi da auch versagt, was Perf/Watt angeht...man darf nicht vergessen, dass die immense Abwärme auch weggekühlt werden muss, das kostet bei einigen Hundert oder Tausend Karten schon ordentlich. Dem Enthusiasten mag das für sein SLI egal sein, doch im professionellen Bereich sieht es leider anders aus. Ironisch, wenn man sieht, wie stark Nvidia mit GPGPU-Fähigkeiten wirbt.

Black-Scorpion
2010-03-28, 10:44:57
Das steht irgendwie als totaler Widerspruch zu NVidias Aussage mehr Karten auszuliefern als AMD bis Sommerende.
Bei solchen krassen Gegensätzen würde es mich ebenfalls nicht wundern, wenn die Karten komplett gecancelt werden. :biggrin:
Als wenn das noch einen Unterschied machen würde.
NV hat bei Fermi das Maul schon vorher so voll genommen und nicht gehalten, da kommt es darauf auch nicht mehr an. ;)

Avalox
2010-03-28, 10:49:13
Einige tuen hier ja so als NV bewusst einen 300Watt Chip Entwickelt haben! Wie so der Chip so viel verbraucht dürfte ja mittlerweilen jedem klar sein, der Prozess hat einfach zu viele Leckströme und die sind bei so einem grossen Chip plus Hot Takt purres Gift!


Der Entscheider über sein Produkt ist der Hersteller.

Natürlich hat nVidia ganz bewusst die Grafikkarte so auf den Markt gebracht, wie sie jetzt da ist.

nVidia war gezwungen durch den Wettbewerb, den Takt in unvernünftige Höhe zu treiben. Das mag sein.

Was hier ja sehr gerne übersehen wird ist, dass ATI vor einiger Zeit ja absolut angekündigt hat und seit dem die Strategie fährt mit einer GPU keine Spitzenperformance mehr zu liefern und diesen Bereich mit Muli GPU Lösungen auf einer Karte zu bedienen. Das tut ATI nun auch seit Generationen.

Die Spitzenkarte von ATI ist die HD5970 nicht die HD5870. Die HD5870 ist gar nicht von ATI für die Leistungskrone der eigenen Linie konzipiert. Dementsprechend sind die ATI GPU allerdings so konzipiert, dass eben mehrere auf eine Karte passen und noch gehandhabt werden können.

Insofern verfolgt dort ATI eine andere Philosophie als nVidia. Wenn nun nVidia sich nur mit perversen Zumutungen an den Kunden vom gehobenen Mittelfeld Produkt des Wettbewerbers etwas absetzen kann, dann ist dieses natürlich als Entwicklung beeindruckend. Denn nVidia fährt ja nach wie vor die Strategie, die Leistungskrone der eigenen Linie mit einer komplexen GPU zu bedienen.

Ich bin mal gespannt, wie die Lieferbarkeit der GTX480 aussehen wird. Wie viele selektierte Fermi Chips überhaupt nVidia liefern kann für das jetzige Spitzenmodell.

Chris2CB
2010-03-28, 10:51:15
Wie schauts für die Karten mit einem Prüfzeichen aus????

Im Grunde laufen die außerhalb der Spezifikation und würde ich daher als nicht sicher einstufen. Eine GTX 480 braucht 2x8pol Stecker. Ausgehend von 45°C Umgebungstemperatur und voller Auslastung.

AnarchX
2010-03-28, 10:53:00
Im Grunde laufen die außerhalb der Spezifikation und würde ich daher als nicht sicher einstufen. Eine GTX 480 braucht 2x8pol Stecker. Ausgehend von 45°C Umgebungstemperatur und voller Auslastung.
Wo benötigt man 2x 8 Pin? Der maximale Lastpeak ist nicht höher, als bei Dual-GPU-Karten in der nahen Vergangenheit.

Chris2CB
2010-03-28, 10:58:05
Wo benötigt man 2x 8 Pin? Der maximale Lastpeak ist nicht höher, als bei Dual-GPU-Karten in der nahen Vergangenheit.


Wenn ich nicht zu blöd zum lesen bin, darf die Karte über alle Versorungs Punkte max. 300Watt aufnehmen und das wird in manchen Szenarien überschritten.

Mit 2x8 Pol. währe das kein Problem.

Gast
2010-03-28, 10:59:40
Wo benötigt man 2x 8 Pin? Der maximale Lastpeak ist nicht höher, als bei Dual-GPU-Karten in der nahen Vergangenheit.

Nur weil es in der Vergangenheit auch solche Verstöße gab macht es das nicht besser.

AnarchX
2010-03-28, 11:03:33
Mit der Nutzung der Software-Vgpu-Einstellungen wären sicherlich 2x 8-Pin (also Option) zu bevorzugen, aber für entsprechende Spezifizierung und Prüfzeichen sind diese Peak-Situationen wohl nicht relevant.

gnomi
2010-03-28, 11:14:31
Hatte mit einer Anschaffung geliebäugelt, aber Preis, Lautstärke und Stromverbrauch sind nicht tragbar, weshalb ich Refresh Chips abwarte.
Technisch ist Fermi schon prima, aber performancetechnisch tut es auch die GTX Serie noch 1 bis 2 Jahre.
Eventuell verabschiede ich mich auch aus dem Performance Segment, denn es lohnt sich gemessen an der momentanen Spieleentwicklung kaum noch.
Technisch fortschrittliche Titel wie Metro lassen sich mit leicht reduzierten Einstellungen spielen, während der ganze ausgereifte ältere Kram Dank Engineoptimierungen und Konsolenkompromissen auch weiterhin exzellente Bildraten ausspucken wird.

Sascha1971
2010-03-28, 11:18:49
Nun gibts auch OC luftgekühlte 470/480er

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/maerz/wassergekuehlte_gtx_470_480/

Propagandapanda
2010-03-28, 11:20:03
Mich interessiert wie Avalox schon gesagt hat, ebenfalls die Verfügbarkeit nach der Freigabe für den Handel, so wie sich das hier anhört müssten die Dinger absolute Ladenhüter bleiben.

Ich werde mir allerdings direkt eine 480 zulegen, ich wollte die schnellste Single GPU und die werde ich bekommen, an Stromverbrauch und Lautstärke wird sich im Vergleich zum jetzigen Zustand (88GTX SLI) nichts ändern.



Btw.: Der Thread ist einfach nur grausam, dieses Gebashe auf jeder einzelnen Seite.

[x] Pro Regpflicht

Gast
2010-03-28, 11:24:51
Ich kann für NV nur hoffen, dass die unglaublich schlechte Effizienz (bei keiner die Konkurrenz dramatisch überragender Performance) der GTX4xx nur auf einen vielleicht relativ leicht zu lösenden kleineren architektonischen Fehler und den nicht wirklich gut funktionierenden 40nm Prozess von TSMC zurückzuführen ist.
Sollte die Architektur aber ein grundsätzliches Problem haben, was man ja nicht ausschließen kann, so stehen NV harte Zeiten bevor, denn wie hier schon einige geschrieben haben, wird es der Fermi in seiner jetzigen Form im Bereich der Supercomputer mehr als schwer haben.

mironicus
2010-03-28, 11:27:14
Bei NVidia sollte man auf ein Refresh warten, der dürfte dann schneller und stromsparender sein. Die jetzigen Chips wurden doch offensichtlich zu schnell und mit der heißen Nadel gestrickt. NVidia hätte sich wie ATI die Zeit nehmen sollen um die Fertigung im Vorfeld besser zu testen.

Gast
2010-03-28, 11:32:20
Mich interessiert wie Avalox schon gesagt hat, ebenfalls die Verfügbarkeit nach der Freigabe für den Handel, so wie sich das hier anhört müssten die Dinger absolute Ladenhüter bleiben.

Ich werde mir allerdings direkt eine 480 zulegen, ich wollte die schnellste Single GPU und die werde ich bekommen, an Stromverbrauch und Lautstärke wird sich im Vergleich zum jetzigen Zustand (88GTX SLI) nichts ändern.



Btw.: Der Thread ist einfach nur grausam, dieses Gebashe auf jeder einzelnen Seite.

[x] Pro Regpflicht


Wenn ich in deine Sig schaue, dann wäre es glaube ich wesentlich sinnvoller sich erstmal eine neue CPU und. evt. Mainboard zu holen und dann zum Jahresende den Refresh der GTX4xx.

Dein SLI sollte bis dahin noch locker reichen.

Gast
2010-03-28, 11:34:46
Mich interessiert wie Avalox schon gesagt hat, ebenfalls die Verfügbarkeit nach der Freigabe für den Handel, so wie sich das hier anhört müssten die Dinger absolute Ladenhüter bleiben.

Nö, bei den wenigen Exemplaren werden die schon alle abverkauft, wenn du eine haben willst unbedingt vorbestellen.

Sascha1971
2010-03-28, 11:34:51
Wenn ich in deine Sig schaue, dann wäre es glaube ich wesentlich sinnvoller sich erstmal eine neue CPU und. evt. Mainboard zu holen und dann zum Jahresende den Refresh der GTX4xx.

Dein SLI sollte bis dahin noch locker reichen.

Da muss ich dir Recht geben. Denn sein System würde die 480er übelst ausbremsen.

san.salvador
2010-03-28, 11:35:32
Bei NVidia sollte man auf ein Refresh warten, der dürfte dann schneller und stromsparender sein. Die jetzigen Chips wurden doch offensichtlich zu schnell und mit der heißen Nadel gestrickt. NVidia hätte sich wie ATI die Zeit nehmen sollen um die Fertigung im Vorfeld besser zu testen.
Du weißt aber schon, dass der Chip mehr als ein halbes Jahr Verspätung hat, oder?

Botcruscher
2010-03-28, 11:36:53
Du weißt aber schon, dass der Chip mehr als ein halbes Jahr Verspätung hat, oder?

Genau deswegen ja. Die Chips werden ja parallel entwickelt.

dildo4u
2010-03-28, 11:37:14
Bei NVidia sollte man auf ein Refresh warten, der dürfte dann schneller und stromsparender sein. Die jetzigen Chips wurden doch offensichtlich zu schnell und mit der heißen Nadel gestrickt. NVidia hätte sich wie ATI die Zeit nehmen sollen um die Fertigung im Vorfeld besser zu testen.
ATI und NV haben Prob's mit 40nm bzw TSMC hat zu viel versprochen.Die Yield's waren selbst bei ATI's vegleichbar "kleinen" Chip's mher als dürftig und NV musste den Chip deswegen sogar kastrieren um überhaupt auf brauchbare Yields zu kommen.

deekey777
2010-03-28, 11:37:30
Du weißt aber schon, dass der Chip mehr als ein halbes Jahr Verspätung hat, oder?
Laut iXBT beträgt die Verspätung drei Monate. Und es soll die einzige Terminsverschiebung gewesen sein.

Sascha1971
2010-03-28, 11:38:26
Nur erklärt mir mal bitte wo NV Strom einsparen will beim Refresh ?
Ohne ein komplett neues Design sehe ich schwarz.

mironicus
2010-03-28, 11:42:34
Wenn sich diesbezüglich nichts ändert, dürften die kleineren Ableger der GF100 ja auch richtige Stromschlucker werden. Wenn NVidia also eine Karte rausbringt, die so schnell ist wie eine 5770, dürfte die dann vielleicht 150 Watt verbraten...?

dildo4u
2010-03-28, 11:43:15
Nur erklärt mir mal bitte wo NV Strom einsparen will beim Refresh ?
Ohne ein komplett neues Design sehe ich schwarz.
Es ist möglich das der Chip Breiter(512SP) mit weniger Takt weniger verbraucht bei ca gleicher Leistung.Bei der GTX 295 hat man z.b volle G200 verbaut und den Takt im Vergleich zur GTX 285 gesenkt.

Gouvernator
2010-03-28, 11:44:48
Nur erklärt mir mal bitte wo NV Strom einsparen will beim Refresh ?
Ohne ein komplett neues Design sehe ich schwarz.
Sie könnten hoffen auf besseren TSMC 40nm Prozess. Aber der ist ja schon eigentlich alt...

Sascha1971
2010-03-28, 11:50:59
Es ist möglich das der Chip Breiter(512SP) mit weniger Takt weniger verbraucht bei ca gleicher Leistung.Bei der GTX 295 hat man z.b volle G200 verbaut und den Takt im Vergleich zur GTX 285 gesenkt.

Nur versuch dem Kunden mal beizubringen, das die neue Version dann etwa gleich schnell ist wie die 480er.

Propagandapanda
2010-03-28, 11:51:26
Wenn ich in deine Sig schaue, dann wäre es glaube ich wesentlich sinnvoller sich erstmal eine neue CPU und. evt. Mainboard zu holen und dann zum Jahresende den Refresh der GTX4xx.

Dein SLI sollte bis dahin noch locker reichen.
Werd ich dann sehen, den Rest kann ich gegebenenfalls ja direkt nachbestellen, ich denke jedoch dass in den richtigen Settings der Q6600 das noch ganz gut packen dürfte.

Und ich sehe für mich immoment keinen Grund noch länger auf neue Grafikhardware zu warten, ich will weg von mGPU, Stromverbrauch und Lautstärke interessieren mich erstmal nur zweitranging,
es ist die schnellste Single GPU auf dem Markt und auf Mehrleistung bei Refreshs/Neuen Generationen kann man immer warten, da komm ich ja nie zum Kauf.

Zur Not verklopp ich das Ding in nem halben/dreiviertel Jahr und dann gibts den Refresh.

Auf jeden Fall sind die Argumente die hier gegen die 480 hier breitgetreten werden mir atm absolut egal.

dildo4u
2010-03-28, 11:53:57
Nur versuch dem Kunden mal beizubringen, das die neue Version dann etwa gleich schnell ist wie die 480er.
Der Kunde guckt ja nach Benches,nicht nach welche Karte hat den hösten Takt,dann würde ja Jeder nur ATI's kaufen.Wenn so eine Karte kommt wird es ja wieder neue Reviews geben.

boxleitnerb
2010-03-28, 11:57:00
schnell=Performance und nicht schnell=Takt. Das ist aber eigentlich sonnenklar so wie es geschrieben war.

Raff
2010-03-28, 12:03:28
Ich kann mir nicht vorstellen, dass das tatsächlich ingame so zu sehen ist. 16xAppAF bringt sicher nicht diese BQ. Wer ein Savegame von der Stelle hat, her damit.

Also ich kann es mir bei dieser Textur lebhaft vorstellen. Eventuell sehe ich mir das Originalspiel mal morgen an. Nach etwa einer Viertelstunde Spielzeit kommt man an die berühmte Bahngleis-Stelle (AF-Test), mit der gleichen Textur.

MfG,
Raff

AnarchX
2010-03-28, 12:05:17
Noch ein paar Gesamtsystem-Werte mit verschiedenen Spielen:
http://img717.imageshack.us/img717/173/054i.gif
http://www.4gamer.net/games/099/G009929/20100326043/

Gouvernator
2010-03-28, 12:23:55
Hm, bei Crysis Warhead nimmt eine GTX480 knapp so viel wie 2x5870 und zwei GTX480 überschlagen, wie drei 5870.
Eines steht fest, je mehr Fermi Chips arbeiten desto exorbitanter erscheint die Ineffizienz des Fermi Chips.

Sascha1971
2010-03-28, 12:32:54
Der Kunde guckt ja nach Benches,nicht nach welche Karte hat den hösten Takt,dann würde ja Jeder nur ATI's kaufen.Wenn so eine Karte kommt wird es ja wieder neue Reviews geben.

Ja das meinte ich doch.
Angenommen 485 hat alle Shader-Einheiten freigeschaltet.
Da wäre etwas 15 %. Nun geht man hin und senkt die Taktrate der Karte ab das man 15 % Performance Leistung wieder verliert. und kann die Spannung entsprechend senken.
Dann habe ich eine KArte die kühler , leiser und sparender ist (so wie ich es sie jetzt schon gerne hätte :-D). Aber die gesamt Prrformance wäre gleich.
Da kommt für mich die Frage, wie will man als Marketing Abteilung das dem Kunden beibringen (nicht den Leuten hier im Forum, sondern dem normalen Kunden).

_DrillSarge]I[
2010-03-28, 12:36:59
Dann habe ich eine KArte die kühler , leiser und sparender ist (so wie ich es sie jetzt schon gerne hätte :-D). Aber die gesamt Prrformance wäre gleich.
Da kommt für mich die Frage, wie will man als Marketing Abteilung das dem Kunden beibringen (nicht den Leuten hier im Forum, sondern dem normalen Kunden).
man macht lustige fön/laubbläser-videos mit der "alten 480" wie zu gfx zeiten :tongue:

zzz http://www.youtube.com/watch?v=WOVjZqC1AE4

Gast
2010-03-28, 12:40:34
Der Verbrauch ist einfach nur pervers, aber viel bedenklicher finde ich ja die absurd hohen Temps beider Karten. Eigentlich sind sowohl GTX480 als auch GTX470 reine Wakü-Grakas und dürften mit LuKü garnicht verkauft werden.

Hat ja diese französische Seite gezeigt (hardware.fr oder so ähnlich). Bei 26C° Raumtemperatur im geschlossenen Case (und ich glaube nicht das eine Hardware-Seite irgendein Office-Gehäuse dafür benutzt) und 100% Lüfter-RPM trotzdem 106C° und das liegt schon im Bereich wo die GF100-GPUs throttlen sollen.

Dual-Monitor Betrieb ist genau so ein Ding. Kaum ist ein 2ter Moni angeschlossen, schnellt nicht nur der Verbrauch extrem nach oben, sondern das Ding läuft auch gleich wieder mit 90C° im Idle wohlgemerkt (bei GTX470).

Ich bin echt mal gespannt, wie das im Sommer mit den Karten aussieht bei den Leuten die nicht auf Wakü setzten oder alternative Kühllösungen, obwohl der Referenzkühler der GTX480 ja schon sehr gut und hochwertig ist.

MiamiNice
2010-03-28, 12:44:40
Nun gibts auch OC luftgekühlte 470/480er

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/maerz/wassergekuehlte_gtx_470_480/

Cool THX, wusste nicht welche ich kaufen soll. Hatte schon ne MSI vorbestellt aber die Karten rocken ja "dat House".
Davon die 470er werde ich mir morgen bestellen. Aber die ohne WaKü. Wasser im Tower ist nix für mich :)

Gast
2010-03-28, 12:46:26
Ich kann mir nicht vorstellen, dass das tatsächlich ingame so zu sehen ist. 16xAppAF bringt sicher nicht diese BQ. Wer ein Savegame von der Stelle hat, her damit.

Aber bei anderen Screenshots, auf denen DU eine niedrigere Qualität der GF100-Filterung zu sehen meinst, glaubst du an deren Korrektheit? Selektive Wahrnehmung FTW!

Botcruscher
2010-03-28, 12:46:50
Ja das meinte ich doch.
Angenommen 485 hat alle Shader-Einheiten freigeschaltet.
Da wäre etwas 15 %. Nun geht man hin und senkt die Taktrate der Karte ab das man 15 % Performance Leistung wieder verliert. und kann die Spannung entsprechend senken.


15%? 32 abgeschaltete Einheiten bei 480 aktiven sind sicher nicht 15.

][immy
2010-03-28, 12:50:34
Ja das meinte ich doch.
Angenommen 485 hat alle Shader-Einheiten freigeschaltet.
Da wäre etwas 15 %. Nun geht man hin und senkt die Taktrate der Karte ab das man 15 % Performance Leistung wieder verliert. und kann die Spannung entsprechend senken.
Dann habe ich eine KArte die kühler , leiser und sparender ist (so wie ich es sie jetzt schon gerne hätte :-D). Aber die gesamt Prrformance wäre gleich.
Da kommt für mich die Frage, wie will man als Marketing Abteilung das dem Kunden beibringen (nicht den Leuten hier im Forum, sondern dem normalen Kunden).

kleine frage dazu. sind nur ein paar shader einheiten deaktiviert, oder auch textureinheiten usw?
weil dann kann man wohl nicht davon ausgehen, das es 7% bringt, wenn diese freigeschaltet werden würden.

so oder so, das ist nicht der wurf den sich nvidia vorgenommen hat. der stromverbrauch ist schon jenseits von gut und böse. um die karte massenmarkt-tauglich zu machen müsste sie schon arg runtergetaktet werden, wodurch sie vermutlich weit hinter der konkurenz wäre.
das ganze könnte sich zwar mit der zeit ein wenig entspannen, aber so stark dürfte sich an der fertigung auch nichts verbessern.
ich könnte mir aber vorstellen, das ein refresh chip schneller kommt als erwartet. immerhin haben die entwicklungsteams nicht unbedingt urlaub gemacht während man mit den fertigungsproblemen kämpfte.

da bin ich mal gespannt wie sehr nvidia an der preisschaube drehen kann, wenn ati mit dem preisen runter geht (und das sie weit runtergehen können hat man ja schon beim launcher der 58x0er Reihe gesehen).

so gesehen aus meiner sicht ein ziemlich teuer erkaufter sieg, der aber nach dieser verspätung auch notwenig war, um überhaupt noch was zu reißen.

dllfreak2001
2010-03-28, 12:52:42
Also ich kann es mir bei dieser Textur lebhaft vorstellen. Eventuell sehe ich mir das Originalspiel mal morgen an. Nach etwa einer Viertelstunde Spielzeit kommt man an die berühmte Bahngleis-Stelle (AF-Test), mit der gleichen Textur.

MfG,
Raff

Ich habe mal eine ähnliche AF-Testmap nachgebaut...

http://www.abload.de/thumb/bahngleiseo75l.jpg (http://www.abload.de/image.php?img=bahngleiseo75l.jpg)

Das läuft auf einer Mobility HD 4570 mit Catalyst 9.7 @16xAnwendungs-AF 8X AA

Irgendwie sieht das nicht so schlimm wie auf den geposteten Bildern aus und diesen starken Nebel habe ich irgendwie auch nicht...

ZÜNDELholz
2010-03-28, 12:53:38
So, hab mir mal 2 bestellt ,, mein 950er Enermax Revolution müsste da noch reichen.

Raff
2010-03-28, 12:57:31
Ich habe mal eine ähnliche AF-Testmap nachgebaut...

http://www.abload.de/thumb/bahngleiseo75l.jpg (http://www.abload.de/image.php?img=bahngleiseo75l.jpg)

Das läuft auf einer Mobility HD 4570 mit Catalyst 9.7 @16xAnwendungs-AF 8X AA

Irgendwie sieht das nicht so schlimm wie auf den geposteten Bildern aus und diesen starken Nebel habe ich irgendwie auch nicht...

CS: Source, das ist natürlich auch was! Könntest du die Karte zum Download anbieten? :)

MfG,
Raff

dllfreak2001
2010-03-28, 13:05:38
CS: Source, das ist natürlich auch was! Könntest du die Karte zum Download anbieten? :)

MfG,
Raff

Bitteschön

http://www.files.to/get/854716/faya81pfed

oder da

http://rapidshare.com/files/369111366/AF-Test-Map.zip.html

aber nur 10 mal downloadbar bei rapidshare

edit: Hier eine neue Version bei der man direkt in der richtigen Blickrichtung startet, dass ermöglicht Vergleichsbilder.

http://ul.to/4fijhl

tombman
2010-03-28, 13:15:19
Noch ein paar Gesamtsystem-Werte mit verschiedenen Spielen:
http://img717.imageshack.us/img717/173/054i.gif
http://www.4gamer.net/games/099/G009929/20100326043/
Also 300W pro GTX480- krass. Kann man schön am Unterschied GTX480 SLi/ GTX480 sehen.
Sprich, unter 1000Watt braucht man bei GTX480 SLI gar nicht ankommen, und unter 1200W nicht bei 3x GTX480.
Ein Member hier im Forum (ich nenne keine Namen ;D) hat 3x GTX480 bestellt und hat ein 1500W NT- sollte gehen.

Mit OC wären das aber schon 400W pro Karte, dann wirds eng.

Der Review ist überhaupt interessant, da auch viel Synthetisches gebenched wird. HD5 hat soviel mehr
Pixelshader und Multitexture Leistung und verliert in games im Schnitt TROTZDEM gegen GTX4 :eek:

Sind die bei AMD unfähig ihren eigenen Chp auszunutzen, oder ist HD5 einfach so ineffizient?

dllfreak2001
2010-03-28, 13:17:42
Also 300W pro GTX480- krass. Kann man schön am Unterschied GTX480 SLi/ GTX480 sehen.
Sprich, unter 1000Watt braucht man bei GTX480 SLI gar nicht ankommen, und unter 1200W nicht bei 3x GTX480.
Ein Member hier im Forum (ich nenne keine Namen ;D) hat 3x GTX480 bestellt und hat ein 1500W NT- sollte gehen.

Mit OC wären das aber schon 400W pro Karte, dann wirds eng.

Der Review ist überhaupt interessant, da auch viel Synthetisches gebenched wird. HD5 hat soviel mehr
Pixelshader und Multitexture Leistung und verliert in games im Schnitt TROTZDEM gegen GTX4 :eek:

Sind die bei AMD unfähig ihren eigenen Chp auszunutzen, oder ist HD5 einfach so ineffizient?

Je nachdem was man unter Effizienz versteht. ;D
Ich sehe auch einen extrem ineffizienten GTX 480

Gast
2010-03-28, 13:18:32
Vieleicht limitiert etwas? Die ROPs können zwar 1Tri/Clock aber auf die Straße bringt der RV870 das nunmal nicht. Selbst die Texelfüllrate is das doppelte einer GTX470 und, naja, 10% mehr Leistung drückt RV870 raus...

dildo4u
2010-03-28, 13:18:38
Das Scaling suckt bei ATI halt ab 3 GPU's besonders.Ein 5970 Crossfire ist dadurch auch extrem ineffizient was fps pro Watt angeht.

nVIDIA
2010-03-28, 13:18:41
Kein Wunder das die jetzt beim Kühler Brushless Motoren verwenden, bei der Abwärme die der Fermi produziert. Trotzdem erinnert mich die GTX 480 von der Lautstärke an die 5800. Ich warte noch ab, meine GTX werde ich wohl noch länger benutzen.

Gast
2010-03-28, 13:18:56
Also 300W pro GTX480- krass. Kann man schön am Unterschied GTX480 SLi/ GTX480 sehen.
Sprich, unter 1000Watt braucht man bei GTX480 SLI gar nicht ankommen, und unter 1200W nicht bei 3x GTX480.
Ein Member hier im Forum (ich nenne keine Namen ;D) hat 3x GTX480 bestellt und hat ein 1500W NT- sollte gehen.

Mit OC wären das aber schon 400W pro Karte, dann wirds eng.

Der Review ist überhaupt interessant, da auch viel Synthetisches gebenched wird. HD5 hat soviel mehr
Pixelshader und Multitexture Leistung und verliert in games im Schnitt TROTZDEM gegen GTX4 :eek:

Sind die bei AMD unfähig ihren eigenen Chp auszunutzen, oder ist HD5 einfach so ineffizient?

Naja z.b hat die GTX480 die 3-4 fache Geometrieleistung, mehr Speicherbandbreite usw.
Wenn man von mehr Rechenleistung profitieren will, muss auch genug zum Rechnen da sein + Nichts anderes limitieren (z.b Geometrie).

Gast
2010-03-28, 13:21:48
Kein Wunder das die jetzt beim Kühler Brushless Motoren verwenden, bei der Abwärme die der Fermi produziert. Trotzdem erinnert mich die GTX 480 von der Lautstärke an die 5800. Ich warte noch ab, meine GTX werde ich wohl noch länger benutzen.

Willst du damit ausdrücken, dass die GTX480 und die 5870 gleich laut sind?

Spasstiger
2010-03-28, 13:21:58
Irgendwie sieht das nicht so schlimm wie auf den geposteten Bildern aus und diesen starken Nebel habe ich irgendwie auch nicht...
Der Nebel müsste Bestandteil der Map sein, kann man auf jeden Fall im Mapeditor einstellen. Es vermittelt halt den Eindruck von Tiefe und unterstreicht das Szenario (osteuropäische Küstenregion).

AnarchX
2010-03-28, 13:27:14
Sind die bei AMD unfähig ihren eigenen Chp auszunutzen, oder ist HD5 einfach so ineffizient?
Das Frontend der HD5000-Architektur ist sicherlich um einiges rückständiger als bei Fermi, aber im Endeffekt reicht es bei deutlich geringerem Ressourceneinsatz (Transistoren, Energie) in Games mitzuhalten. Und im Bezug auf Computing wird Fermi in bestimmten Szenarien bei der Pro-Watt-Leistung vernichtet (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7933582#post7933582).

dildo4u
2010-03-28, 13:31:03
Ob die Architektur rockt oder suckt erkennt man eh erst wenn Jahre vergangen sind.Wenn ATI was "komplett" Neues innerhalb de nästen ca 10 Monate bringt, dürfte die 5870 als brauchbar für die Zeit in der sie aktuell war durchgehen.

dllfreak2001
2010-03-28, 13:32:11
Der Nebel müsste Bestandteil der Map sein, kann man auf jeden Fall im Mapeditor einstellen. Es vermittelt halt den Eindruck von Tiefe und unterstreicht das Szenario (osteuropäische Küstenregion).

Ok, den gibt es auch, dachte nur das ist ein generelles Problem gewesen.
Hatten aber auch einige Leute, das Problem auf den CSS-Maps, nur bei mir sehen die auf dem Notebook (ATI) genauso aus wie auf meinem Desktoprechner(NV).

mboeller
2010-03-28, 13:32:42
Hat ja diese französische Seite gezeigt (hardware.fr oder so ähnlich). Bei 26C° Raumtemperatur im geschlossenen Case (und ich glaube nicht das eine Hardware-Seite irgendein Office-Gehäuse dafür benutzt) und 100% Lüfter-RPM trotzdem 106C° und das liegt schon im Bereich wo die GF100-GPUs throttlen sollen.


Mal ne Frage zu den hohen Temperaturen:

Wie heiß wird eigentlich das Abdeckblech des Lüfterkanals der GTX480? Die 106°C gelten ja nur für die GPU, oder?

Irgendwo stand mal, das man sich an dem Blech die Finger verbrennen kann, aber ich habe bisher noch nichts über die Temperaturen gelesen.

Warum die Frage? Weil man, je nach der Oberflächentemp. der Blechs aufpassen muss wie nahe man mit Leitungen, anderen Einsteckkarten etc.. an die Karte ran gehen kann. Viel normale Kunststoffe gehen schon bei ~70-80°C in die Knie, werden weich etc.. und dann könnte es zu Kurzschlüssen etc.. kommen. Zumindest könnten sich einige Komponenten im PC-Gehäuse verformen (Eigengewicht + weicher "Plastic").

nVIDIA
2010-03-28, 13:32:47
Willst du damit ausdrücken, dass die GTX480 und die 5870 gleich laut sind?

Nein, nur haben die Entwickler schon bewusst Bürstenlose Motoren für den Kühler verwendet um die Wärme abzuführen. Brushless Motoren können höher drehen als normale. Nachteil an der Sache ist halt die hohe Lautstärke mal wider.

derguru
2010-03-28, 13:33:28
unter sli ist es so am besten,wer ein slot drüber nimmt der kann die karte glaich verbrennen.;)

http://www.abload.de/thumb/019b1dl.jpg (http://www.abload.de/image.php?img=019b1dl.jpg)

edit:hat sich erledigt.:freak:

AnarchX
2010-03-28, 13:35:10
was für ein unglaublischer schrott ist das,da stimmt ja rein garnichts.
Es wäre sinnvoll, wenn du deine Entdeckungen mit uns gleich teilst.

tombman
2010-03-28, 13:36:16
Das Frontend der HD5000-Architektur ist sicherlich um einiges rückständiger als bei Fermi, aber im Endeffekt reicht es bei deutlich geringerem Ressourceneinsatz (Transistoren, Energie) in Games mitzuhalten. Und im Bezug auf Computing wird Fermi in bestimmten Szenarien bei der Pro-Watt-Leistung vernichtet (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7933582#post7933582).
Das nutzt vielleicht den "Supercomputer-Chinesen" etwas, uns gamern aber nix.
Das ist, wie wenn ich einen Rennwagen designe, der nicht gewinnen kann, dafür aber im Rallybetrieb alles abräumt :ugly:

Btw, kostet das frontend soviele Transistoren? Weil mit 3 Mrd. Transis könnte NV doch deutlich mehr Shaderpower als AMD
einbauen.

http://www.4gamer.net/games/099/G009929/20100326068/TN/046.gif

mboeller
2010-03-28, 13:36:48
Sind die bei AMD unfähig ihren eigenen Chp auszunutzen, oder ist HD5 einfach so ineffizient?

Bei Tesselation zB. erreichen sie momentan nur 1/3 der Setup-Leistung. AFAIR nur 287 MVertex/sec bei der HD5870 und nicht 850MVertex pro Sekunde. Da limitiert irgendwas, aber nicht das Tri-Setup. Vielleicht können sie das ja mit neuen Treibern noch verbessern. Dann wäre eine HD5870 gleich bis zu 3x schneller wie bisher bei der Tesselation. Vielleicht brauchen sie aber auch einen Refresh-Chip. Mal sehen.

LovesuckZ
2010-03-28, 13:38:24
Das Front und die Geometrieeinheiten sollten kaum etwas kosten. Das Problem ist die Logik es funktionell betreiben zu können. Imerhin muss die Renderreihenfolge erhalten bleiben.
Deswegen blieb man ja so lange bei einem Single-Front-End. Wenn alles Seriell abgearbeitet wird, gibt es auch keine Probleme mit der Reihenfolge.

Bei Tesselation zB. erreichen sie momentan nur 1/3 der Setup-Leistung. AFAIR nur 287 MVertex/sec bei der HD5870 und nicht 850MVertex pro Sekunde. Da limitiert irgendwas, aber nicht das Tri-Setup. Vielleicht können sie das ja mit neuen Treibern noch verbessern. Dann wäre eine HD5870 gleich bis zu 3x schneller wie bisher bei der Tesselation. Vielleicht brauchen sie aber auch einen Refresh-Chip. Mal sehen.

Nö, es kann auch an allen liegen, was vor der Dreieckserzeugung sich befindet.

Gast
2010-03-28, 13:43:21
Wer bei Beyond3D mitliest: http://forum.beyond3d.com/showthread.php?t=55289&page=153

Man vermutet "but that's when you combine an heavy charge on triangle setup and tessellation, then you end up with Fermi winning by far....".
Sieht man auch an den Zahlen von bjorn3d.com, das bei hoher Last der RV870 zusammenbricht. Auslastung der Einheiten und so grüßt.

Gast
2010-03-28, 13:46:59
Wer bei Beyond3D mitliest: http://forum.beyond3d.com/showthread.php?t=55289&page=153

Man vermutet "but that's when you combine an heavy charge on triangle setup and tessellation, then you end up with Fermi winning by far....".
Sieht man auch an den Zahlen von bjorn3d.com, das bei hoher Last der RV870 zusammenbricht. Auslastung der Einheiten und so grüßt.

Schreibt doch wenigstens Geometrielast und nicht "Einheitenauslastung".

ZÜNDELholz
2010-03-28, 13:47:04
Also 300W pro GTX480- krass. Kann man schön am Unterschied GTX480 SLi/ GTX480 sehen.
Sprich, unter 1000Watt braucht man bei GTX480 SLI gar nicht ankommen,

Mit OC wären das aber schon 400W pro Karte, dann wirds eng.

De

Naja, bei CB sinds 450W bei übertakteter Extreme-CPU.
Nochmal 300W für die 2. karte , dann sinds 750W. Also 950W sinus und 1140peak , wie bei meinem Enermax, müssten da schon reichen.
OC bei SLi-WAYNE

Gaestle
2010-03-28, 13:49:19
Die Anno1404-Werte der 480GTX im PCGHW-Test scheinen etwas merkwürdig (Wechsel von der 1680er zur 1920er Auflösung). Kann es sein, dass dort ein 60fps-Limit besteht?

Gast
2010-03-28, 13:53:30
Nein, nur haben die Entwickler schon bewusst Bürstenlose Motoren für den Kühler verwendet um die Wärme abzuführen. Brushless Motoren können höher drehen als normale. Nachteil an der Sache ist halt die hohe Lautstärke mal wider.
Welche Lüftermotoren im PC-Bereich sind denn nicht brushless???

Gast
2010-03-28, 13:53:53
unter sli ist es so am besten,wer ein slot drüber nimmt der kann die karte glaich verbrennen.;)

http://www.abload.de/thumb/019b1dl.jpg (http://www.abload.de/image.php?img=019b1dl.jpg)

edit:hat sich erledigt.:freak:


die temps mit tripple sli würden mich mal interessieren:

http://www.blogcdn.com/www.engadget.com/media/2008/06/geforce_gtx_280_3way.jpg

die beiden oberen dürften ziemlich sicher schrott sein nach ein paar stunden gedaddel.

dildo4u
2010-03-28, 13:53:54
Die Anno1404-Werte der 480GTX im PCGHW-Test scheinen etwas merkwürdig (Wechsel von der 1680er zur 1920er Auflösung). Kann es sein, dass dort ein 60fps-Limit besteht?
Vermutlich CPU Limit.Ohne OC schafft ein Core i7 860 nur 44fps.


http://www.pcgameshardware.de/aid,698809/Intels-Gulftown-CPU-im-Test-Core-i7-980X-auf-Westmere-Basis/CPU/Test/?page=2

tombman
2010-03-28, 13:55:17
Kann jemand übersetzen, welche Einstellungen hier verwendet wurden?
http://www.4gamer.net/games/099/G009929/20100326043/TN/045.gif

Gast
2010-03-28, 13:56:57
die temps mit tripple sli würden mich mal interessieren:

http://www.blogcdn.com/www.engadget.com/media/2008/06/geforce_gtx_280_3way.jpg

die beiden oberen dürften ziemlich sicher schrott sein nach ein paar stunden gedaddel.

Ich glaube sowieso nicht, dass man 3 GTX 480 in dieser Form auf dauer stabil betreiben kann.
Dazu sind die Tempraturen/Drehzahlen schon bei einer einzelnen außerhalb des Gehäuses viel zu hoch.

Gast
2010-03-28, 13:57:15
die beiden oberen dürften ziemlich sicher schrott sein nach ein paar stunden gedaddel.

Oh man was für ein undurchdachtes Gefasel.
Wenn dem so wäre dann würden sie die Karten wohl kaum verkaufen, geschweige denn SLI anpreisen. Ein bisschen nachdenkem vorm Posten hat noch niemandem geschadet.

Gast
2010-03-28, 13:59:58
Die Anno1404-Werte der 480GTX im PCGHW-Test scheinen etwas merkwürdig (Wechsel von der 1680er zur 1920er Auflösung). Kann es sein, dass dort ein 60fps-Limit besteht?

Ja, es sieht so aus. Auch mit einer 5970 erreichen wir keine höheren Fps. Da Anno aber typischerweise stark von der CPU abhängt, sehen wir keinen Grund, hier künstlich eine Mini-Insel mit viel Wasser drumrum herzunehmen, da das ein falsches Bild vom Leistungsverhalten erzeugen würde.


--
Zu Half-Life 2: Ich habe mir das jetzt auch mal angeschaut und mit meiner 5870 ein kleines Video aufgenommen: http://ul.to/6m2kft
Da sieht man auch eindeutig, dass eine Detailschicht (vermutlich speculars/normals) trotz AI off nur bilinear gefiltert wird. Zwar habe ich im HL2-Menü trilinear angewählt, eventuell hält Valve es aber nicht für nötig, solchen Texturschichten überhaupt trilinear zu spendieren, sodass die Radeon hier nur tut, was ihr aufgetragen wird. Müsste halt mal jemand mit einer Geforce gegenchecken.

Die Stelle ist ganz am Anfang vom Spiel, wo man die Pistole bekommt.

-Carsten

derguru
2010-03-28, 13:59:59
Oh man was für ein undurchdachtes Gefasel.
Wenn dem so wäre dann würden sie die Karten wohl kaum verkaufen, geschweige denn SLI anpreisen. Ein bisschen nachdenkem vorm Posten hat noch niemandem geschadet.
letzter satz würde dir auch gut tun.
jojo deshalb gibt es auch nur ein 1 jahr garantie.:wink:

Kann jemand übersetzen, welche Einstellungen hier verwendet wurden?
http://www.4gamer.net/games/099/G009929/20100326043/TN/045.gif

wenn ich nach einer 5870 gehe sollte es 1920*1200 4AA/16AF sein aber alles andere passt null.wahrscheinlich so ein gamer mix einstellung.

Gast
2010-03-28, 14:03:50
letzter satz würde dir auch gut tun.
jojo deshalb gibt es auch nur ein 1 jahr garantie.:wink:

Ach wie süß die ganzen Falschinformationen sind. Anti-NV zu sein ist in diesem Forum wohl so schick wie AMI-Basher zu sein?

EVGA -> Lebenslange Garantie

Next Troll pls!

MiamiNice
2010-03-28, 14:04:24
Meint Ihr ich komme mit meinem 500 Watt Tagan noch aus?

http://img.tomshardware.com/de/2007/01/15/stresstest_netzteile_2007/tagan_label.jpg


OC GTX470
i7 @ 4,1 Ghz
Eclipse SLI X58 MB
12 GB Ram
4 HDD´s + SSD + CD/DVD Multilaufwerk
X-Fi Forte + TV Karte

Meint Ihr das langt noch? Und wen nicht, welches bestellen? Dann sollte es aber direkt stark genug sein für den jetzigen PC + 2x 512SP Refresh (GTX485). Also eher 700W oder 800W oder 1kW?

Sry für leicht OT. Bin aber bestimmt nicht der einzigste der sich das fragt, ich bitte um nachsicht ^^

Gast
2010-03-28, 14:06:14
Hmm ... Schade eigentlich, dass es nVidia nicht gelungen ist das Produkt auf den Markt zu bringen, das man gross angekündigt hatte. Jetzt bleiben die Preise erst einmal auf dem Niveau auf dem sie sich gerade befinden. :(

Tesselation mag in Zukunft wichtig sein. IMO wird diese Technik in homöopathischen Dosen in Spielen "verbaut" werden. Sie wird das gleiche Nischendasein fristen wie z. B. PhysiX und das wird mindestens so lange andauern wie es die derzeitige Konsolengeneration geben wird. PhysiX dagegen ist sowieso eine Totgeburt. CUDA & Co. ist aufgrund der Leistungsaufnahme IMO uninteressant. Zumindest für "Wetterrechner" und Simulationsrechner kann die Karte nichts ausrichten. Für kleinere Labore etc., die nicht auf einen Grossrechner zugreifen können, ist es aber eine Alternative.

Jaguar: 1759 TFlops (224162 Opterons, Six Core 2.6 GHz, 10.4 GFlops)
Die Effizienz ist mit 773 MFlops/Watt angegeben.
Bei grosszügigst geschätzten 4 TFlops die die Karte bei diesen Berechnungen macht, sind das ~440 Fermi-Karten (realistischer sind wohl ~ 800 bei 2 TFlops, wobei nVidia für die Karte selbst ~ 1,4 TFlops (MADD/ADD) angiebt). Der Vergleich mit den Wattverbrauch ist schwierig. Nimmt man die ~ 450 Watt die ein komplettes System unter Vollast mit dieser Karte verbraucht, als groben Richtwert für so eine Grossrechneranlage (da hängt ja noch viel mehr dran), kommt man auf 1759000/(450*440) ~ 8 MFlops/Watt für die Fermi-Karten. Der Verbrauch von der Karte alleine kann das Ergebnis kaum retten 1759000/(250*440) ~ 16 MFlops/Watt.

Zur Karte selbst bleibt nicht viel zu sagen. Stromverbrauch, Hitzeentwicklung und die damit einhergehende Lärmbelästigung sind wohl ohne Beispiel. Das ist aber dem Konkurrenzkampf geschuldet, den die Kunden ja wollen. nVidia war stark unter Druck und hat aufgrund der Verspätung einfach an der Takt- und Stromschraube drehen müssen. Wären beide zeitgleich auf dem Markt gekommen hätte es wohl ein Kopf an Kopf rennen gegeben.

Klar hätte ich mir jetzt überlegt eine neue Karte zu erwerben und habe extra auf die 480 gewartet. Aber zum einem bin ich kein absoluter Enthusiast und zum anderen brauche ich die Karte im Moment einfach nicht. Ich kann also bis in den Herbst hinein warten. So lange wie ich derzeit ein und die selbe Grafikkarte mein Eigen nenne, hatte ich eine Grafikkarte ohnehin noch nie. Von den Settings her geht aber immer noch fast alles auf Anschlag (von Ausnahmen wie z. B. Crysis einmal abgesehen). Bei AA/AF muss man mit der 4870/1GB in 1920x1080 ein Abstriche machen.

P. S. Meine obigen Berechnungen erheben keinen Anspruch auf Richtigkeit. ^^

Gast
2010-03-28, 14:09:24
Ach wie süß die ganzen Falschinformationen sind. Anti-NV zu sein ist in diesem Forum wohl so schick wie AMI-Basher zu sein?

EVGA -> Lebenslange Garantie

Next Troll pls!


Das ist überhaupt noch nicht klar, ob das EVGA bei den GTX4xx auch so handhaben wird. Ich habe schon in mehreren Foren gelesen, dass es diesesmal nicht so sein wird.

Gast
2010-03-28, 14:13:41
Ach wie süß die ganzen Falschinformationen sind. Anti-NV zu sein ist in diesem Forum wohl so schick wie AMI-Basher zu sein?

EVGA -> Lebenslange Garantie

Next Troll pls!

Orly?

http://www.brightsideofnews.com/news/2009/11/20/evga2c-where-did-your-lifetime-warranty-go.aspx

Gast
2010-03-28, 14:13:50
OC GTX470
i7 @ 4,1 Ghz
Eclipse SLI X58 MB
12 GB Ram
4 HDD´s + SSD + CD/DVD Multilaufwerk
X-Fi Forte + TV Karte

Meint Ihr das langt noch? Und wen nicht, welches bestellen? Dann sollte es aber direkt stark genug sein für den jetzigen PC + 2x 512SP Refresh (GTX485). Also eher 700W oder 800W oder 1kW?

Sry für leicht OT. Bin aber bestimmt nicht der einzigste der sich das fragt, ich bitte um nachsicht ^^
Mit CoreDamage/Prime und Furmark wird's sich garantiert abschalten. Alleine deine overclockte CPU frühstückt mit Mainboard einen Batzen weg. Dann 4 HDDs. Ungut. Würde gleich ein neues Netzteil bestellen, mindestens 800 Watt besser 1000. Das wird in naher Zukunft für High End einfach Pflicht sein, ohne wenn und aber.

tombman
2010-03-28, 14:17:08
Dann sollte es aber direkt stark genug sein für den jetzigen PC + 2x 512SP Refresh (GTX485). Also eher 700W oder 800W oder 1kW^^
Unter 1KW brauchst IMO bei GTX48"5" SLI nicht ankommen :)

Gast
2010-03-28, 14:17:47
Meint Ihr ich komme mit meinem 500 Watt Tagan noch aus?

OC?

Nein!

Gast
2010-03-28, 14:17:56
Mit CoreDamage/Prime und Furmark wird's sich garantiert abschalten. Alleine deine overclockte CPU frühstückt mit Mainboard einen Batzen weg. Dann 4 HDDs. Ungut. Würde gleich ein neues Netzteil bestellen, mindestens 800 Watt besser 1000. Das wird in naher Zukunft für High End einfach Pflicht sein, ohne wenn und aber.

nicht bei Ati, ein 650W Netzteil reicht locker aus um einen Quad (stock) sowie zwei 5870er zu befeuern.

der geneigte nvidia Konsument sollte auch über ein zertifiziertes Gehäuse
nachdenken, kann ganz schön heiß werden im Case

dllfreak2001
2010-03-28, 14:23:11
Habe grad die Stichworte zu diesem Thread entdeckt ;)

Naja, die GTX480 ist nicht nur hart an der Grenze gebaut, sondern überschreitet sie unter Vollast locker (siehe TDP). Soll laut CB ja auch so sein, dass die verwendeten Stromstecker nicht für diese Leistung zertifiziert sind.

tombman
2010-03-28, 14:23:45
wenn ich nach einer 5870 gehe sollte es 1920*1200 4AA/16AF sein aber alles andere passt null.wahrscheinlich so ein gamer mix einstellung.
Und wenns Enthusiast 1920*1200 4AA/16AF DX10 wäre? :naughty:

derguru
2010-03-28, 14:26:28
Und wenns Enthusiast 1920*1200 4AA/16AF DX10 wäre? :naughty:

übereinstimmt mit keiner anderen seite,aber glauben versetzt berge.:wink:

Gast
2010-03-28, 14:27:18
@tombman

Du solltest dich doch lieber auf seriösere Tests verlassen. Was nützt es dir sich jetzt den schönsten Chinatest rauszusuchen, wenn dem in der Realität aber nicht so ist.

Gast
2010-03-28, 14:32:35
nicht bei Ati, ein 650W Netzteil reicht locker aus um einen Quad (stock) sowie zwei 5870er zu befeuern.

der geneigte nvidia Konsument sollte auch über ein zertifiziertes Gehäuse
nachdenken, kann ganz schön heiß werden im Case
Ich rede von der Zukunft, das gilt dann auch bei ATI. Was glaubst du, was passiert, wenn die neuen GPUs mit 3,5 bis 4 Milliarden Transistoren und 2 GB Vram als Minimalstandard für High-End aufgelegt werden?
Da ist dann die jetzige 470- und 480-Serie ein Sparfuchs dagegen.
Die Leistungsaufnahme ist in der Geschichte immer stetig gestiegen. Jetzt man kommt man langsam noch ans Ende der Fahnenstange bei den Verkleinerungen. Bei 15 nm ist Schluss. Man kann froh sein, wenn 28 nm in 2 Jahren lauffähig ist für große Chips. Zudem bringt die Verkleinerung immer weniger Ersparnis bei der Leistungsaufnahme.
Das Gleiche bei CPUs. Da wird nur noch die Anzahl der Kerne aufgestockt, da sind bald TDPs von 150 Watt und mehr Gang und Gäbe.

Gast
2010-03-28, 14:33:58
Orly?

http://www.brightsideofnews.com/news/2009/11/20/evga2c-where-did-your-lifetime-warranty-go.aspx

http://www.evga.com/articles/00528/

EVGA gibt Lifetime Warrenty für Retail GTX480 / GTX470, wenn man sie registriert. Informier dich nächstes mal besser, bevor du sowas bestreitest.

Gast
2010-03-28, 14:37:29
Also 300W pro GTX480- krass. Kann man schön am Unterschied GTX480 SLi/ GTX480 sehen.
Sprich, unter 1000Watt braucht man bei GTX480 SLI gar nicht ankommen, und unter 1200W nicht bei 3x GTX480.
Ein Member hier im Forum (ich nenne keine Namen ;D) hat 3x GTX480 bestellt und hat ein 1500W NT- sollte gehen.

Mit OC wären das aber schon 400W pro Karte, dann wirds eng.

Der Review ist überhaupt interessant, da auch viel Synthetisches gebenched wird. HD5 hat soviel mehr
Pixelshader und Multitexture Leistung und verliert in games im Schnitt TROTZDEM gegen GTX4 :eek:

Sind die bei AMD unfähig ihren eigenen Chp auszunutzen, oder ist HD5 einfach so ineffizient?

Ineffizient, LOL. Wie dreist kann man eigentlich sein? Da lässt du mal wieder schön den Fanboy raushängen.

Fermi:
Leistung/Watt -> Fail
Leistung/Transistor -> Fail
Leistung/mm² -> Fail.

Fermi verliert in jeder Effizienzstatistik um Häuser, einzig dank brute-force mit einem kaum herstellbaren Chip ist man minimal vorne.

Gast
2010-03-28, 14:37:47
Was die Leistungsaufnahme zukünftiger GPU-Gens angeht, sollte man vorsichtig sein. GF100 ist dabei aber keinesfalls als Standard anzusehen, sondern ein extremer Auswuchs.

Mich würde ja mal interessieren, ob es jemals eine so ineffiziente GPU gab.

Iruwen
2010-03-28, 14:38:02
http://www.evga.com/products/moreInfo.asp?pn=012-P3-1479-AR&family=GeForce%20400%20Series%20Family

Sind die 6 bzw. 8 Pole der Stecker eigentlich nur für die Spezifikation wichtig oder gibt es da physikalische Grenzen? Die hat ja auch nur zwei Sechspolanschlüsse.

Gast
2010-03-28, 14:38:32
Ich rede von der Zukunft, das gilt dann auch bei ATI. Was glaubst du, was passiert, wenn die neuen GPUs mit 3,5 bis 4 Milliarden Transistoren und 2 GB Vram als Minimalstandard für High-End aufgelegt werden?
Da ist dann die jetzige 470- und 480-Serie ein Sparfuchs dagegen.
Die Leistungsaufnahme ist in der Geschichte immer stetig gestiegen. Jetzt man kommt man langsam noch ans Ende der Fahnenstange bei den Verkleinerungen. Bei 15 nm ist Schluss. Man kann froh sein, wenn 28 nm in 2 Jahren lauffähig ist für große Chips. Zudem bringt die Verkleinerung immer weniger Ersparnis bei der Leistungsaufnahme.
Das Gleiche bei CPUs. Da wird nur noch die Anzahl der Kerne aufgestockt, da sind bald TDPs von 150 Watt und mehr Gang und Gäbe.

Warum?
Der Energiebedarf der 5870 ist geringer als, der der 4890.
Nur weil die GTX480 extrem viel Energie benötigt heißt das nicht, das Das jetzt Standard wird.
Wann 28nm kommt (sicher nicht in 2Jahren^^) und wann "Schluss" ist, ist reine Spekulation.
Und selbst dann muss das Endprodukt für den User praktikabel sein.
Wenn dann Grafikchips so groß wie miditower sind und 5KW benötigen kauft die Niemand mehr.

tombman
2010-03-28, 14:39:45
übereinstimmt mit keiner anderen seite,aber glauben versetzt berge.:wink:
Die Crysiswerte sind leider auf praktisch jeder website anders :ugly:
Testen die alle unterschiedliche Szenarien/Maps?

Gast
2010-03-28, 14:40:16
Das Scaling suckt bei ATI halt ab 3 GPU's besonders.Ein 5970 Crossfire ist dadurch auch extrem ineffizient was fps pro Watt angeht.

So ineffizient wie Fermi kann man gar nicht sein.

Gast
2010-03-28, 14:40:39
http://www.evga.com/products/moreInfo.asp?pn=012-P3-1479-AR&family=GeForce%20400%20Series%20Family

Sind die 6 bzw. 8 Pole der Stecker eigentlich nur für die Spezifikation wichtig oder gibt es da physikalische Grenzen? Die hat ja auch nur zwei Sechspolanschlüsse.

Das hängt vom Netzteil ab.
Wenn es genug Leistung über 8+6 Pin liefern kann ist alles in Ordnung, wenn nicht dann nicht:)

Gast
2010-03-28, 14:41:46
http://www.evga.com/articles/00528/

EVGA gibt Lifetime Warrenty für Retail GTX480 / GTX470, wenn man sie registriert. Informier dich nächstes mal besser, bevor du sowas bestreitest.

Ich weiß ja nicht was das bei EVGA heißt, aber ich lese nur was von "Limited Lifetime warranty" oder sogar nur "2 years warranty".

ZÜNDELholz
2010-03-28, 14:43:13
480SLI verbrät mit 3,33Mhz Extreme-CPU und X58 nicht mehr als 750W
Also ein 1000W netzteil ist keine Pflicht.

http://www.abload.de/img/054i5zem.gif (http://www.abload.de/image.php?img=054i5zem.gif)

tombman
2010-03-28, 14:45:46
Ineffizient, LOL. Wie dreist kann man eigentlich sein? Da lässt du mal wieder schön den Fanboy raushängen.

Fermi:
Leistung/Watt -> Fail
Leistung/Transistor -> Fail
Leistung/mm² -> Fail.

Fermi verliert in jeder Effizienzstatistik um Häuser, einzig dank brute-force mit einem kaum herstellbaren Chip ist man minimal vorne.
Andere haben meine Frage verstanden, aber ein "Gast" fühlt sich in seiner HD5-Ehre wieder angegriffen und muß
die ausgelutschte Fanboy-Keule herauskramen- *gähn*

Ich sollte Gäste echt blocken, der Kosten/Nutzen Ratio ist schwer im Eimer, 1% nützlich, 99% Kinderkacke.

Gast
2010-03-28, 14:47:43
Warum zieht ihr immer irgendwelche China-Reviews ran? Es gibt doch wohl deutlich bessere und für mich auch seriösere Seiten.

Ich habe auch schon Werte von 851W für ein GTX480-SLI gesehen, bei Stock-Takt.

Gast
2010-03-28, 14:48:23
Warum?
Der Energiebedarf der 5870 ist geringer als, der der 4890.
Nur weil die GTX480 extrem viel Energie benötigt heißt das nicht, das Das jetzt Standard wird.
Wann 28nm kommt (sicher nicht in 2Jahren^^) und wann "Schluss" ist, ist reine Spekulation.
Und selbst dann muss das Endprodukt für den User praktikabel sein.
Wenn dann Grafikchips so groß wie miditower sind und 5KW benötigen kauft die Niemand mehr.
Wenn's keine Alternative gibt, dann schon - jedenfalls im High End. Leute wie tombman würden auch 2000 Watt Rechner aktzeptieren, wenn dafür die Leistung stimmt.
Es wird immer auf Wunder gehofft und dass die Ingenieure und Wissenschaftler schon Alternativen finden, die wenig Strom brauchen aber gleichzeitig leistungsfähig sind, und die Physik und Naturgesetze werden konsequent ausgeblendet.
Bei Silicium bahnt sich langsam das Ende an. Und Alternativtechniken sind von Massenproduktion und ähnlicher Häufigkeit der benötigten Materialien auf der Erde soweit entfernt wie der Mond von der Erde.
Ich wette, dass es von jetzt an mindestens noch 2 Jahre dauern wird, bis 28nm reif für die nächste Chip-Generation sind. Wenn wir Pech haben, dauerts sogar noch 2 Jahre bis die 28nm reif für die jetzige Generation ist.

Gast
2010-03-28, 14:50:10
480SLI verbrät mit 3,33Mhz Extreme-CPU und X58 nicht mehr als 750W
Also ein 1000W netzteil ist keine Pflicht.

http://www.abload.de/img/054i5zem.gif (http://www.abload.de/image.php?img=054i5zem.gif)

IMO schon, da Du nie genau wissen kannst, was Du noch einbauen wirst. Da kann ein Sack voll Festplatten hinzukommen oder aber die von NV selbst empfohlene WaKü für ein SLI-Gespann. Mit 1kW ist man auf der sichereren Seite.

AYAlf_2
2010-03-28, 14:52:50
Wo lügt NV denn?

Außerdem kennst du meine Gründe sehr genau, und das hat nix mit Bias zu tun.
Wenn AMD Phys-X und etwas zu SLI Vergleichbares hat-> immer her damit ;)
Ich hatte schon ATI, aber das weißt du eh. Tatsächlich habe ich eine HD4850 2GB hier :)
nv luegt nie .. sie sagen aber auch nicht die wahrheit.

hier habe ich noch was feines http://www.hardwareboard.eu/entry.php?4-Aufruf-Wir-werden-siegen!-Wir-sind-unbesiegbar

das trifft den tenor von dem thread so langsam.

derguru
2010-03-28, 14:56:06
Die Crysiswerte sind leider auf praktisch jeder website anders :ugly:
Testen die alle unterschiedliche Szenarien/Maps?

keine ahnung,ich schau mir doch nicht bei allen reviews an welche map die genommen haben aber die ranglisten-reihenfolge ist immer die selbe im gegensatz zu dem bench.

tombman
2010-03-28, 14:56:06
Bis auf "die Russen" traut sich doch keiner mehr Gpus zu quälen. Metro und Stalker gibts noch, das wars. Die Amerikaner/Europäer werden sicher nix HighEndiges mehr verlangen bei maximalen Details. Ich wette, Crysis 2 wird maximal 1 HighEnd Gpu verlangen, kein MGpu mehr für max. Details. Erklären werden die das dann mit "besserer engine", in Wahrheit wirds weniger Last sein ;)
AMD und NV werden schwer arbeiten/bezahlen/beeinflussen müssen, um devs zu einem "extreme quality mode" zu überreden :)

Gast
2010-03-28, 14:59:11
Wenn's keine Alternative gibt, dann schon - jedenfalls im High End. Leute wie tombman würden auch 2000 Watt Rechner aktzeptieren, wenn dafür die Leistung stimmt.
Es wird immer auf Wunder gehofft und dass die Ingenieure und Wissenschaftler schon Alternativen finden, die wenig Strom brauchen aber gleichzeitig leistungsfähig sind, und die Physik und Naturgesetze werden konsequent ausgeblendet.
Bei Silicium bahnt sich langsam das Ende an. Und Alternativtechniken sind von Massenproduktion und ähnlicher Häufigkeit der benötigten Materialien auf der Erde soweit entfernt wie der Mond von der Erde.
Ich wette, dass es von jetzt an mindestens noch 2 Jahre dauern wird, bis 28nm reif für die nächste Chip-Generation sind. Wenn wir Pech haben, dauerts sogar noch 2 Jahre bis die 28nm reif für die jetzige Generation ist.

Für Enthusiasten wird man keine Extrachips entwerfen.
Auch wenn es völlig OT ist: Man sollte das Ausloten der Möglichkeiten den Wissenschaftlern und die Realisierung den Ingineuren überlassen und nicht immer selbständig über die Grenzen des Möglichen spekulieren.
Das 28nm noch 2 Jahre brauchen wird ist unwahrscheinlich, da GF schon funktionsfähige Wafer gezeigt hat und den Produktionsstart für nächstes Frühjahr plant.

Nazar
2010-03-28, 14:59:25
480SLI verbrät mit 3,33Mhz Extreme-CPU und X58 nicht mehr als 750W
Also ein 1000W netzteil ist keine Pflicht.

http://www.abload.de/img/054i5zem.gif (http://www.abload.de/image.php?img=054i5zem.gif)

Meine Fragen dazu wären:

1. Warum sollte man sein Netzteil nie permanent am Maximum laufen haben?
2. Wer sich 2 GTX480 holt, wird diese auf einem unübertaktetem PC laufen lassen?
3. Wie groß ist die Wahrscheinlichkeit, bei dieser Klientel, dass ausser der CPU auch die GPUs an das Maximum getrieben werden?

Nun noch ein wenig darüber grübeln und Du kommst von alleine drauf :wink:
Die Frage, die hier im Raum steht, ist eher: Werden 1000 Watt überhaupt reichen?

ZÜNDELholz
2010-03-28, 14:59:29
IMO schon, da Du nie genau wissen kannst, was Du noch einbauen wirst. Da kann ein Sack voll Festplatten hinzukommen oder aber die von NV selbst empfohlene WaKü für ein SLI-Gespann. Mit 1kW ist man auf der sichereren Seite.

Es ist keine Pflicht, eine Wakü einzubauen , genausowenig ist es ein Pflicht, sich nach Einbauen der 2 Grafikkarten, sich einen Arcea mit 10 angeschlossenen Festplatten einzubauen, ergo beteht keine 1000W-Netzteil-Pflicht.
Man kann so ein netzteil empfehlen .

tombman
2010-03-28, 15:02:13
Die Frage, die hier im Raum steht, ist eher: Werden 1000 Watt überhaupt reichen?
Ich setze auf 1250W :)

2x GTX480 @OC können durchaus auch 900W sein, bleiben 350W für den Rest -> paßt :)

ZÜNDELholz
2010-03-28, 15:04:05
Meine Fragen dazu wären:

1. Warum sollte man sein Netzteil nie permanent am Maximum laufen haben?
2. Wer sich 2 GTX480 holt, wird diese auf einem unübertaktetem PC laufen lassen?
3. Wie groß ist die Wahrscheinlichkeit, bei dieser Klientel, dass ausser der CPU auch die GPUs an das Maximum getrieben werden?

Nun noch ein wenig darüber grübeln und Du kommst von alleine drauf :wink:
Die Frage, die hier im Raum steht, ist eher: Werden 1000 Watt überhaupt reichen?

1.Wo habe ich geschrieben, dass ein 750W Netzteil ausreichend ist?
2. Wo habe ich geschrieben, dass ein 750W Netzteil ausreichend ist?
3.Ich gehöre zum Klientel der WAKÜ-user, MGPu-User, CPU-OC-User. Stehe ich deswegen in der Pflicht, die GPU zu übertakten?

Wir werden es ja sehen, ob mein 950er Enermax-Revolution die Grätsche macht

tombman
2010-03-28, 15:07:11
ich deswegen in der Pflicht, meine GPU zu übertakten?
Nein, aber wirst du widerstehen können? ;)

Wir werden es ja sehen, ob mein 950er Enermax-Revolution die Grätsche macht
Zu 99,99% wird es locker halten :)

ZÜNDELholz
2010-03-28, 15:11:37
Nein, aber wirst du widerstehen können? ;)



Mit Triplecrossfire und only 4870x2 hatte ich es mal zwischenzeitlich probiert, war nicht so der Hit
Aber vielleicht ist ja Nvidia wirklich vom anderen Stern und ich bekomme bei 100mhz Mehrtakt eine gewaltige Leistungsexplosion, so von 25 FPS auf 40 FPS
:D :D

Nazar
2010-03-28, 15:25:53
Wenn man zu 100% sicher sein könnte, dass nicht bald (bis zum Ende des Sommers) ein Refresh auf dem Markt kommt, dann wäre so eine GTX480 meine erste Wahl und ich würde jetzt zuschlagen.
Aber leider sieht es nicht so aus.
Es juckt schon in den Fingern aber ein wenig muss auch die Vernunft siegen (nur ein wenig ;)) und da ich im Sommer privat nicht so viel vorm Rechner hocke, lässt so eine Investion nicht gut aussehen.
Ich werde vermutlich bis zum Herbstanfang warten und dann zuschlagen. Obwohl... :freak:

Gast
2010-03-28, 15:29:04
Ich hoffe auf eine Preisschlacht zwischen GTX 470 und HD 5870. Mit > 350 € sind beide Karten massiv überteuert.

Gast
2010-03-28, 15:36:04
Ich hoffe auf eine Preisschlacht zwischen GTX 470 und HD 5870. Mit > 350 € sind beide Karten massiv überteuert.

Das wird aber mit sehr hoher Wahrscheinlichkeit nicht passieren. Warum denn auch selbst AMD und NV zusammen können nicht die Nachfrage decken. Die hohen Preise sind für AMD und NV eine klassische Win-Win Situation und ich denke keiner der beiden ist derzeit an einem Preiskampf interessiert. Die AMD Karten sollen ja sogar schon wieder teurer geworden sein, aber ich kann das nicht bestätigen, da ich die Preise nicht verfolge.

Dicker Igel
2010-03-28, 15:37:26
Was denkt ihr über die Preise, wird sich da in Richtung Sommer was tun, auch bei ATI 5k, oder bleibt es ungefähr beim derzeitigen Stand ?

Kosh
2010-03-28, 15:37:30
Die GTX480 ist die schnellste Karte Singlekarte momentan. Aber auch nur,weil sie auch Verbrauch und Lautstärke der Karte sch....en.

ATI könnte morgen eine Single CPU Karte auf den Markt bringen, der die GTX 480 hinter sich lässt.
ATI müsste nur die gleiche Schiene fahren und auf Leistung und Lauztstärke sch....en.

Oderr bezweifelt jemand,das eine auf GTX480 Niveau gepimpte Verlustleistung ATI karte nicht vor der GTX480 liegen würde??

Oder umgekehrt,eine GTX480 auf 5870 gedrosselt von der Verlustleistung her meilenweit hinter der 5870 liegen würde??

Deswegen ist die Fermi Karte eigentlich ein Totalflop,weil die Karte unter gleichen Vorraussetzungen langsamer ist als eine 5870.

Die GTX480 war einfach viel zu langsam für die 5870 und dann musste NVIDIA wohl den Schritt gehen,auf Lautstärke und Stromverbrauch nicht mehr zu achten und die GTX480 quasi so weit übertakten,das sie schneller ist als die 5870.

oder glaubt jemand, NVIDIA hat gesagt,Lautstärke und Stromverbrauch ist und scheissegal??

Nein,sie mussten Lautstärke und Stromverbrauch ignorieren,weil sie ansonsten langsamer gewesen wären als eine 5870 mit der GTX480.

Gast
2010-03-28, 15:37:42
Ich hoffe auf eine Preisschlacht zwischen GTX 470 und HD 5870. Mit > 350 € sind beide Karten massiv überteuert.

die 470 ist von Haus (UVP) aus überteuert,
da wird sich so schnell nix ändern.

Und die 5870 wird durch dir Händler überteuert,
ansonsten ist es ein Schnäppchen

aber ich finds ja echt witzig, dass die GTX470 mit der 5870
leistungstechnisch auf eine Stufe gestellt wird, lol

numb
2010-03-28, 15:40:55
Die Watt-Werte die hier im Raum stehen wirken derart surreal, dass einem Angst und Bange wird beim lesen. Da reichen 500-600W Netzteile nicht mehr aus (!), 800 Watt sind angesagt, besser noch 1250 Watt für SLI...für 10% mehr Leistung 100% mehr Stromverbrauch...

So richtig bewusst wird einem das, wenn man sich mal vor Augen führt, dass die schnellste Grafikkarte auf dem Markt immer noch 20% schneller ist als der neue Single-GPU-Spitzenreiter (nach Abzug von Mikroruchklern gleichstand), aber trotz Multi-GPU-Lösung weniger Strom verbraucht (!) Gab es schon jemals etwas derart ineffizientes ?

Ich tendiere eher zu nvidia und bei Fermi setz ich jetzt voll auf GF 104 - denn mit dem GF 100 hat man sowas von den falschen Weg beschritten und jegliches Maß der Vernunft gesprengt...

Gast
2010-03-28, 15:41:50
Die GTX470 ist natürlich im Durchschnitt langsamer als die HD5870, außer bei ihrem Spezialgebiet Tesselation. Allerdings momentan fast ohne jeglichen praktischen Nutzen.

tombman
2010-03-28, 15:43:21
Ich hoffe auf eine Preisschlacht zwischen GTX 470 und HD 5870. Mit > 350 € sind beide Karten massiv überteuert.
Nein, sind sie nicht, da es keine Linearität gibt :rolleyes:

Gast
2010-03-28, 15:44:02
Das wird aber mit sehr hoher Wahrscheinlichkeit nicht passieren. Warum denn auch selbst AMD und NV zusammen können nicht die Nachfrage decken. Die hohen Preise sind für AMD und NV eine klassische Win-Win Situation und ich denke keiner der beiden ist derzeit an einem Preiskampf interessiert. Die AMD Karten sollen ja sogar schon wieder teurer geworden sein, aber ich kann das nicht bestätigen, da ich die Preise nicht verfolge.

Keine Sorge. Der Markt regelt das von alleine. Wenn im Moment GTX 470 350 € und HD 5870 380 € kosten, wird die GTX 470 vom Kunden definitiv bevorzugt werden. PhysX, CUDA, besseres AF und sehr viel bessere Tesselationsleistung mal beiseite gelassen – alleine, weil es eine nVidia ist. AMD MUSS die Preise senken. Und wenn die HD 5870 300 € kostet, muss nVidia wieder die Preise senken. :D

Schlammsau
2010-03-28, 15:44:12
Die GTX480 ist die schnellste Karte Singlekarte momentan. Aber auch nur,weil sie auch Verbrauch und Lautstärke der Karte sch....en.

ATI könnte morgen eine Single CPU Karte auf den Markt bringen, der die GTX 480 hinter sich lässt.
ATI müsste nur die gleiche Schiene fahren und auf Leistung und Lauztstärke sch....en.

Oderr bezweifelt jemand,das eine auf GTX480 Niveau gepimpte Verlustleistung ATI karte nicht vor der GTX480 liegen würde??

Oder umgekehrt,eine GTX480 auf 5870 gedrosselt von der Verlustleistung her meilenweit hinter der 5870 liegen würde??

Deswegen ist die Fermi Karte eigentlich ein Totalflop,weil die Karte unter gleichen Vorraussetzungen langsamer ist als eine 5870.

Die GTX480 war einfach viel zu langsam für die 5870 und dann musste NVIDIA wohl den Schritt gehen,auf Lautstärke und Stromverbrauch nicht mehr zu achten und die GTX480 quasi so weit übertakten,das sie schneller ist als die 5870.

oder glaubt jemand, NVIDIA hat gesagt,Lautstärke und Stromverbrauch ist und scheissegal??

Nein,sie mussten Lautstärke und Stromverbrauch ignorieren,weil sie ansonsten langsamer gewesen wären als eine 5870 mit der GTX480.
Zustimm....sogar eine der 5870 leicht unterlegene 470, braucht noch deutlich (~50Watt) mehr Leistung.

Ich hab vor einigen Seiten schon gepostet, dass ich der Ansicht bin, eine auf 300 Watt gepimpte 5870/2GB (evtl. 1050/1350Mhz) würde der 480 sowas von den Arsch versohlen. Ausnahmen bestätigen die Regel.

Gast
2010-03-28, 15:45:38
Nein, sind sie nicht, da es keine Linearität gibt :rolleyes:

Ja, sind sie. Eine HD 5870 wurde vor über 6 Monaten mit etwa 330 € gelauncht. Nach 6 Monaten 380 € ist überteuert.

numb
2010-03-28, 15:49:13
Ja, sind sie. Eine HD 5870 wurde vor über 6 Monaten mit etwa 330 € gelauncht. Nach 6 Monaten 380 € ist überteuert.

*zustimm*

Allerdings streichen bei der 5870 imho die Händler den Gewinn ein, da das Angebot anscheinend immer noch geringer als die Nachfrage ist.

Gast
2010-03-28, 15:50:08
Keine Sorge. Der Markt regelt das von alleine. Wenn im Moment GTX 470 350 € und HD 5870 380 € kosten, wird die GTX 470 vom Kunden definitiv bevorzugt werden. PhysX, CUDA, besseres AF und sehr viel bessere Tesselationsleistung mal beiseite gelassen – alleine, weil es eine nVidia ist. AMD MUSS die Preise senken. Und wenn die HD 5870 300 € kostet, muss nVidia wieder die Preise senken. :D

Entschuldigung aber das ist Blödsinn und nur deiner persönlichen Sichtweise geschuldet. Hast du dir mal angeguckt was in den Foren los ist? Die GTX4xx haben doch in der Mehrzahl ein vernichtenes Urteil abgekriegt.

uweskw
2010-03-28, 15:50:13
KEIN Review spricht der GTX480 die Single-GPU-Leistungskrone ab, KEINER.
.....

Und über Tess. und DX11 müssen wir nicht reden, da wird die HD5 deklassiert ;)

Tesselation vernünftig eingestetzt ist für ne HD5850/70 kein Problem.
Wenn manns natürlich aus Prinzip hemmungslos übertreibten (aufgebähte Tastaturen / Mun.Packs ect. bzw alles mit unsichtbaren Dreiecken zukleistert) und damit unterm Strich die Bildqualität verschlechtern, damit kann man die HDs schon an die Leistungsgrenze bringen. Aber wofür? Damits schlechter aussieht?
Der Bereich in dem Tesselation sich wirklich Qualitätsverbessernd bemerkbar macht wird von einer AMD problemlos bedient.


Greetz
U.S.

Gast
2010-03-28, 15:52:08
Wo waren eigentlich die ganzen "Tessellation"-Übertreiber, als die Unigine mit der HD5800 im September gezeigt wurde? Schrägen anstelle von Treppenstufen habe ich zuletzt vor 12 Jahren in Turok gesehen…

Gast
2010-03-28, 15:52:41
Die GTX470 ist natürlich im Durchschnitt langsamer als die HD5870, außer bei ihrem Spezialgebiet Tesselation. Allerdings momentan fast ohne jeglichen praktischen Nutzen.

Das ist glatt gelogen. Es gibt einen Haufen Spiele (ohne Tesselation), wo die GTX 470 die HD 5870 deutlich hinter sich lässt oder mindestens genau so schnell ist.

http://www.pcgameshardware.de/screenshots/original/2010/03/GF100-WoW-1920.png

http://www.pcgameshardware.de/screenshots/original/2010/03/GF100-NFS-1920.png

http://www.pcgameshardware.de/screenshots/original/2010/03/GF100-GTA4-1920.png

http://www.pcgameshardware.de/screenshots/original/2010/03/GF100-Anno-1920.png

Gast
2010-03-28, 15:53:45
Entschuldigung aber das ist Blödsinn und nur deiner persönlichen Sichtweise geschuldet. Hast du dir mal angeguckt was in den Foren los ist? Die GTX4xx haben doch in der Mehrzahl ein vernichtenes Urteil abgekriegt.

Die GTX 480 ja, die finde ich auch lächerlich. Die GTX 470 ist ordentlich. Auch wenn der Stromverbrauch da auch einen Ticken besser sein könnte.

Gast
2010-03-28, 15:59:29
Na und es gibt genauso viele Games, wo die GTX470 teils doch deutlich einen auf den Deckel kriegt von der HD5870. Ich weiß auch nicht wie oft man es noch sagen muss, ob irgendein Game mit 70 oder 80 Fps läuft ist vollkommen egal. Wichtig sind die Games wo man jedes Stückchen Leistung braucht (Crysis, Stalker) und da wird sie geschlagen. Außerdem habe ich kein Review gesehen das behauptet die GTX470 wäre schneller, sondern eher das Gegenteil (meistens -10% langsamer) ist der Fall, aber das hängt natürlich auch immer von der Auswahl der Games ab.

Schlammsau
2010-03-28, 16:00:52
Das ist glatt gelogen. Es gibt einen Haufen Spiele (ohne Tesselation), wo die GTX 470 die HD 5870 deutlich hinter sich lässt oder mindestens genau so schnell ist.

http://www.pcgameshardware.de/screenshots/original/2010/03/GF100-WoW-1920.png

http://www.pcgameshardware.de/screenshots/original/2010/03/GF100-NFS-1920.png

http://www.pcgameshardware.de/screenshots/original/2010/03/GF100-GTA4-1920.png

http://www.pcgameshardware.de/screenshots/original/2010/03/GF100-Anno-1920.png
Die 470 ist im Schnitt der 5870 leicht unterlegen. Ausreisser gibts auf beiden Seiten. ;)

DiRT2@DX11 zB....hier ist eine 470 deutlich langsamer als eine 5870. Andersrum ist unter Metro eine 470 wieder schneller.

In der Summe aller getesteten Games aber schafft es eine 470 sich nicht von der 5870 abzusetzen.
Noch dazu verbraucht sie mehr Strom und wird aller vorraussicht nach auch teurer werden.

Kosh
2010-03-28, 16:01:13
Keine Sorge. Der Markt regelt das von alleine. Wenn im Moment GTX 470 350 € und HD 5870 380 € kosten, wird die GTX 470 vom Kunden definitiv bevorzugt werden. PhysX, CUDA, besseres AF und sehr viel bessere Tesselationsleistung mal beiseite gelassen – alleine, weil es eine nVidia ist. AMD MUSS die Preise senken. Und wenn die HD 5870 300 € kostet, muss nVidia wieder die Preise senken. :D

Die 5870 kostet aber nur wegen den Händlern soviel.Die schlagen doch die Aufpreise dermassen drauf.

ATI kann die Preise um 100 Euro senken,die Preise werden beim Händler gleich bleiben. Warum sollten die die Preise auch senken,wenn man eh mehr verkauft als man auf LAger hat. So macht der Händler dann nochmals + 100 Euro Gewinn damit.

290-320 Euro sind die Regulären 5870 Preise.
Rest ist Händler Aufpreis Gewinn.

Spasstiger
2010-03-28, 16:07:15
290-320 Euro sind die Regulären 5870 Preise.
Rest ist Händler Aufpreis Gewinn.
Das ist quatsch, solche Margen findest du nicht in der Branche (außer bei Kabeln).

Gast
2010-03-28, 16:07:30
Hast du dir mal angeguckt was in den Foren los ist? Die GTX4xx haben doch in der Mehrzahl ein vernichtenes Urteil abgekriegt.

absolut richtig, es ging ein mächtiges Raunen quer durchs Netz.
Und nicht von Ati-Fanboys nein, sondern Ex nVidia-Fanboys die sich
veräppelt fühlen.

Von 532 Teilnehmern werden sich knapp 60% eine 58xx anschaffen, 14% hingegen eine GTX470/GTX480.

http://www.hardwareluxx.de/community/f14/kauft-ihr-euch-eine-480-gtx-oder-5870-a-702673.html

Gast
2010-03-28, 16:08:47
Die zwei "objektivsten" Tests bis jetzt haben Golem und c't abgeliefert. Was mich aber nicht wundert. Die Online-Redaktionen sind bei beiden bekanntlich unvoreingenommen. Da wo es kesselt gelobt, da wo offene Wunden klaffen mit dem Finger gepickst.

Alle anderen Test sind bis auf die Benches vom Text her vom Anfang an auf ein bestimmtes Testergebnis ausgelegt. Negative wie positive Tests. Leider wird man nicht nur in den Foren mit bezahltem wie fanboyartigen viralen Schrott zugemüllt :mad:

ChaosTM
2010-03-28, 16:09:16
Weiß vielleicht jemand, wie viel die 470er unter Idle bei Dual Monitor Ausgabe und/oder Blu-Ray/mkv Wiedergabe verbraucht?
Ich finde dazu einfach nichts.

Gast
2010-03-28, 16:11:57
die PCGH hat in ihrem Fazit den fermi förmlich mit Samthandschuhen
angefasst. man bekam fast das Gefühl als täte es ihnen leid den Fermi
schlecht zu beurteilen

LovesuckZ
2010-03-28, 16:12:26
Weiß vielleicht jemand, wie viel die 470er unter Idle bei Dual Monitor Ausgabe und/oder Blu-Ray/mkv Wiedergabe verbraucht?
Ich finde dazu einfach nichts.

http://www.hartware.de/review_1079_17.html

Blu-Ray alleine sollte auf dem Niveau der GT200 Karten liegen, da die GTX480 jedenfalls auf diesem Niveau sich befindet. Eventuell benötigt die GTX470 weniger als die GT200 Karten.

Kosh
2010-03-28, 16:13:44
Das ist quatsch, solche Margen findest du nicht in der Branche (außer bei Kabeln).


Natürlich findet man sowas. Warum hat man denn kaum 5870 von Anfang an unter 350 Euro bekommen??
Weil die NAchfrage so extrem hoch war.

Meine 5870 Karte hat 323 Euro gekostet. Januar bei Hardwareversand bestellt,2 Tage später hatte ich sie (Kam 1 tag nach der Auflistung dort an).

Meine Anfang November bestellte Asus 5870 für 293,bekam ich 2 Wochen später geliefert. Hatte vergessen sie abzubestellen und hätte somit nur 293 Euro bezahlen müssen.

Für 323 Euro hätte jde Karte verkauft werden können,aber warum soll man nicht 350 -400 Euro verlangen,wenn die Kunden soviel ausgeben.

Je nach Liefermenge kannst du bei der GTX470 auch 50-100 Euro draufschlagen. Reiner Händler Zusatzgewinn.

Die Händler verlangen die preise,für die sie die Karten los werden.

Bekommt Händler A 10 zB GTX480 Karten und weiss, für 1000 Euro bekommt er jede einzlene los,dann wird er die für 1000 Euro in den Shop setzen. Warum sollte er auch nur 500 Euro verlangen,wenn er 10 Leute hat die 1000 Euro bezahlen?

Gast
2010-03-28, 16:14:25
Die 470 ist im Schnitt der 5870 leicht unterlegen. Ausreisser gibts auf beiden Seiten. ;)

DiRT2@DX11 zB....hier ist eine 470 deutlich langsamer als eine 5870. Andersrum ist unter Metro eine 470 wieder schneller.

In der Summe aller getesteten Games aber schafft es eine 470 sich nicht von der 5870 abzusetzen.
Noch dazu verbraucht sie mehr Strom und wird aller vorraussicht nach teurer werden.

"Deutlich" sieht bei mir anders aus:

http://www.pcgameshardware.de/screenshots/original/2010/03/GF100-CMRD2-DX11-1920.png

Ich bin völlig neutral, was AMD vs. nVidia angeht. Wenn überhaupt, dann Pro-AMD (meine letzte nVidia war eine GF 4). Ich wollte im Winter wieder aufrüsten (hab noch eine X1800 :ulol:), habe dann im Dezember für 220 € inkl. Versand eine HD 5850 bestellt, die nie eingetroffen ist und seit HD 5850 > 280 € und HD 5870 > 370 € kosten, habe ich das Aufrüsten sein lassen. Wenn ich aber jetzt eine Karte kaufen wollte, wäre es definitiv eine GTX 470 bei den aktuellen Preisen. Besseres AF, CUDA, PhysX, deutlich höhere Tesselationsleistung, 1.280 MB RAM und leistungsmäßig im Mittel genau so schnell. Dazu noch unausgereifte Treiber mit nagelneuer Architektur. Würde mich nicht wundern, wenn in 3 Monaten die GTX 470 im Schnitt auch 10 % vor einer HD 5870 liegen würde.

Gast
2010-03-28, 16:15:12
absolut richtig, es ging ein mächtiges Raunen quer durchs Netz.
Und nicht von Ati-Fanboys nein, sondern Ex nVidia-Fanboys die sich
veräppelt fühlen.

Von 532 Teilnehmern werden sich knapp 60% eine 58xx anschaffen, 14% hingegen eine GTX470/GTX480.

http://www.hardwareluxx.de/community/f14/kauft-ihr-euch-eine-480-gtx-oder-5870-a-702673.html
Sehr bescheuerte Umfrage.
Preisbereich der 5850-5870 ist ein anderer als der der 470-480.

Natürlich wird die 5850 weit besser verkauft. Natürlich verkauft sich das Topmodell 480 schlechter.
Interessant wär gewesen, wer sich eine 470 und wer sich eine 5870 holt.

Gast
2010-03-28, 16:17:46
absolut richtig, es ging ein mächtiges Raunen quer durchs Netz.
Und nicht von Ati-Fanboys nein, sondern Ex nVidia-Fanboys die sich
veräppelt fühlen.Ja keine Frage. Aber eben wegen den Seiteneffekten. Die Leistung und das Bildergebnis sind im Vergleich zu GTX oft genug erhaben.

Bei Vergleichen der FPS gegenüber ATI ab 10.3 samt der Bilanz für Kühlaufwand/Lautstärke, Verbrauch im Idle wie auch unter Last und die Preise lassen bei den meisten aber starke Zweifel aufkommen was das nun soll.

Tombman-like Typen sind auch bei den Zockern eben nicht in einer nenneswerten Zahl vertreten. Die 14% bei HWluxx sind da noch eher eine Ausnahme.

Schlammsau
2010-03-28, 16:18:17
Würde mich nicht wundern, wenn in 3 Monaten die GTX 470 im Schnitt auch 10 % vor einer HD 5870 liegen würde.

Das hoffe ich doch für nVidia, sonst würde praktisch keiner eine GTX400 kaufen.
Ausnahmen bestätigen wie immer die Regel. :)

Gast
2010-03-28, 16:19:03
Das Frontend der HD5000-Architektur ist sicherlich um einiges rückständiger als bei Fermi, aber im Endeffekt reicht es bei deutlich geringerem Ressourceneinsatz (Transistoren, Energie) in Games mitzuhalten. Und im Bezug auf Computing wird Fermi in bestimmten Szenarien bei der Pro-Watt-Leistung vernichtet (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7933582#post7933582).

Anmerkung: Das Bild ist GeForce GTX 480 versus the ATI Radeon HD 5870, nicht wie in der Überschrift angegeben "Re: Elcomsofts Passwortknacker - Radeon HD 5970 besiegt Tesla"

san.salvador
2010-03-28, 16:19:44
Die zwei "objektivsten" Tests bis jetzt haben Golem und c't abgeliefert. Was mich aber nicht wundert. Die Online-Redaktionen sind bei beiden bekanntlich unvoreingenommen. Da wo es kesselt gelobt, da wo offene Wunden klaffen mit dem Finger gepickst.

Alle anderen Test sind bis auf die Benches vom Text her vom Anfang an auf ein bestimmtes Testergebnis ausgelegt. Negative wie positive Tests. Leider wird man nicht nur in den Foren mit bezahltem wie fanboyartigen viralen Schrott zugemüllt :mad:
Ja, Golem und c't sind seit jeher für ihre grandiosen GraKa-Tests bekannt. ;D

Gast
2010-03-28, 16:20:06
Was mich bei der GTX 4xx aber wirklich stört: Der Leistungsverlust @ 2560 x 1600. Da fällt die GTX 470 häufig auf HD 5850-Niveau. Die Auflösung werde ich zwar nie fahren, aber wer weiß, was die Ursache ist? Vielleicht sackt Fermi immer ab, wenn der Chip höher belasted wird?

Spasstiger
2010-03-28, 16:20:41
Natürlich findet man sowas.
Du redest von 30% Marge bei der Radeon HD 5870. Hältst du das wirklich für realistisch? So schlecht ist die Verfügbarkeit auch nicht, dass es keinen Preisdruck durch die Mitwettbewerber gäbe.

AYAlf_2
2010-03-28, 16:21:13
die PCGH hat in ihrem Fazit den fermi förmlich mit Samthandschuhen
angefasst. man bekam fast das Gefühl als täte es ihnen leid den Fermi
schlecht zu beurteilen
das war aber von vorne herein klar .. schau wer da arbeitet .. und wer hier im forum was schreibt .. pcgh ist leicht pro nvidia... wenn ich es mal so ausdruecken darf.

LovesuckZ
2010-03-28, 16:21:44
Was mich bei der GTX 4xx aber wirklich stört: Der Leistungsverlust @ 2560 x 1600. Da fällt die GTX 470 häufig auf HD 5850-Niveau. Die Auflösung werde ich zwar nie fahren, aber wer weiß, was die Ursache ist? Vielleicht sackt Fermi immer ab, wenn der Chip höher belasted wird?

Laut nVidia wäre es in Dirt:2 und BC:2 ein Treiberproblem. Eventuell erstreckt es sich generell auf die Auflösung.
Wobei ich mehr glaube, dass die Bandbreite limitiert und somit der Abstand geringer wird.

Gast
2010-03-28, 16:26:01
das war aber von vorne herein klar .. schau wer da arbeitet .. und wer hier im forum was schreibt .. pcgh ist leicht pro nvidia... wenn ich es mal so ausdruecken darf.
Deren Video hast du echt nicht gesehen?

Sie kritisieren die Kritikpunkte der 5890, 4870 X2 oder 4890, nur eben noch weitaus deutlicher.
Zusammen mit der Tatsache, das sie 8xMSAA mit Q getestet haben oder TSSAA vs MSAAA erscheint das nicht sehr pro NV.

Wenn ich das mal so ausdrücken darf, du erscheinst mir heftig pr AMD zu sein, wenn du das nicht erkennst.

Megamember
2010-03-28, 16:26:57
das war aber von vorne herein klar .. schau wer da arbeitet .. und wer hier im forum was schreibt .. pcgh ist leicht pro nvidia... wenn ich es mal so ausdruecken darf.

Jetzt sag mir doch mal wo in dem Fazit irgendwas ubertrieben Pro Nvidia steht? Die positiven und negativen Punkte werden alle aufgezählt ohne irgendwas zu verherrlichen.
Aber für die Fanboys hier ist wahrscheinlich schon zuviel wenn da nur steht das Nvidia schneller ist.;)