PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 480 und 470: (P)Review-Thread


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28

Don Vito
2010-03-27, 17:24:20
Ja, schön wärs. Vieles davon war durchaus produktiv. Es wurden mit der Holzhammermethode einfach mehrere Seiten einfach entfernt. Eine Rücksicht auf hochwertige Posts wurde nicht genommen.
Wie soll das auch möglich sein.
Teilweise kamen mehr als 20 Posts innerhalb paar Minuten

Bucklew
2010-03-27, 17:26:17
Also, alles in allem, wohl ein zwiegespaltenes Bild. Aber das ist für die DX11-Karten ja scheinbar generell so, die ATI-Karten waren zwar von den Softfacts deutlich besser als der Vorgänger, die Leistung eher so lala - bei Nvidia ist es andersherum.

Anyway, die GTX480 geht, was Stromverbrauch und Lautstärke angeht, gar nicht klar. Da brauchen wir nicht drüber zu diskutieren. Ich frage mich allerdings (im Vergleich zur GTX470), wieso da so ein großer Unterschied herrscht, speziell im Idle. Und vorallem bei solch niedrigen Taktraten, die im idle gefahren werden. Vielleicht der Grund für die Verschiebung um eine weitere Woche? BIOS Update für einen besseren Idlemode? Warten wir es ab. Dennoch, für die wirklichen Freaks führt an einer GTX480 (oder 2 oder 3 ;D) kein Weg vorbei. Und mal ehrlich: Wen interessieren bei einer Karte für >400€ die 30€ Stromkosten mehr im Jahr?

Die GTX470 dagegen ist doch absolut ok. Selbst mit vielen DX9-Spielen (die hoffentlich keine Berechtigung mehr haben, ich will mehr DX10+DX11 ;)) liegt sie auf Augenhöhe mit der HD5870, auch was die Softfacts angeht. Noch dazu mit einem großen Blick in Richtung Zukunft - und macht(e) das nicht auch den Reiz der guten alten GeForce 256 aus? :)

Ganz ehrlich: Für eine neue Architektur ist Fermi super. Kein r300/G80, aber eben auch kein r600/NV30 - weit entfernt davon. Und wenn ich die Entwicklung von r600->rv870 sehe, dann freue ich mich auf die GF100->GF??? Entwicklung :)

^^Wann wir sich der "angebliche" 3dcenter nvidia-insider bei "char-lie" entschuldigen, vorallem nach den krassen Attacken, nachzulesen im spekulationen-forum.
Charlie hat 5% prognostiziert und immer wieder wiederholt - ich sehe (außer der TDP und das gilt nur für die 480) nichts, wo er recht hatte?

Buckelw ?
Hier, was gibts? Soll ich dir bei Gelegenheit mal einen Tipptrainer schenken, Jake Dummnn?

(Tippfehler, sry! ;D)

Nach dem ganzen Bashing der NV-Fraktion hört man jetzt nicht mehr viel von ihnen.
Doch, doch, der Charlie hatte doch super Recht. Er schreibt zwar er hätte es und verlinkt selbst einen Post in dem genau drin steht, dass er Unrecht hatte, aber so ist halt die Realität vom Charlie: Er hat Recht. Ob das so ist oder nicht: Wayne. Und ich warte nur auf die Diskussionen in ein paar Wochen/Monaten/Jahren, wo wieder ständig irgendwelche dahergelaufenen Gäste behaupten, er wäre ja der Messiahs und allwissend ;D

Mal ehrlich: Wenn der gute Charlie wirklich Recht gehabt hätte, hätte die News dann so ausgesehen? ;)
http://www.semiaccurate.com/2010/03/26/gtx480-scores-leaked-early/

Nö, dann müssten wir uns einen haufen langwierige Ausführungen darüber anhören wie doof Nvidia ist, wie toll ATI und wie toll er selbst doch ist. Ist es eigentlich grundvorraussetzugn dermaßen egomanisch zu sein um solche eine Seite zu gründen? ;)

dildo4u
2010-03-27, 17:30:55
Mafia II PhysX Trailer mit GTX 480

http://www.youtube.com/watch?v=vcpEc6kC0HM&fmt=22

Dural
2010-03-27, 17:32:24
ich finde gerade die GTX470 überhaupt nicht interessant! da dürfte der GF104 deutlich interessanter werden, sicher nicht mit max Leistung aber sonst schon!

GF100 ist OK mit 512SP und 100Watt weniger hehe mal schauen was mit Bx kommt, ich erwarte aber keine wunder... NV Ziehl dürfte mit Bx sicher sein watt zu sparen so viel wie möglich, die Leistung dürfte wohl gar nicht mehr gross ansteigen zwischen GTX480 und GTX485 (??)

Bucklew
2010-03-27, 17:37:26
Mafia II PhysX Trailer mit GTX 480

http://www.youtube.com/watch?v=vcpEc6kC0HM&fmt=22
Geil! Der nächste Toptitel für den Fermi. Ich warte dann mal auf das Huddy-FUD :)

tombman
2010-03-27, 17:40:04
Mafia II PhysX Trailer mit GTX 480

http://www.youtube.com/watch?v=vcpEc6kC0HM&fmt=22
:massa:

Und die HD5 Leute werdens WIEDER NICHT sehen können, da kein Phys-X.

Aber Hauptsache der Stromverbrauch ist gering, gell? :upicard:

Crank that s#!t up!

Exxtreme
2010-03-27, 17:41:59
Mafia II PhysX Trailer mit GTX 480

http://www.youtube.com/watch?v=vcpEc6kC0HM&fmt=22
Beeindruckt mich ehrlich gesagt nicht wirklich. :|

Gast
2010-03-27, 17:42:17
:massa:

Und die HD5 Leute werdens WIEDER NICHT sehen können, da kein Phys-X.

Aber Hauptsache der Stromverbrauch ist gering, gell? :upicard:

Crank that s#!t up!

Ja aber aber aber
DAS EINE SPIEL .... pfaaa

:lol: :lol: :lol:

Dural
2010-03-27, 17:43:03
naja mir ist der verbrauch ja auch egal, hatte drei 2900XT ;)

aber das geht schon etwas zuweit...

dildo4u
2010-03-27, 17:43:49
Ja aber aber aber
DAS EINE SPIEL .... pfaaa

:lol: :lol: :lol:
Das Game könnte ganz locker das beste PC Spiel 2010 werden.

Adam D.
2010-03-27, 17:43:51
Mafia II PhysX Trailer mit GTX 480

http://www.youtube.com/watch?v=vcpEc6kC0HM&fmt=22
Das ist nun wirklich nichts auch nur annähernd Beeindruckendes...

Gast
2010-03-27, 17:44:23
naja mir ist der verbrauch ja auch egal, hatte drei 2900XT ;)


Glaubst du wirklich das deine ständigen Lügen noch irgend jemand glaubt, nachdem du schon mehrmals überführt wurdest?

Gast
2010-03-27, 17:44:51
Ist die GTX470 nun OK oder nicht? Der inoffizielle Nachfolger in form des GF104 steht ja schon vor der Tür. Und wenn nV den GF100 neu auflegt, ähnlich der GTX285, dürfte die "kleine" GTX dann nochmal was draufpacken und die GTX470 verschwindet vom Markt.
Irgendwie hat die kleine GTX nicht so den Dampfhammer wie damals die GTX260 bei erscheinen. Vorallem was den Stromverbrauch angeht ist seit der GTX260 nix vergleichbares von nV mehr erschienen. Selbst die GTX275 haut mit der Verlustleistung ordentlich auf die Kake. Eventuell gabs hier ein break-even, bei der einfach der Strombedarf für die gebotene Leistung einen Sprung macht?

Gast
2010-03-27, 17:45:38
:massa:

Und die HD5 Leute werdens WIEDER NICHT sehen können, da kein Phys-X.

Aber Hauptsache der Stromverbrauch ist gering, gell? :upicard:

Crank that s#!t up!

Uh, scheiße, mir fehlen ein paar unrealistisch herumfliegende Partikel, wie schlimm. Dafür bekomme ich keine Hörschaden beim Spielen, auch nicht schlecht. :)

Kosh
2010-03-27, 17:45:44
Das mit der Holzhammer Methode hört man ja des öfteren aber ich kann dem nicht ganze folgen. Man muss auch mal bedenken, dass die 480 ein wenig eingeschränkt ist durch die fehlenden Einheiten.
Bei den geplanten 512 Einheiten wären die Ergebnisse doch noch um einiges deutlicher ausgefallen. Das zweite was mir hier in den Sinn kommt ist rückblickend betrachtet Intels Larabee Geschichte. Nvidia hatte ja nicht nur zu bedenken, wie sie gegen AMD/ATI bestehen können, sondern auch wie sie Intel im Profi und Supercomputer Bereich auf Distanz halten. Das ist für Nvidia finanziell und im Hinblick auf die Zukunft fast noch entscheidender.

Mal unabhängig davon, dass Larabee erstmal nicht kommt, haben sie doch genau dort mächtig vorgelegt und viel Potenzial zum ausbauen. Daran wird Intel noch eine ganze Weile knabbern und bis dahin ist Nvidia schon wieder eine Generation weiter.
.

Mit 512 Einheiten wäre der Verbrauch noch um einiges höher und somit wohl auch die Lautstärke,die in diesem Video

http://www.hardocp.com/article/2010/03/26/nvidia_fermi_gtx_470_480_sli_review/7

man wohl als absolute Unverschämtheit interpretieren muss.

dildo4u
2010-03-27, 17:46:45
Mit 512 Einheiten wäre der Verbrauch noch um einiges höher und somit wohl auch die Lautstärke,die in diesem Video

http://www.hardocp.com/article/2010/03/26/nvidia_fermi_gtx_470_480_sli_review/7

man wohl als absolute Unverschämtheit interpretieren muss.
Das ist mit Furmark wie oft noch so bekommt man das nie beim Gamen zu hören.

Bucklew
2010-03-27, 17:48:34
Das ist nun wirklich nichts auch nur annähernd Beeindruckendes...
Ja genau, aber Crysis 3 ist dann wieder der ÜBERHAMMER!!! :rolleyes:

Scheiß Story, total langweilig, aber hauptsache die Grafik sieht aus wie ne Nutte mit 3 Tonnen Schminke im Gesicht :rolleyes:

Gast
2010-03-27, 17:49:57
Das ist mit Furmark wie oft noch so bekommt man das nie beim Gamen zu hören.

Da wäre ich mir nicht sicher. Im Sommer, in einem geschlossenen Gehäuse, wird der böse kleine 21W Delta aber so richtig zeigen was er draufhat...

derguru
2010-03-27, 17:50:00
da steckt man sich eine kleine physX karte dazu wenn man unbedingt will und gut ist.;)
diese funkensprüher sind grauenhaft und diese übertrieben wandstücke die herumfliegen,roofl.

that´s rl:wink:

Daredevil
2010-03-27, 17:50:04
Das Game könnte ganz locker das beste PC Spiel 2010 werden.
Kann es auch ohne eine Nvidia Karte im System, oder denkst du echt, das der Titel so exklusiv sein wird, das man mit einer ATI keine Reifen zerschießen kann, oder Löcher in Tische Ballern darf?
Das kann locker eine CPU stemmen, siehe z.B. bei Batman, wenn der Regler nicht ganz rechts steht, ist CPU PhysX kein Problem.

Adam D.
2010-03-27, 17:50:17
Ja genau, aber Crysis 3 ist dann wieder der ÜBERHAMMER!!! :rolleyes:

Scheiß Story, total langweilig, aber hauptsache die Grafik sieht aus wie ne Nutte mit 3 Tonnen Schminke im Gesicht :rolleyes:
Alter Latz, wen interessiert die Qualität eines Spiels, wenn es um die reine Grafikkarten-Performance geht? Oder lässt eine GTX480 die Story von Mafia 2 in einem völlig neuen Licht erstrahlen?

san.salvador
2010-03-27, 17:50:31
Das ist mit Furmark wie oft noch so bekommt man das nie beim Gamen zu hören.
Der Satz ergibt nicht den geringsten Sinn. :|

Gast
2010-03-27, 17:54:28
Das ist mit Furmark wie oft noch so bekommt man das nie beim Gamen zu hören.

Muaha. Dann sieh dir mal die Videos von HT4U an:
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index12.php

Das ist unter Hawx immernoch abartig laut.

Gestrandet
2010-03-27, 17:54:32
:massa:

Und die HD5 Leute werdens WIEDER NICHT sehen können, da kein Phys-X.

Aber Hauptsache der Stromverbrauch ist gering, gell? :upicard:

Crank that s#!t up!

Ich bin zwar kein HD5 Mann (sondern ein 7600 Mann ^^), aber ich seh, dass ich als solcher nicht viel verpassen dürfte. Das schaut ja aus wie Hund. Man kriegt ein bisschen Angst, dass der ganze PhysX-Schmonz nur instrumentalisiert wird, um Schlamperei beim Artwork zuzukleistern.

Moralelastix
2010-03-27, 17:54:40
Wann is Verkaufsstart?

seltener Gast
2010-03-27, 17:56:14
Solange das Haus Wände hat, sollte das kein Problem geben.
Sind vorhanden.
Aber trotzdem. Wenn eine Karte schon 63 db von sich gibt, könnte das tatsächlich, zusammen mit den anderen Schallquellen, eng werden.

http://de.wikipedia.org/wiki/Zimmerlautstärke#Wohngebiete

Bucklew
2010-03-27, 17:56:50
Alter Latz, wen interessiert die Qualität eines Spiels, wenn es um die reine Grafikkarten-Performance geht? Oder lässt eine GTX480 die Story von Mafia 2 in einem völlig neuen Licht erstrahlen?
Beides ist wichtig, für mich ist aber Story >> Grafik. Daher halte ich Crysis auch für das meist überschätzte Spiel seit langem.

Gast
2010-03-27, 18:00:48
Schöne PhysX Effekte bei Mafia 2. Ich liebte schon den 1. Teil von der Story her. Freue mich auf das Game. Ich werds wohl mit der 470 zocken;)

Spasstiger
2010-03-27, 18:03:10
Sind vorhanden.
Aber trotzdem. Wenn eine Karte schon 63 db von sich gibt, könnte das tatsächlich, zusammen mit den anderen Schallquellen, eng werden.

http://de.wikipedia.org/wiki/Zimmerlautstärke#Wohngebiete
63 dB(A) aus 15 cm Abstand (@ Computerbase) entsprechen in 5 m Abstand ohne Wände noch ca. 33 dB(A).

Gast
2010-03-27, 18:03:49
Beides ist wichtig, für mich ist aber Story >> Grafik. Daher halte ich Crysis auch für das meist überschätzte Spiel seit langem.

Ist also ab jetzt die Sotry der Gradmesser für Grafikkarten oder ist das einfach völlig OT?

Blaire
2010-03-27, 18:04:47
32xCSAA und 16xQ sind beide schlechter als 8xQ. Ob das die Bits sind, ist eigentlich egal.
Schade, dass CB die CoP-Bilder aus dem falschen Blinkwinkel gemacht hat. Eigentlich sieht man die fehlerhafte Kantenglättung in CoP auch mit diesen Screenshots, aus der rechten Ecke mit Blick auf den Händler würde man deutlich sehen, dass in CoP die Kantenglättung in den meisten Fällen nicht greift.

8xQ schaut dort auch besser aus stimmt, 16xCSAA aber auch besser als 32xCSAA und das kann eigentlich nicht sein, es muss an den AA Bits liegen da gibt es verschiedene. Das Problem gabs auch schon in älteren Treibern mal als 16xQ auch keiner Kantenglättung aufwies, obwohl die Leistung deutlich in den Keller ging.
Was meinst du mit CoP Bildern? Ich sehe dort nur FEAR und Oblivion?

Gast
2010-03-27, 18:07:58
LZ,dildo4u,Bucklew,Dural

ihr könnt mir doch nicht ernsthaft erzählen, dass speziell die GTX480 ein großer Wurf seitens NV wäre. Ich meine es kann ja sein, dass der ein oder andere so verblendet ist und das tatsächlich so sieht, aber ihr seit doch bestimmt dazu fähig das Ganze mal einigermaßen nüchtern und ohne große Emotionen zu sehen. Oder?

Für mich gibt es nur einen einzigen wirklich positiven Punkt bei der GTX480/GTX470 und das ist unbestritten die DX11/Tesselation-Leistung und das wollen die meisten Kritiker der GTX4xx auch nicht absprechen, aber die Effizienz ist einfach desatrös da gibt es nichts dran zu rütteln. Inwieweit einen PhysX und Cuda wichtig sind ist natürlich Ansichtssache, aber gerade bei Cuda habe ich so meine Zweifel, ob das für viele wirklich ein praktischer Vorteil ist oder einfach aus Prinzip immer mit aufgezählt wird.

Ob DX11-Tesselation in der Lebensspanne der GTX4xx wirklich so wichtig ist/wird kann auch keiner sagen, denn es kann gut sein, dass dies erst richtig zum tragen kommt, wenn sowohl GTX4xx als auch HD5xxx schon längst durch neue Gens/Refreshes ersetzt worden sind und wie dann AMDs Leistung diesbezüglich aussieht weiß auch niemand.

Die Mittel mit denen sich zumindest die aktuelle Fermi-Gen diesen Vorteil erkauft, sind dennoch vollkommen inakzeptabel.

LovesuckZ
2010-03-27, 18:13:01
LZ,dildo4u,Bucklew,Dural

ihr könnt mir doch nicht ernsthaft erzählen, dass speziell die GTX480 ein großer Wurf seitens NV wäre. Ich meine es kann ja sein, dass der ein oder andere so verblendet ist und das tatsächlich so sieht, aber ihr seit doch bestimmt dazu fähig das Ganze mal einigermaßen nüchtern und ohne große Emotionen zu sehen. Oder?

Ist Hemlock auch nicht. Komischerweise meckert niemand über Hemlock. :rolleyes:


Für mich gibt es nur einen einzigen wirklich positiven Punkt bei der GTX480/GTX470 und das ist unbestritten die DX11/Tesselation-Leistung und das wollen die meisten Kritiker der GTX4xx auch nicht absprechen, aber die Effizienz ist einfach desatrös da gibt es nichts dran zu rütteln. Inwieweit einen PhysX und Cuda wichtig sind ist natürlich Ansichtssache, aber gerade bei Cuda habe ich so meine Zweifel, ob das für viele wirklich ein praktischer Vorteil ist oder einfach aus Prinzip immer mit aufgezählt wird.

Es gibt noch weitaus mehr Vorteile. Z.B. die gestiegen Fluid-Performance. Dadurch ist eine GTX480 in Dark Void mehr als zweimal so schnell als die GTX285. Oder Raytracing wie es angeblich das neue Stalker für God Rays verwendet. Da ist man schneller als die 5970.


Die Mittel mit denen sich zumindest die aktuelle Fermi-Gen diesen Vorteil erkauft, sind dennoch vollkommen inakzeptabel.

Das entscheidet jeder für sich selbst.

INDEX75
2010-03-27, 18:13:16
LZ,dildo4u,Bucklew,Dural

ihr könnt mir doch nicht ernsthaft erzählen, dass speziell die GTX480 ein großer Wurf seitens NV wäre. Ich meine es kann ja sein, dass der ein oder andere so verblendet ist und das tatsächlich so sieht, aber ihr seit doch bestimmt dazu fähig das Ganze mal einigermaßen nüchtern und ohne große Emotionen zu sehen. Oder?

Für mich gibt es nur einen einzigen wirklich positiven Punkt bei der GTX480/GTX470 und das ist unbestritten die DX11/Tesselation-Leistung und das wollen die meisten Kritiker der GTX4xx auch nicht absprechen, aber die Effizienz ist einfach desatrös da gibt es nichts dran zu rütteln. Inwieweit einen PhysX und Cuda wichtig sind ist natürlich Ansichtssache, aber gerade bei Cuda habe ich so meine Zweifel, ob das für viele wirklich ein praktischer Vorteil ist oder einfach aus Prinzip immer mit aufgezählt wird.

Ob DX11-Tesselation in der Lebensspanne der GTX4xx wirklich so wichtig ist/wird kann auch keiner sagen, denn es kann gut sein, dass dies erst richtig zum tragen kommt, wenn sowohl GTX4xx als auch HD5xxx schon längst durch neue Gens/Refreshes ersetzt worden sind und wie dann AMDs Leistung diesbezüglich aussieht weiß auch niemand.

Die Mittel mit denen sich zumindest die aktuelle Fermi-Gen diesen Vorteil erkauft, sind dennoch vollkommen inakzeptabel.

Dem muss ich, obwohl ich tatsächlich neutral bin, zu 95% zustimmen. Die anderen 5% stammen aus meinem Interesse an der GTX 470, welche sich in einem noch akzeptablen Rahmen bewegt. Die GTX 480 hingegen raubt mir den Atem. Jedoch nicht vor Begeisterung ... :eek:

mboeller
2010-03-27, 18:14:14
Das ist mit Furmark wie oft noch so bekommt man das nie beim Gamen zu hören.


6.9 Sone in normalen Spielen (laut PCGH) sind auch nicht zu verachten. Die HD5870 hat einige ziemlich böse Kommentare in den Review abbekommen weil sie bei Furmark unerträglich laut ist (laut PCGH erreicht die HD5870 in Furmark 6.4 Sone).

Exxtreme
2010-03-27, 18:14:26
Die Mittel mit denen sich zumindest die aktuelle Fermi-Gen diesen Vorteil erkauft, sind dennoch vollkommen inakzeptabel.
Die 470'er finde ich da schon lecker. Vielleicht kann man die abgeschalteten Schaltkreise wieder aktivieren wie bei den Radeons auch. ;D

Gast
2010-03-27, 18:16:39
Enthusiasten kaufen die 480. Da gibts nix zu deuteln. Ich schaue aber eher auf die 470 die eine 5870 in meinen Augen klar schlägt. fast gleichauf, Featureset größer, Treibersupport und Treiberaufbau (Komme mit ATI-Treibern nicht zurecht).

Just my 2 Cents.

Gast
2010-03-27, 18:17:25
Beides ist wichtig, für mich ist aber Story >> Grafik. Daher halte ich Crysis auch für das meist überschätzte Spiel seit langem.

Und was hast du dann für ein Problem damit? Es wurde ja nicht die Story von Mafia2 kritisiert.
PhysX ist nur ein Vorwand zu 90% alt hergebrachte Effekte auf die Grafikkarte auszulagern und wenn dann von der Wand mehr Putz abgesprengt wird als die Wand zur Verfügung stellt sieht es eben scheiße aus. Wir alle wissen warum das so ist.

Gestrandet
2010-03-27, 18:17:49
Ist also ab jetzt die Sotry der Gradmesser für Grafikkarten oder ist das einfach völlig OT?
Ich finde auch, es kommt vor allem auf die Atmosphäre an. Fermi wird schon allein durch die Geräuschkulisse zur ersten Wahl bei Jet-Flusis und F1-Racern. Und an die Lüftungsschlitze kann man ne Trockenhaube anschließen und den Friseursalon-Simulator ganz neu genießen. ;)

Bucklew
2010-03-27, 18:18:35
LZ,dildo4u,Bucklew,Dural

ihr könnt mir doch nicht ernsthaft erzählen, dass speziell die GTX480 ein großer Wurf seitens NV wäre.
Wo schreibe ich das?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7932728&postcount=1252

Bitte entsprechendes Zitat.

Ob DX11-Tesselation in der Lebensspanne der GTX4xx wirklich so wichtig ist/wird kann auch keiner sagen, denn es kann gut sein, dass dies erst richtig zum tragen kommt, wenn sowohl GTX4xx als auch HD5xxx schon längst durch neue Gens/Refreshes ersetzt worden sind und wie dann AMDs Leistung diesbezüglich aussieht weiß auch niemand.
Es ist nicht nur Tessellation, sondern auch DX11 im generellen, in dem die neue Nvidia-Generation die ATI deutlich schlägt. Das es sicherlich Games geben wird, für die der Fermi zu langsam ist, ist unbestritten, nur wird dieser Punkt deutlich später kommen als bei ATI, das sieht man ja an den heutigen Benches schon. Zumal Fermi gerade im wichtigsten Punkt (min fps) deutlich besser da steht.

Die Mittel mit denen sich zumindest die aktuelle Fermi-Gen diesen Vorteil erkauft, sind dennoch vollkommen inakzeptabel.
Die GTX470 ist weder großartig lauter noch stromhungriger noch teurer als die HD5870 - und dabei gleich schnell mit eben oben aufgeführten Vorteilen. Von daher mag die Leistungskrone der GTX480 teuer erkauft sein, absolut richtig, der aktuelle Gleichstand der GTX470 dagegen überhaupt nicht. Beide Karten (GTX470, HD5870) sind gleichwertig, mit zukünftigen Vorteilen für die GTX470. Daher würde ich letztgenannte auch definitiv vorziehen, auch wenn sie etwas teurer als die ATI wäre (ich sag mal so 300 vs. 350€).

Ganz klar: Wenn es Nvidia schafft die GTX470 wirklich lieferbar zu kriegen, halte ich die Aussage die Cypress-Chips bis zum Sommer in Stückzahlen zu schlagen für nicht übertrieben.

INDEX75
2010-03-27, 18:19:04
Die 470'er finde ich da schon lecker. Vielleicht kann man die abgeschalteten Schaltkreise wieder aktivieren wie bei den Radeons auch. ;D

"Lecker" finde ich doch schon etwas… naja… zu gut gemeint. "Interessant" reicht vollkommen. :wink:
Im Stromverbrauch liegt sie immer noch vor der 5870, was sich aber durch Features wie PhysX oder Cuda aufwiegt. (bei der GTX 480 nicht mehr)

Gast
2010-03-27, 18:20:00
Ich finde auch, es kommt vor allem auf die Atmosphäre an. Fermi wird schon allein durch die Geräuschkulisse zur ersten Wahl bei Jet-Flusis und F1-Racern. Und an die Lüftungsschlitze kann man ne Trockenhaube anschließen und den Friseursalon-Simulator ganz neu genießen. ;)

Ich sehs schon kommen Friseuersimulator 3D im Bundle mit GTX 480 SLI und passendem Anschlussschlauch:D

DeadMeat
2010-03-27, 18:22:47
Gut wenn wirklich mal was gutes da sein sollte kann man ne kleine NV Karte als PhysX beschleuniger einbauen ( und verbraucht immernoch weniger :P )

Gast
2010-03-27, 18:24:23
LZ,dildo4u,Bucklew,Dural

ihr könnt mir doch nicht ernsthaft erzählen, dass speziell die GTX480 ein großer Wurf seitens NV wäre. Ich meine es kann ja sein, dass der ein oder andere so verblendet ist und das tatsächlich so sieht, aber ihr seit doch bestimmt dazu fähig das Ganze mal einigermaßen nüchtern und ohne große Emotionen zu sehen. Oder?

Für mich gibt es nur einen einzigen wirklich positiven Punkt bei der GTX480/GTX470 und das ist unbestritten die DX11/Tesselation-Leistung und das wollen die meisten Kritiker der GTX4xx auch nicht absprechen, aber die Effizienz ist einfach desatrös da gibt es nichts dran zu rütteln. Inwieweit einen PhysX und Cuda wichtig sind ist natürlich Ansichtssache, aber gerade bei Cuda habe ich so meine Zweifel, ob das für viele wirklich ein praktischer Vorteil ist oder einfach aus Prinzip immer mit aufgezählt wird.

Ob DX11-Tesselation in der Lebensspanne der GTX4xx wirklich so wichtig ist/wird kann auch keiner sagen, denn es kann gut sein, dass dies erst richtig zum tragen kommt, wenn sowohl GTX4xx als auch HD5xxx schon längst durch neue Gens/Refreshes ersetzt worden sind und wie dann AMDs Leistung diesbezüglich aussieht weiß auch niemand.

Die Mittel mit denen sich zumindest die aktuelle Fermi-Gen diesen Vorteil erkauft, sind dennoch vollkommen inakzeptabel.

:uup:

Genau meine Meinung - spätestens seit Seite 58.

Bucklew
2010-03-27, 18:25:18
PhysX ist nur ein Vorwand zu 90% alt hergebrachte Effekte auf die Grafikkarte auszulagern und wenn dann von der Wand mehr Putz abgesprengt wird als die Wand zur Verfügung stellt sieht es eben scheiße aus. Wir alle wissen warum das so ist.
Ja genau, sieht auch immer scheiße aus, wen so ein Auto im Film in einem riesigen, spektakulären Feuerball explodiert, anstelle das es innerhalb von 30 Minuten allmählich ausbrennt. Da hast du natürlich völlig Recht.

Und vorallem, man beachte mal wieviel Putz bei der Matrix1 Szene so rumfliegt:
http://www.youtube.com/watch?v=PGmsSw9xkq0&feature=related

Stimmt, sieht echt total scheisse aus ;)

tombman
2010-03-27, 18:25:23
Uh, scheiße, mir fehlen ein paar unrealistisch herumfliegende Partikel, wie schlimm. Dafür bekomme ich keine Hörschaden beim Spielen, auch nicht schlecht. :)
Wakü+ anderer Raum = leise :cool:

Man muß eben den GANZEN Weg mit Nvidia gehen ;)
da steckt man sich eine kleine physX karte dazu wenn man unbedingt will und gut ist.;)
diese funkensprüher sind grauenhaft und diese übertrieben wandstücke die herumfliegen,roofl.

Dann ist's aber mit der Stromersparnis und der Geldersparnis ganz schnell wieder vorbei ;)
Außerdem darf man dann dauernd Angst haben, daß Nvidia einen Weg findet, daß es nicht mehr funktioniert.

Da kann man sich auch gleich "the real thing" kaufen, nämlich GTX480- that's rl :cool:

Es ist irrelevant ob einem Phys-X Effekte gefallen oder nicht, man sieht sie nicht
und hat ein verkrüppeltes game vor sich mit AMD. Mit NV hat man die WAHL, ob man sie sehen will, mit AMD heißt es
einfach: NEIN.

And i don't want that :)

Alle Regler gehören NICHT ausgegraut und ganz nach RECHTS- das ist das Credo der Enthusis :)
Nvidia kapiert das, Amd nicht.

Gast
2010-03-27, 18:27:19
Die GTS240 als Zusatzkarte wird die Effekte bei Mafia 2 nicht flüssig darstellen können. Dann noch 2 Karten anstatt einer im Rechner. Nenene 470 holen dann haste ne 5870 plus PhysX.

corvus
2010-03-27, 18:27:25
Wo schreibe ich das?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7932728&postcount=1252

Bitte entsprechendes Zitat.


Es ist nicht nur Tessellation, sondern auch DX11 im generellen, in dem die neue Nvidia-Generation die ATI deutlich schlägt. Das es sicherlich Games geben wird, für die der Fermi zu langsam ist, ist unbestritten, nur wird dieser Punkt deutlich später kommen als bei ATI, das sieht man ja an den heutigen Benches schon. Zumal Fermi gerade im wichtigsten Punkt (min fps) deutlich besser da steht.


Die GTX470 ist weder großartig lauter noch stromhungriger noch teurer als die HD5870 - und dabei gleich schnell mit eben oben aufgeführten Vorteilen. Von daher mag die Leistungskrone der GTX480 teuer erkauft sein, absolut richtig, der aktuelle Gleichstand der GTX470 dagegen überhaupt nicht. Beide Karten (GTX470, HD5870) sind gleichwertig, mit zukünftigen Vorteilen für die GTX470. Daher würde ich letztgenannte auch definitiv vorziehen, auch wenn sie etwas teurer als die ATI wäre (ich sag mal so 300 vs. 350€).

Ganz klar: Wenn es Nvidia schafft die GTX470 wirklich lieferbar zu kriegen, halte ich die Aussage die Cypress-Chips bis zum Sommer in Stückzahlen zu schlagen für nicht übertrieben.


Jo schon klar ... den Metro Bench schon vergessen..
die 470 fliegt ja schon folding Home gedöhns im Winter auseinander...

gleich laut gleich warm gleicher Verbrauch wie ne HD5....oje oje wo warste die letzten 20 Std.?

Spasstiger
2010-03-27, 18:29:06
Es ist irrelevant ob einem Phys-X Effekte gefallen oder nicht, man sieht sie nicht
und hat ein verkrüppeltes game vor sich mit AMD. Mit NV hat man die WAHL, ob man sie sehen will, mit AMD heißt es
einfach: NEIN.
Zwei HD 5970 4 GiB + GTX 480 für PhysX, wie wäre das? ;)
Oder doch lieber vier EVGA GTX 480 FTW mit Wakü, davon eine für PhysX?

mapel110
2010-03-27, 18:29:36
http://translate.google.de/translate?js=y&prev=_t&hl=de&ie=UTF-8&layout=1&eotf=1&u=http%3A%2F%2Flab501.ro%2Fplaci-video%2Fnvidia-gtx480-animal-magnetism&sl=auto&tl=de
Noch ein Review. Eher nvidia-Freundlich. Kein Wunder bei der Quelle Igor Stanek (Twitter). ^^

Bucklew
2010-03-27, 18:30:47
gleich laut gleich warm gleicher Verbrauch wie ne HD5....oje oje wo warste die letzten 20 Std.?
Im Gegensatz zu dir hab ich scheinbar die Reviews gelesen ;)

Damit du nciht so dumm sterben musst:
http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=19

Gast
2010-03-27, 18:31:11
(meine letzte "Kaufkarte" war die in allen Punkten wirklich gute 8800GT ;-)
Stimmt, die hatte ja einen geradezu perfekten Idle-Modus.

Gast
2010-03-27, 18:31:50
PCGH fällt leider immer wieder mit Tendenziösen Berichterstattung auf und es ist wohl auch kein Zufall das Fermi nirgends so weit vorne ist wie dort. Aber dafür haben sie ja auch als einzige deutschsprachige Seite eine GTX470 bekommen.
Außer Heise und Hartware.net…

Tarkin
2010-03-27, 18:31:54
Wo schreibe ich das?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7932728&postcount=1252

Bitte entsprechendes Zitat.


Es ist nicht nur Tessellation, sondern auch DX11 im generellen, in dem die neue Nvidia-Generation die ATI deutlich schlägt. Das es sicherlich Games geben wird, für die der Fermi zu langsam ist, ist unbestritten, nur wird dieser Punkt deutlich später kommen als bei ATI, das sieht man ja an den heutigen Benches schon. Zumal Fermi gerade im wichtigsten Punkt (min fps) deutlich besser da steht.


Die GTX470 ist weder großartig lauter noch stromhungriger noch teurer als die HD5870 - und dabei gleich schnell mit eben oben aufgeführten Vorteilen. Von daher mag die Leistungskrone der GTX480 teuer erkauft sein, absolut richtig, der aktuelle Gleichstand der GTX470 dagegen überhaupt nicht. Beide Karten (GTX470, HD5870) sind gleichwertig, mit zukünftigen Vorteilen für die GTX470. Daher würde ich letztgenannte auch definitiv vorziehen, auch wenn sie etwas teurer als die ATI wäre (ich sag mal so 300 vs. 350€).

Ganz klar: Wenn es Nvidia schafft die GTX470 wirklich lieferbar zu kriegen, halte ich die Aussage die Cypress-Chips bis zum Sommer in Stückzahlen zu schlagen für nicht übertrieben.

:crazy2:

das letzte mal als ich nachgesehen habe war eine 470er langsamer (~ 10%), stromhungriger (+50W unter Last) und lauter (vor allem im Idle!) als eine 5870...

Gast
2010-03-27, 18:32:44
Ach ja, PCGH ist bei weitem nicht so zuverlässig, wie HT4U.
Nicht nur, dass Ihre Messergebnisse äusserst gut dokumentiert werden (Meßprotokolle etc.), sondern sie gehen auch auf einen - nicht ganz unwichtigen - Punkt ein, einfach mal zu schauen, was eigentlich passiert, wenn man mehr als einen Mnitor anschließt... den Mehrverbrauch bei Media-Beschleunigung haben sich die meisten anderen Reviewer ja schon abgeschaut.

Das hat doch nix mit Zuverlässigkeit zu tun, sondern mit Testauswahl.

aths
2010-03-27, 18:33:27
Das war auch noch die gleiche alte Architektur, GT400 ist aber komplett neu"Komplett neu" waren bei Nvidia der NV3 und der G80. Die anderen Chips sind überarbeitete und ergänzte Architekturen.

Gast
2010-03-27, 18:33:46
Insgesamt fand ich die Auswahl von Spielen ok und irgendeine Tendenz braucht man ja immer. :D

Nur dieser Satz hat da nichts verloren und warum Dirt in DX9 mitgenommen wird habe ich nicht verstanden, da DX11 eindeutig die Zukunftsprognose bildet.
Häh? Dirt 2 wurde in beiden Modi gebencht, DX11 steht sogar oben.
http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=9

urfaust
2010-03-27, 18:34:05
Es ist irrelevant ob einem Phys-X Effekte gefallen oder nicht, man sieht sie nicht
und hat ein verkrüppeltes game vor sich mit AMD. Mit NV hat man die WAHL, ob man sie sehen will, mit AMD heißt es
einfach: NEIN.

PhysX ist ein gefickt eingeschädeltes Marketing-Instrument -
und wer gescheit ist, scheißegal ob Enthusiast oder Otto-Normal,
beugt sich dem nicht. Schon mal was von Prinzipien gehört?

Daredevil
2010-03-27, 18:34:48
Mit NV hat man die WAHL, ob man sie sehen will, mit AMD heißt es
einfach: NEIN.
Ach komm, laber doch nicht so ein Mist.
Nur weil es Hardwarebeschleunigt ist, heißt das nicht, das es nicht auch CPU beschleunigt ist.
Ein Spiel wird nie so exklusiv sein, das man einem anderen Hersteller Spieleinhalte verweigert. Ich meine damit nicht Partikeleffekte, sondern zerstörbare Tische, Reifen, Glas. Das stemmt auch locker ne CPU.
Mit meinem kleinen C2D habe ich Batman gespielt mit Flatterumhang und zerstörbare Kacheln, braucht ja auch so ne brachiale Leistung.

derguru
2010-03-27, 18:38:02
Dann ist's aber mit der Stromersparnis und der Geldersparnis ganz schnell wieder vorbei ;)
Außerdem darf man dann dauernd Angst haben, daß Nvidia einen Weg findet, daß es nicht mehr funktioniert.

komisch ich habe bis jetzt keine panikattacken das es nv mal deaktiviert bekommt.liegt wahrscheinlich daran das es bis jetzt nicht viel zu sehen gab.

Da kann man sich auch gleich "the real thing" kaufen, nämlich GTX480- that's rl :cool:
wegen den paar spielen und dann noch spiele die mich null interessieren,ne danke.

Es ist irrelevant ob einem Phys-X Effekte gefallen oder nicht, man sieht sie nicht
und hat ein verkrüppeltes game vor sich mit AMD. Mit NV hat man die WAHL, ob man sie sehen will, mit AMD heißt es
einfach: NEIN.


And i don't want that :)

Alle Regler gehören NICHT ausgegraut und ganz nach RECHTS- das ist das Credo der Enthusis :)
Nvidia kapiert das, Amd nicht.

richtig nur weil es ausgegraut ist steckt eine zusatzphysX in der kiste aber wirklich nur deshalb und zum benchen,für was anderes ist es zur zeit nicht zugebrauchen.

Bucklew
2010-03-27, 18:39:04
das letzte mal als ich nachgesehen habe war eine 470er langsamer (~ 10%)
Das kommt immer drauf an, worauf man aus ist. Sobald man auf die Min-FPS achtet (die ja nunmal das entscheidende beim Spielen sind), ist meist die GTX470 im Vorteil. Vorallem in hohen Auflösungen.

stromhungriger (+50W unter Last)
Das stimmt, leider fehlt bei diesen Messungen aber meist auch die Performance. Wenn bei solchen Messungen die Fermikarte natürlich auch mehr Leistung bringt, verwundert das nicht.

und lauter (vor allem im Idle!) als eine 5870...
Dafür ist beim Spielen die 5870 wieder lauter, im Furmark wieder die 470 (minimal). Von daher eben: Unentschieden. Die 5870 ist eben NICHT durchgängig leiser, genau das meinte ich.

Dural
2010-03-27, 18:40:53
Glaubst du wirklich das deine ständigen Lügen noch irgend jemand glaubt, nachdem du schon mehrmals überführt wurdest?

welche lügen? die lüge das du so feige bist und dich nicht mal anmeldest? lol

lächerlich... und es sind immer die selben... schon traurig wenn man selber nichts hat nicht war?

Nakai
2010-03-27, 18:41:02
GTX480 bietet nicht wirklich was Neues gegenüber der HD5870. Man kann sich zwar teilweise ganz gut absätzen, aber in der Gesamtheit bleibt man nur leicht vor der Konkurrenz. Sry, ich hab mir etwas mehr erwartet. Mindestens 25% im Schnitt, eher 30 bis 40%. Dann würde in netter Preiskampf entstehen.

Nun könnte ATI eine übertaktete HD5870 mit 2GB nachlegen und schon wäre die GTX480 ziemlich nutzlos.

Der wahrer Gewinner ist die GTX470. Deutlich niedriger Stromverbrauch durch Deaktivierung einiger Einheiten und Reduzierung des Taktes.


mfg

Spasstiger
2010-03-27, 18:41:16
Ein Vergleich würde mich noch stark interessieren: HD 5870 + GTS 250 (PhysX) vs. GTX 480. Beide Lösungen liegen in Punkto Preis und Leistungsaufnahme recht ähnlich.

seltener Gast
2010-03-27, 18:42:44
63 dB(A) aus 15 cm Abstand (@ Computerbase) entsprechen in 5 m Abstand ohne Wände noch ca. 33 dB(A).
Schreibtische stehen in der Regel aber nicht mitten im Raum. :)
Und die Wand war in dem Link auch schon berücksichtigt. Es ging ja um die Lautstärke beim Sender.

Blaire
2010-03-27, 18:43:02
Sry, ich hab mir etwas mehr erwartet. Mindestens 25% im Schnitt, eher 30 bis 40%.

Unter DX11 ist das recht häufig der Fall.

GTX 480 vs 5870 - DX11 - 1920x1200 4xMSAA/16xAF
HW.fr +42%
CB +20%
TweakPC +31%
HT4u + 24%

gedi
2010-03-27, 18:43:24
Also wenn schon Fermi, dann GTX480! Ich finde tatsächlich nichts, was für eine 470 spricht. Angesichts der Leistung noch immer unverhältmäßig hohe Leistungsaufnahme, zu teuer im Vergleich zu Cypress und im Schnitt 10% langsamer :( - zudem kein SGSSAA (kein Wunder bei der Texturleistung).

Die GTX480 überzeugt imo doch durch brachiale Singe-GPU-Performance, mißfällt allerdings auch durch die bereits hier durchgekauten Nachteilen.

Wahrscheinlich wird es für mich eine Asus 5870 Matrix mit 2GB - je nachdem was die Reviews so hergeben. Wenn die Grafikkarte auch nicht der Bringer wird, dann überspringe ich diese Generation und warte entweder auf Fermi mit 512sp oder den R900.

derguru
2010-03-27, 18:44:14
Ein Vergleich würde mich noch stark interessieren: HD 5870 + GTS 250 (PhysX) vs. GTX 480. Beide Lösungen liegen in Punkto Preis und Leistungsaufnahme recht ähnlich.

hier bitte posten mit den heizstrahlern.:tongue:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7831514&postcount=24
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7611999&postcount=1

Dural
2010-03-27, 18:44:26
LZ,dildo4u,Bucklew,Dural
aber die Effizienz ist einfach desatrös da gibt es nichts dran zu rütteln.


wo hab ich jemals was anderes geschriben? kannst du lesen oder bist du dazu nicht in der lage?!?

zb. hier:

ich finde gerade die GTX470 überhaupt nicht interessant! da dürfte der GF104 deutlich interessanter werden, sicher nicht mit max Leistung aber sonst schon!

GF100 ist OK mit 512SP und 100Watt weniger hehe mal schauen was mit Bx kommt, ich erwarte aber keine wunder... NV Ziel dürfte mit Bx sicher sein watt zu sparen so viel wie möglich, die Leistung dürfte wohl gar nicht mehr gross ansteigen zwischen GTX480 und GTX485 (??)

Gast
2010-03-27, 18:45:03
Tuuuut! Tuuut!
Es ist nicht nur Tessellation, sondern auch DX11 im generellen, in dem die neue Nvidia-Generation die ATI deutlich schlägt. Das es sicherlich Games geben wird, für die der Fermi zu langsam ist, ist unbestritten, nur wird dieser Punkt deutlich später kommen als bei ATI, das sieht man ja an den heutigen Benches schon. Zumal Fermi gerade im wichtigsten Punkt (min fps) deutlich besser da steht.

:ucrazy3:

Ganz besonders stört mich in diesem Kontext der mehrfach verwendete Ausdruck "deutlich"...
Den Rest lass ich dir als frühzeitiger "Sonntagsspinner" durchgehen.
Tesselation ist die deutliche (<- hier passt es besser) Überlegenheit gegenüber der HD 5000-Serie. Leider auch die Einzige.
Jede andere Behauptung ist wahnhafter Killefitz.

Unglaublich wie hier manche hergehen und Dinge durch latende Beschönigung herbeireden wollen...

Selbst wenn's denn tatsächlich so wäre wie du sagst. Was bringt mir jetzt die DX 11 Performance von übermorgen, wenn es heute noch um DX 9.0.c und morgen dann um DX 10 geht?

Wie mehrfach hier erwähnt bin ich wirklich ein großer Freund von Nvidia, insbesondere von deren Treibern, doch dieses Jubelpersertum ist selbst mir wirklich unerträglich. :down:

Fermi ist zwar kein Schuss in den Ofen, aber der - erfhoffte - große Wurf ist er definitiv auch nicht. Man kann ATI derzeit nur mit Müh und Not und einiger Verspätung paroli bieten. Das ist die Wahrheit.

Bucklew
2010-03-27, 18:45:06
Nun könnte ATI eine übertaktete HD5870 mit 2GB nachlegen und schon wäre die GTX480 ziemlich nutzlos.
Wird es nicht geben, außer von den Kartenhersteller selbst, aber nicht als Referenzmodell. Wenn man sich die Probleme der GTX480 im Vergleich zur 470 anguckt weiß man auch warum ATI da keinen Spielraum hat. Und wenn man die Liefersituation der HD5870 anschaut erst Recht - die ist ja fast gar nicht lieferbar, wie soll das erst bei einer 5890 werden? ATI weiß schon, warum es keine 5890 geben wird.

Ihm
2010-03-27, 18:46:18
Die Leistungsangabe hast du dir gerade selbst erdacht.

Echt? Kannste rechnen? Na dann mal los:

http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_nvidia_geforce_gtx_480/26/#abschnitt_leistungsaufnahme


Außerdem kann man 480 gleich mit der 470 vergleichen, es kann doch nicht so schwer sein nicht Rot vs Grün zu sehen.

Ach komm, hör auf vom Thema abzulenken. Kritisieren heisst nicht Partei ergreifen. Oder sollte das etwa ein missglückter Versuch sein, deinen eigenen Fanboystatus zu überspielen. :rolleyes:
Fanboys sind für mich gestörte Konsumenten, um das mal klarzustellen.
Ich kann mit diesem Quatsch nichts anfangen. Ich kritisiere einfach Dinge, die kritisiert werden sollten. Ob jetzt AMD/ATI, Intel oder Nvidia ist mir schnuppe.


Öhm nö. 3dB Verdopplung, 10dB Verzehnfachung.

Du bringst da was durcheinander. Der alte Sengpiel muss es wieder richten :D

http://www.sengpielaudio.com/Rechner-pegelaenderung.htm

Schalldruckpegel ist keine Energiegröße, ergo entsprechen 6 dB mehr einer Verdoppelung des Schalldruckpegels. Lautstärke im physiologischen Sinne ist wieder ein anderes Thema, diese vergleicht man besser anhand der Sonewerte.

Prinzipiell sollte man die Angaben immer in Sone machen. dB(A) ist aber an vielen falschen Stellen noch vertreten.

Bucklew
2010-03-27, 18:50:25
Tesselation ist die deutliche (<- hier passt es besser) Überlegenheit gegenüber der HD 5000-Serie. Leider auch die Einzige.
Das stimmt einfach nciht, weil es grundsätzlich für DX11 gilt. Siehe Metro, siehe Dirt2 etc.

Selbst wenn's denn tatsächlich so wäre wie du sagst. Was bringt mir jetzt die DX 11 Performance von übermorgen, wenn es heute noch um DX 9.0.c und morgen dann um DX 10 geht?
Ganz einfach, weil damit die Möglichkeit (!), dass deine heute gekauft Karte übermorgen noch nutzbar ist, bei der GTX470 deutlich größer ist als bei der HD5870. Und da beide ähnlich viel kosten - was kaufst du dann? Die Karte, die jetzt schon mit den neusten DX11-Games nicht mehr mithalten kann oder die, die das noch tut?

Abgesehen davon reden wir eher über Morgen, welcher Entwickler fängt denn jetzt noch mit DX10 an und nimmt nicht direkt DX11?

Fermi ist zwar kein Schuss in den Ofen, aber der - erfhoffte - große Wurf ist er definitiv auch nicht. Man kann ATI derzeit nur mit Müh und Not und einiger Verspätung paroli bieten. Das ist die Wahrheit.
Nein, das stimmt so nicht. Sie halten (mit der GTX470) ziemlich gut Paroli zu ATI, mit Mühe und Not holen sie sich nur die Leistungskrone (GTx480).

Gast
2010-03-27, 18:51:45
Echt? Kannste rechnen? Na dann mal los:

http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_nvidia_geforce_gtx_480/26/#abschnitt_leistungsaufnahme

Ich sehe keine 470 die 150W mehr verbraucht.

Ich sehe dafür andere Karten, z.b. 5870, 5970 und 480. Gemessen wurde jeweils das Gesamtsystem, also inklusive allem auch dem Netzteil.
Keine Ahnung von wo du die 150W nimmst.


Ach komm, hör auf vom Thema abzulenken. Kritisieren heisst nicht Partei ergreifen. Oder sollte das etwa ein missglückter Versuch sein, deinen eigenen Fanboystatus zu überspielen.
Fanboys sind für mich gestörte Konsumenten, um das mal klarzustellen.
Ich kann mit diesem Quatsch nichts anfangen. Ich kritisiere einfach Dinge, die kritisiert werden sollten. Ob jetzt AMD/ATI, Intel oder Nvidia ist mir schnuppe.
Du hast nunmal Farbe ins Spiel gebracht, indem du die 470 ignoriert hast.
480 muss man, wenn überhaupt mit 5970 und 5870 vergleichen.
470 mit 5870.
Wenn man zeigen will wie scheisse die 480 ist, nimmt man nicht nur eine andere, sondern mehrere, aus dem selben Lager ebenfalls, als 470.

Gast
2010-03-27, 18:52:03
Naja, schätze meine GTX 275 bleibt dann halt noch ein Jahr im Rechner. :schulterzuck:

Gestrandet
2010-03-27, 18:52:05
Genau, Sone ist die korrekte Größe. Zum Radau der 480 kann man eigentlich nur sagen (Achtung, Wortspiel! Klassisch in 2D, kein PhysX-Support): Sone icht! ^^ *SCNR*

Edid: Sorry wenn ich grad ein bisschen albern bin, aber dafür dass ein paar Jungs und Mädels hier soooo lange sooooooo dicke Backen gemacht haben, uns für den Dienstag der Fermi-Vorstellung die Wiederkehr des Heilands prophezeit haben und sich überhaupt jede Menge haben einfallen lassen um uns vom Kauf einer HD5K abzuhalten, dürfen sie sich jetzt auch ein bisschen triezen lassen ;)
(bin traditionell ein zufällig loyaler NV-Kunde, ATI hat bei mir iwie immer Pech - wenn neu angeschafft wurde, hatte ATI immer das schlechtere Paket).

P.S.: Was ist eigentlich aus dem Dienstag geworden?

aths
2010-03-27, 18:53:22
Ein Posting von aths nach dem Motto "Da redet sich einer seinen Kauf schön":

Die G80-Generation war damals entweder sehr teuer, oder durch den Speicher zu beschnitten (8800 GTS-320.) Den nie gebauten G82 gab es dann als G94 mit der GeForce 9600. Bis heute eine Karte die in Dingen Effizienz extrem gut ist (was die mit nur 64 SP und 32 TMUs wegdrückt, ist krass.)

Die G92-GPU hätte als Highend-Chip gute Dienste geleistet, hätte sie auch ein 384-Bit-SI geboten. Die Taktraten waren später sehr gut (738 // 1836) aber bei MSAA ging dem Chip einfach die Puste aus. G92 blieb ein Performance-Chip.

Kam der GT200. Die GTX 260 hat weniger Texel-Leistung als GTS 250, aber ist insgesamt doch ein gutes Stück schneller. GTX 280 // 275 // 285 sind GT200-GPUs mit Shader-Vollausbau und fühlen sich auch so an. In DirectX9 zumindest.

Mit einer GT200-GPU braucht man hier und jetzt noch kein Upgrade solange man nicht irgendwas in DX11 zocken will. Aber die alte Weisheit bleibt: GPUs der ersten Generation für ein DX-Level sind dafür noch nicht besonders gut. Der Refresh packt es schon spürbar besser. DX-Spiele auf Version "Hardware-D3D-Support minus 1" laufen aber in sorgenfreier Performance.

Wer mit der GTX 470/480 "echte" DX11-Spiele zocken will, braucht SLI. Viel Spaß!

lilgefo~
2010-03-27, 18:53:53
Die Bildqualitäts Test von PCGH bezgl AF sind ja interessant. Sieht schön aus bei der 480er bzw. hässlich bei hd5k. :S Wenn man sich die Benchmarks und Specs anschaut bekommt man so das Gefühl, dass dies das Anfang vom Ende für nv auf dem SPielemarkt zu werden scheint. :(

urfaust
2010-03-27, 18:54:14
kommt hier eigentlich überhaupt noch jemand zum zocken?... :freak:

tombman
2010-03-27, 18:56:48
PhysX ist ein gefickt eingeschädeltes Marketing-Instrument -
und wer gescheit ist, scheißegal ob Enthusiast oder Otto-Normal,
beugt sich dem nicht. Schon mal was von Prinzipien gehört?
"Scheiß auf den Stolz" [/Marcellus Rios]
Ach komm, laber doch nicht so ein Mist.
Nur weil es Hardwarebeschleunigt ist, heißt das nicht, das es nicht auch CPU beschleunigt ist.
Ein Spiel wird nie so exklusiv sein, das man einem anderen Hersteller Spieleinhalte verweigert. Ich meine damit nicht Partikeleffekte, sondern zerstörbare Tische, Reifen, Glas. Das stemmt auch locker ne CPU.
Mit meinem kleinen C2D habe ich Batman gespielt mit Flatterumhang und zerstörbare Kacheln, braucht ja auch so ne brachiale Leistung.
Zusätzliche Effekte sind also keine Spielinhalte- interessant :ugly:
komisch ich habe bis jetzt keine panikattacken das es nv mal deaktiviert bekommt.liegt wahrscheinlich daran das es bis jetzt nicht viel zu sehen gab.
wegen den paar spielen und dann noch spiele die mich null interessieren,ne danke.

Mit der Einstellung brauchst aber gar kein HighEnd mehr kaufen, da reicht auch ne Konsole...
("wegen der paar mehr Pixel, die mir nicht abgehen..." etc etc ;))

Jeder zieht die Grenze woanders, je nach Enthusiasten-Grad :biggrin:

Ich persönlich habe am liebsten gar keine Grenze, sprich: "you can have it all" + "crank that shit up"

Gast
2010-03-27, 18:57:58
EDIT: ...und wirklich identisch ist das AF auch nicht:

http://www.computerbase.de/bildstrecke/28941/122/
http://www.computerbase.de/bildstrecke/28941/116/

(auch wenn die Unterschiede minimalst sind, so haben sie doch etwas geändert. Und zwar nicht zum Positiven)
Aber die bilineare Detailtextur bei der Radeon gefällt dir gut?
http://www.computerbase.de/bildstrecke/28941/98/
http://www.computerbase.de/bildstrecke/28941/104/
http://www.computerbase.de/bildstrecke/28941/110/

mboeller
2010-03-27, 19:00:49
Wakü+ anderer Raum = leise :cool:



Dafür hast du dann einen heißen Arxxh, oder? Dein Rechner steht doch auf dem WC. Leise, ok; aber die Wärme muss ja auch mit Wakü weg. ;)

Ihm
2010-03-27, 19:01:21
Ich sehe keine 470 die 150W mehr verbraucht.

Ich sehe dafür andere Karten, z.b. 5870, 5970 und 480. Gemessen wurde jeweils das Gesamtsystem, also inklusive allem auch dem Netzteil.
Keine Ahnung von wo du die 150W nimmst.

Du hast nunmal Farbe ins Spiel gebracht, indem du die 470 ignoriert hast.
480 muss man, wenn überhaupt mit 5970 und 5870 vergleichen.
470 mit 5870.
Wenn man zeigen will wie scheisse die 480 ist, nimmt man nicht nur eine andere, sondern mehrere, aus dem selben Lager ebenfalls, als 470.

Ich weiss ja nicht, welchen Beitrag du gelesen hast, aber meiner war es anscheinend nicht.
Das war mein Beitrag:

GTX480 = mir sind alle Mängel egal, ich will nur die beste Single-GPU-Leistung.
GTX470 = ich will eine Alternative zur HD5870, damit ich PhysX und besseres AF bekomme.

Jetzt würde ich aber noch gerne ein paar GPGPU-Vergleiche sehen.
Wahrscheinlich jedoch Mangels sinnvoller Software nicht machbar.

Mein Fazit:
GTX480...Leistungskrone durch ca. 150W mehr Stromverbrauch und 9dB höhere Lautstärke im Lastbetrieb als bei der HD5870? Nein Danke. Nur damit das mal klar wird: 10dB Unterschied = ca. doppelte Lautstärke.
Mehr Leistung, gerne. Aber nicht um jeden Preis, nur damit man am Ende den grösseren Schwanz hat.
Egal ob Intel, AMD/ATI oder Nvidia. Jeder von denen wäre in der Lage einen Chip zu konstruieren, der den Wettbewerber hinter sich lässt. Aber zu welchem Preis? Nvidia scheint das bei der GTX480 offensichtlich egal gewesen zu sein. Glückwunsch. Setzen Sechs.

Ich glaube, dass die GTX480 in die Sparte "damals nannte man sowas bei Nvidia Ultra" fällt -> wenig Exemplare. Ich kann nur hoffen, dass Nvidia die GTX470 als eigentliche Geldmaschine fokussiert hat.
Ableger der GTX480 in Tesla-Systemen sind bei entsprechender Mehrleistung hingegen sinnvoll.

Wenn die GTX470 ein paar Tage im Handel verbracht hat, halte ich sie für eine sehr attraktive Alternative.

Spasstiger
2010-03-27, 19:01:23
Es ging ja um die Lautstärke beim Sender.
Und wen interessiert das? Wer sich eine GTX 480 kauft, weiß, dass sie tierisch nervt, wenn man daneben sitzt. Aus lärmschutztechnischer Sicht ist nur relevant, was z.B. der Nachbar von der Karte hört. Und 63 dB(A) aus 15 cm Abstand sind eben nicht so dramatisch viel, dass man hinter einer Steinwand noch was davon hören würde. Selbst wenn man in 1 m Entfernung zur Grafikkarte sitzt und das Gehäuse offen hat, ist man nur noch einem Schalldruckpegel von 46-47 dB(A) ausgesetzt. Weit weniger als die 80 dB(A) aus der DIN 4109.

Dural
2010-03-27, 19:01:55
und übrigens an alle die den GF100 schlecht reden müssen...

NV hat wenigsten ein Plus von fast 70% gegen über GTX285 im schnitt rausgeholt wo hingegen AMD es bei der 5870 nur 50% im Vergleich zur 4890 geschafft hat ;-) und der GF100 läuft auf der GTX480 nicht mal "voll"

Einziger Kritikpunkt ist und bleibt der Verbrauch :P mit 100Watt weniger würde eine GTX480 komplett anders da stehen...

Gast
2010-03-27, 19:05:16
Dasselbe Bild inden selben JPEG-Komprimierer mit denselben Einstellungen liefert denselben Output.
Es sind aber nicht dieselben Bilder, da reicht schon ein Pixel Verschiebung, damit was in einen anderen Block hineinfällt und dort zur Mittelwertbildung beiträgt.

tombman
2010-03-27, 19:06:47
Dafür hast du dann einen heißen Arxxh, oder? Dein Rechner steht doch auf dem WC. Leise, ok; aber die Wärme muss ja auch mit Wakü weg. ;)
Das Klo hat Abluftventilator nach draußen ;)
Außerdem: besser die Hitze in einem Raum, wo ich nur kurz bin, als den heißen Elektrosmog im Wohn-/Schlaf-/Arbeitszimmer.
Nene, das war damals einer meiner besten Ideen- können aber vielleicht nur die verstehen, die den Rechner selbst woanders
stehen haben. Ich kann nur jedem empfehlen, den Rechner in einen anderen Raum zu stellen- die Freiheit ist genial- gerade bei
HighEnd HW, also auch GTX480/HD5.

Bucklew
2010-03-27, 19:07:00
Einziger Kritikpunkt ist und bleibt der Verbrauch :P mit 100Watt weniger würde eine GTX480 komplett anders da stehen...
Richtig. Und viel wichtiger: Der Idle-Verbrauch. Aber irgendwas passt da nicht, die Karte nutzt so wenig Spannung und so wenig Takt im Idle, wie kann sie da 70W ziehen?

Gast
2010-03-27, 19:07:54
und übrigens an alle die den GF100 schlecht reden müssen...

NV hat wenigsten ein Plus von fast 70% gegen über GTX285 im schnitt rausgeholt wo hingegen AMD es bei der 5870 nur 50% im Vergleich zur 4890 geschafft hat ;-) und der GF100 läuft auf der GTX480 nicht mal "voll"

Einziger Kritikpunkt ist und bleibt der Verbrauch :P mit 100Watt weniger würde eine GTX480 komplett anders da stehen...

Wenn es so wäre müsste der Abstand GTX285 zu 4890 deutlich kleiner sein als 5870 zu GTX480. Dem ist definitiv nicht der Fall.

Gast
2010-03-27, 19:09:18
und übrigens an alle die den GF100 schlecht reden müssen...

NV hat wenigsten ein Plus von fast 70% gegen über GTX285 im schnitt rausgeholt wo hingegen AMD es bei der 5870 nur 50% im Vergleich zur 4890 geschafft hat ;-) und der GF100 läuft auf der GTX480 nicht mal "voll"

Einziger Kritikpunkt ist und bleibt der Verbrauch :P mit 100Watt weniger würde eine GTX480 komplett anders da stehen...

Ich wusste gar nicht, dass die 4890 schneller als GTX285 war, aber danke dass du darauf noch einmal hinweist.
Ich bin sowieso dafür, dass man deinen Memberstatus auf "Herr der Fakten" ändert.:)

Undertaker
2010-03-27, 19:15:01
Wenn es so wäre müsste der Abstand GTX285 zu 4890 deutlich kleiner sein als 5870 zu GTX480. Dem ist definitiv nicht der Fall.

CB Rating anschauen - das stimmt schon was Dural sagte. Allerdings ist der Unterschied jetzt nicht so riesig, und dann ist das enorme Verbrauchsdelta in der aktuellen Generation.

derguru
2010-03-27, 19:16:04
und übrigens an alle die den GF100 schlecht reden müssen...

NV hat wenigsten ein Plus von fast 70% gegen über GTX285 im schnitt rausgeholt wo hingegen AMD es bei der 5870 nur 50% im Vergleich zur 4890 geschafft hat ;-) und der GF100 läuft auf der GTX480 nicht mal "voll"

Einziger Kritikpunkt ist und bleibt der Verbrauch :P mit 100Watt weniger würde eine GTX480 komplett anders da stehen...

einziger kritikpunkt ist gut,entscheidender würde ich mal sagen.

wo kommen die 70% her?es sind unter 1920*1200 4aa/16af 63% und bei ati 55%.das interessante dabei ist das durch die 4890 af sample einsparung man der 5870 sogar paar % dazu rechnen müsste und was würde dann raus kommen?fast die selbe wurst an effizienz.man könnte nun sagen nv hat mit dem fermi bei 8aa mit amd gleichgezogen.;)
http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_nvidia_geforce_gtx_480/21/#abschnitt_performancerating_qualitaet

Gast
2010-03-27, 19:18:53
Das Klo hat Abluftventilator nach draußen ;)
Außerdem: besser die Hitze in einem Raum, wo ich nur kurz bin, als den heißen Elektrosmog im Wohn-/Schlaf-/Arbeitszimmer.
Nene, das war damals einer meiner besten Ideen- können aber vielleicht nur die verstehen, die den Rechner selbst woanders
stehen haben. Ich kann nur jedem empfehlen, den Rechner in einen anderen Raum zu stellen- die Freiheit ist genial- gerade bei
HighEnd HW, also auch GTX480/HD5.

ich versuch mir grad vorzustellen wie ich gästen erklären sollte warum bei mir ein computer im badezimmer steht...
computer im bad ist für mich die endstufe sozialer isolation

PCGH_Carsten
2010-03-27, 19:19:18
Eine Karte war zumindest defekt bei PCGH.


Offtopic@PCGH:

Das PCGH Uncut Video zur GTX ist echt nett. Sehr symphatisch kommt ihr da rüber. Wobei ihr euch wirklich schwer tut, positive Argumente zu nennen.
Habt ihr eigentlich mal ein Rhetoriktraining mit Kamera gemacht? Hatte die Möglichkeit in der Hochschule und das hilft wirklich. Zumal ich mit 2m und 105 KG nicht wirklich kameratauglich bin.

Danke, aber das sind wirklich beinahe ungeschnittene Videos - der Kollege Waadt nervt uns während unserer normalen Arbeit andauernd damit. Und um ihn möglichst schnell wieder loszuwerden, sabbeln wir halt irgendwas in die Kamera.


--
We used FurMark v1.8 to load our video cards. This puts the hardware in a load situation that is "synthetic," but from our game testing here, it is not far from real world loads. We used FurMark v1.8 to load our video cards. This puts the hardware in a load situation that is "synthetic," but from our game testing here, it is not far from real world loads.
Noch mal zu den [H]-Videos: Furmark ist meiner Meinung nach schon eine ganze Ecke von echter Spielelast entfernt - als Worst-Case aber nach wie vor größtenteils gültig, auch wenn manche Treiber hier eingreifen und größere Lautstärke verhindern.

Gast
2010-03-27, 19:19:30
Erste OC-Version der GTX 480 gesichtet:
http://img687.imageshack.us/img687/97/355621.png
:D

LovesuckZ
2010-03-27, 19:22:27
Kann man den auch für Hemlock nehmen?
Ich finde es erstaunlich, dass Hemlock hier rigorös ignoriert wird. Wurde da nicht vor ein paar Tagen noch gegen die PCGH.de geflamt, weil diese Hemlock nicht in die Diagramme aufnehmen wollten? :lol:

Bucklew
2010-03-27, 19:23:05
Interessantes aus dem Review von bsn (http://www.brightsideofnews.com/news/2010/3/26/nvidia-geforce-gtx-480--gtx-480-sli-review.aspx?pageid=0):

1. Zum Launch gibt es mehr als 30.000 Karten - mehr als 50% mehr als beim ATI-Launch.

2. ATI drosselt immer noch (bzw wieder) den Furmark, er läuft auf den HD5870 also nicht Fullspeed. Auf den GTX-Karten dagegen schon. Relativiert natürlich die Abstände.

3. Samsung hat die speziellen Displays für Eyefinity mit schmallem Rand gecancelt, wird es also nicht geben. Der Markt wird sich also wohl auf 3 Schirme konzentrieren. Wo bleibt eigentlich die 6-Port Karte von ATI? Sollte die nicht schon längst vorgestellt sein?

Daredevil
2010-03-27, 19:23:09
Nene, das war damals einer meiner besten Ideen- können aber vielleicht nur die verstehen, die den Rechner selbst woanders
stehen haben.

Yes (y)
Vorallem im anderen Kellerraum, wo es IMMER kühl drin ist.
Hab das letztens auch gemacht, beste Leben. :)

Zu den Spielinhalten, ob ne Textur jetzt matschig oder hochaufgelöst ist, kratzt mich nicht, aber ob der Reifen, wenn ich draufschieße, kaputt geht oder nicht, schon. Das meine ich mit Spielrelevanten Inhalten.
Die komplette Physik wird nicht auf Hardware PhysX basieren, CPU wird mit Sicherheit auch beschleunigen und das nicht schlecht, wär ja ein wenig dumm vom Publisher, mh?

Shaft
2010-03-27, 19:24:18
Beeindruckt mich ehrlich gesagt nicht wirklich. :|


Es sieht sehr gut aus, beeindruckend wirkt es auch nicht auf mich, teils bissl rar eingesetzt, aber auch Sehenswerte Stellen.

Ich persönlich kann überhaupt nicht mehr auf Physik(X) verzichten, es gehört mit zum optischen Gesamtergebnis.

Gast
2010-03-27, 19:24:42
Hemlock kann auch gerne Hemlock bleiben, da MGPU-Crap.
Das ist trotzdem kein Freifahrtschein für so eine perverse Leistungsaufnahme/Temperaturentwicklung.

Ihm
2010-03-27, 19:24:54
und übrigens an alle die den GF100 schlecht reden müssen...

NV hat wenigsten ein Plus von fast 70% gegen über GTX285 im schnitt rausgeholt wo hingegen AMD es bei der 5870 nur 50% im Vergleich zur 4890 geschafft hat ;-) und der GF100 läuft auf der GTX480 nicht mal "voll"

Einziger Kritikpunkt ist und bleibt der Verbrauch :P mit 100Watt weniger würde eine GTX480 komplett anders da stehen...

Wir nehmen einfach mal an, dass deine "Werte" stimmen.
Und jetzt schauen wir uns gemeinsam einfach mal an, was bei Computerbase bezüglich des Gesamtsystemverbrauchs unter Last steht:

4870 - 320W
4890 - 324W
5870 - 305W

GTX 285 - 336W
GTX 480 - 452W

Der GF100 läuft auf der GTX480 also nicht mal "voll"?...na da freue ich mich aber, wenn das Teil mal "voll" läuft. :rolleyes:

Ronny145
2010-03-27, 19:29:26
Richtig. Und viel wichtiger: Der Idle-Verbrauch. Aber irgendwas passt da nicht, die Karte nutzt so wenig Spannung und so wenig Takt im Idle, wie kann sie da 70W ziehen?


Es sind 50 Watt im Idle. Bestätigt von mehreren Tests. Aber selbst das ist mindestens das doppelte einer HD5870.

Kosh
2010-03-27, 19:29:29
und übrigens an alle die den GF100 schlecht reden müssen...

NV hat wenigsten ein Plus von fast 70% gegen über GTX285 im schnitt rausgeholt wo hingegen AMD es bei der 5870 nur 50% im Vergleich zur 4890 geschafft hat ;-) und der GF100 läuft auf der GTX480 nicht mal "voll"

Einziger Kritikpunkt ist und bleibt der Verbrauch :P mit 100Watt weniger würde eine GTX480 komplett anders da stehen...

Und?? Hätte ATI dieselbe Methode angewand wie NVIDIA,auf Leistung und Verbrauch geschissen,wäre die 4890 wohl um 75% übertroffen worden und die GTX480 wäre aktuell nur die zweitschnellste Karte.

Aber ATI hat nunmal nicht alles der MAxleistung geopfert.

Gast
2010-03-27, 19:31:11
CB Rating anschauen - das stimmt schon was Dural sagte. Allerdings ist der Unterschied jetzt nicht so riesig, und dann ist das enorme Verbrauchsdelta in der aktuellen Generation.

Ich wusste gar nicht das die GTX285 derart abgebaut hat in neuen Spielen, kaum schneller als eine 4890.

Reneeeeeee
2010-03-27, 19:33:22
Erste OC-Version der GTX 480 gesichtet:
http://img687.imageshack.us/img687/97/355621.png
:D


Wie geil :D :D

Armaq
2010-03-27, 19:34:09
Noch mal zu den [H]-Videos: Furmark ist meiner Meinung nach schon eine ganze Ecke von echter Spielelast entfernt - als Worst-Case aber nach wie vor größtenteils gültig, auch wenn manche Treiber hier eingreifen und größere Lautstärke verhindern.
Bioshock nahm doch auch jedes Watt, welches es kriegen konnte?

Matrix316
2010-03-27, 19:35:33
Also nach den Benchmarks und sonstigen Ergebnissen, bin ich mit der 5870 immer noch zufrieden. :) Aber schön, dass es mal wieder eine Nvidia Alternative gibt.

derguru
2010-03-27, 19:37:13
Bioshock nahm doch auch jedes Watt, welches es kriegen konnte?

auf keinen fall,unter normalsettings also aalles was ingame einstellbar ist läuft bioshock mit einer einer gpu auslastung von 40-50%,jedenfalls mit einer 5870.
http://www.abload.de/thumb/bioshock22010-03-2719-35b6.jpg (http://www.abload.de/image.php?img=bioshock22010-03-2719-35b6.jpg)

Gast
2010-03-27, 19:40:08
Kann man den auch für Hemlock nehmen?
Ich finde es erstaunlich, dass Hemlock hier rigorös ignoriert wird. Wurde da nicht vor ein paar Tagen noch gegen die PCGH.de geflamt, weil diese Hemlock nicht in die Diagramme aufnehmen wollten? :lol:

Das amüsante ist ja das selbst Hemlock energieeffizienter ist als die GTX480. Sie verbraucht weniger und ist schneller. Ein Armutszeugnis. Da hilft auch die unverschämte TDP-Angabe von NV nichts.

tombman
2010-03-27, 19:42:34
ich versuch mir grad vorzustellen wie ich gästen erklären sollte warum bei mir ein computer im badezimmer steht...
computer im bad ist für mich die endstufe sozialer isolation
Na, das müssen ja tolle Gäste sein, die dich verachten, wenn du non-standard Dinge tust.
Rümpfen die dann die Nase und reden hinter deinem Rücken?
Außerdem ist Klo und Bad bei mir getrennt.

deekey777
2010-03-27, 19:43:19
...
Was meinst du mit CoP Bildern? Ich sehe dort nur FEAR und Oblivion?
Da sind noch zwei Bilder aus Call of Pripyat. Und hier haben die Entwickler echt den Vogel abgeschossen:
http://www.rage3d.com/board/showthread.php?t=33959268

Gorkon
2010-03-27, 19:46:38
2. ATI drosselt immer noch (bzw wieder) den Furmark, er läuft auf den HD5870 also nicht Fullspeed. Auf den GTX-Karten dagegen schon. Relativiert natürlich die Abstände.

Ich dachte Furmark ist irrelevant? ;)

Wenn hier alle Cherry-Picking betreiben: http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=2

128W (HD5870) zu 235W (GTX 480) bei GRID. Face it...das Teil ist auch praktisch am Strom nippeln wie nix gutes.

OnTopic ohne "Spam":

Bis auf den imho absolut nicht tolerierbaren Verbrauch genau das was ich mir nach allen Werten so gedacht hab. Natürlich schneller als RV870, was aber auch ansonsten peinlich wär. Unter DX11+Tess wirklich stark...vorallem Battleforge :freak: und DIRT2, aber ab und an kriegt auch GF100 sein Fett weg (Stalker DX10). Alles in allem aber eine GPU-Generation bei beiden IHVs zum links liegen lassen.

Waiting for NI / Fermi 2...

mfg

Gast
2010-03-27, 19:48:38
2. ATI drosselt immer noch (bzw wieder) den Furmark, er läuft auf den HD5870 also nicht Fullspeed. Auf den GTX-Karten dagegen schon. Relativiert natürlich die Abstände.


Das ist falsch. NV macht das erwiesenermaßen auch. Im übrigen liegt der Verbauch auch bei normalen Spielen doppelt so hoch wie bei einer 587

Schlammsau
2010-03-27, 19:49:45
2. ATI drosselt immer noch (bzw wieder) den Furmark, er läuft auf den HD5870 also nicht Fullspeed. Auf den GTX-Karten dagegen schon. Relativiert natürlich die Abstände.


Stimmt nicht....ATi drosselt bei der aktuellen Generation nicht! ;)

Kann man ganz leicht mit OCCT und einem exe renaming kontrollieren.

Armaq
2010-03-27, 19:51:25
Ich dachte man erkennt inzwischen die Routine und Renaming hilft nicht mehr?

mapel110
2010-03-27, 19:52:09
Ich dachte man erkennt inzwischen die Routine und Renaming hilft nicht mehr?
Genau, und das ist bei ATI und nvidia der Fall. Bei nvidia und der alten Generation GT200 hilft nur ein Treiber vor 180er Release.

Gast
2010-03-27, 19:54:35
Die Leistung von GTX480 in DX11 ist aber auch nur dann relevant, wenn sie mir in Situationen wo die HD5870 keine spielbaren Fps mehr liefert das spielen ermöglicht und das ist leider fast nie der Fall.

Ob ich in Dirt2 80 oder 95 Fps habe ist irrelevant (Werte müssen nicht stimmen).

Gast
2010-03-27, 19:54:55
Danke, aber das sind wirklich beinahe ungeschnittene Videos - der Kollege Waadt nervt uns während unserer normalen Arbeit andauernd damit.
Hallo PCGH

Nachdem ich euch schon öfters hier und andernorts kritisiert habe, möchte ich mich nun auch mal bedanken. Die Videos, die ihr ins Netz gestellt habt, wirken bei Leibe nicht durchgestylt und damit nicht nur authentisch, sondern glaubhaft. Im Prinzip spiegeln sich die Emotionen beim Test der lange zurückgehaltenen Informationen zur neuen Grafikkartengeneration von nVidia recht gut in euren Gesichtern und Worten wieder. Ich denke mal niemand kann euch vorwerfen, daß ihr zu positiv oder zu negativ berichtet hättet. Zumal es sich bei den Eigenarten der neuen Grafikkarten um Dinge handelt, die sich nicht wegdiskutieren lassen.

Ich habe große Erwartungen gehabt - aber ich bin euch trozdem nicht böse. Im Gegenteil: Es ist besser, wenn man die Dinge so betrachtet, wie sie sind. Ich denke mal, wir sind alle etwas 'mitgenommen' und müssen sehen, wie Plan B bei nVidia aussieht. Denn das wird so nicht funktionieren.


mfg

Bucklew
2010-03-27, 19:58:34
Ich dachte Furmark ist irrelevant? ;)
Nun, er ist halt Worst case. Aber irrelevant ist er spätestens dann, wenn ein Hersteller seine Karten einfach drosselt. Damit ist die Aussagekraft natürlich 0.

128W (HD5870) zu 235W (GTX 480) bei GRID. Face it...das Teil ist auch praktisch am Strom nippeln wie nix gutes.
Aber auch da fehlt natürlich die Angabe der Leistung, die die Karte dabei abliefert. So wissen wir zwar den Verbrauch, aber nicht die Leistung. Wenn schon müssten beide Karte auf dieselbe FPS gedrosselt werden, um eine vergleichbare Leistung zu bestimmen.

Das ist falsch. NV macht das erwiesenermaßen auch. Im übrigen liegt der Verbauch auch bei normalen Spielen doppelt so hoch wie bei einer 587
Laut bsn nicht. Aber du kannst mir gern das Gegenteil zeigen. Das die GTX480 im Furmark bei PCGH z.B. Deadon die PCIe-Spec Grenze erreicht beweißt eher das Gegenteil. Wenn ich die Karte als Nvidia drosseln würde, dann doch ganz woanders.

Stimmt nicht....ATi drosselt bei der aktuellen Generation nicht! ;)

Kann man ganz leicht mit OCCT und einem exe renaming kontrollieren.
Dann zeig mal :) bsn sagt das Gegenteil. Und auch TomHardware bestätigt es,eine 4870X2 z.B. dreht im Furmark nichtmal ansatzweise auf:
http://www.tomshardware.de/geforce-gtx-480-470-Fermi-GF100,testberichte-240527-15.html

AYAlf_2
2010-03-27, 20:01:29
der film "das imperium schlaegt zurueck" ist abgesagt, wegen schlechter umsetzung und mieserabler spezial effekte. die raumschiffkaempfe sind wesentlich zu laut und der eintrittspreis fuer den film ist zu hoch.

bleiben sie bitte weiter bei der rebellion .. wir haben zwar keine kekse aber das bessere preis/leistungsverhältnis.

:freak:

Fazit - Gast
2010-03-27, 20:02:22
Man, man haben wir auf den Launch gewartet. Und irgendwie bleibt eigentlich nur eines "es wird alles heis gekocht, aber nicht so gegessen"!

Da ist sie also, Nvidias neue Heizung, in Zeiten von Green IT, gibt sich das Unternehmen Nvidia den revolutionären Anstrich, scheiß was auf den Regenwald, gib dem Klimawandel eine Chance. Wenn heute nicht noch März wäre, würde ich denken ein Aprilscherz. Ja ich gebe es ja zu, Spot fällt nun sehr leicht. Aber erst 6 Monatselfmeter und nun gleich 480 dazu, sorry da schieß ich doch auch mal und treff das eine oder andere Mal.

Kommen wir zu den Fakten, die hier ja strengstens gefordert werden.

1. Der GeForce 480 ist aktuell der schnellste Single Grafikchip der Welt.
2. Der Verbrauch unter Last ist ebenfalls der aktuell höchste eines Single Grafikchips.
3. Die Karte ansich ist viel zu laut.
4. Ein vernünftiges Preis/Leistungs Verhältnis ist auch nicht gegeben, sondern Nvidia läßt sich die letzen paar % viel zu teuer bezahlen.
5. Die Technologie ist für Spiele, die eventuell mal programmiert werden, in 1-2 Jahren spielt die Karte ihr volles Potential aus. (Öhm, ich will jetzt zocken).

Komm ich zu meinem persönlichen Fazit, ja Nvidia habt ihr den eine Meise? Was soll das scheiß Produkt, bzw. der scheiß Launch? Ich als Endkunde fülle mich verschaukelt, veraten und verkauft. Eigentlich bleibt nur zu hoffen, dass das Ding wie Blei in den Regalen liegen bleibt und der Technikaffine, Highend Interessierte PC Spieler entweder zur Konkurenz wechselt oder nochmal 6 Monate sich mit der jetzigen Hardwarebasis zufrieden gibt, bis dann der GF 104 endlich da ist.

Gruß Fazit - Gast

Gast
2010-03-27, 20:03:29
Die Leistung von GTX480 in DX11 ist aber auch nur dann relevant, wenn sie mir in Situationen wo die HD5870 keine spielbaren Fps mehr liefert das spielen ermöglicht und das ist leider fast nie der Fall.

Ob ich in Dirt2 80 oder 95 Fps habe ist irrelevant (Werte müssen nicht stimmen).


Liebe GTX480 Freunde geht doch mal bitte darauf ein.

Undertaker
2010-03-27, 20:04:30
Ich wusste gar nicht das die GTX285 derart abgebaut hat in neuen Spielen, kaum schneller als eine 4890.

Da hat sich nichts getan. 1680x1050, 4xAA:

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/22/#abschnitt_performancerating_qualitaet
http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_nvidia_geforce_gtx_480/21/#abschnitt_performancerating_qualitaet

13% damals, 14% heute. In 2560x1600 sogar 1% zu 8%. Und das trotz DX10.1 Speedup z.B. in Battleforge.

Gast
2010-03-27, 20:05:29
Aber auch da fehlt natürlich die Angabe der Leistung, die die Karte dabei abliefert. So wissen wir zwar den Verbrauch, aber nicht die Leistung. Wenn schon müssten beide Karte auf dieselbe FPS gedrosselt werden, um eine vergleichbare Leistung zu bestimmen.


Jetzt wird es lächerlich.
Und das NV den Furmark drosselt kann man sehr leicht nachstellen indem man eine 17x-Treiber verwendet. ;)

dargo
2010-03-27, 20:05:53
Geht Downsampling mit Nvidia mittlerweile auch unter XP?
Bin da nicht mehr auf dem Laufenden.
Letzter Stand:
NV -> Vista, Win 7
AMD -> XP

Wenn es immernoch so ist, dann hat nämlich kein IHV einen Vorteil
Hä? Natürlich ist in diesem Bereich NV im Vorteil:

1. Beim DS ist NV viel flexibler.
2. Was soll man mit Windows XP und einem Fermi und/oder entsprechender ATI-Konkurenz? :confused:

Onkel August
2010-03-27, 20:08:59
Hat eigentlich schonmal jemand grob überschlagen wieviel neue Atomkraftwerke wir pro 100.000 verkaufte GrillForce Thermi neu bauen müssen?

Ich meine, die EU verbietet uns Glühbirnen aber nV haut die GrillForce raus, da stimmt doch was nicht, das ist doch ein Angriff auf die EU?

Bucklew
2010-03-27, 20:09:00
Jetzt wird es lächerlich.
Und das NV den Furmark drosselt kann man sehr leicht nachstellen indem man eine 17x-Treiber verwendet. ;)
Na dann zeig doch mal einen Beleg. Und dann bitte auch, dass diese hypotetische Drosselung (so es sie überhaupt gibt) auch in dem für die genutzen Treiber für die dutzenden Fermitests enthalten ist. Dann können wir ja weiter diskutieren ;)

PulsarS
2010-03-27, 20:11:20
1. Beim DS ist NV viel flexibler.
Mag sein. So genau kenn ich mich nicht aus.

2. Was soll man mit Windows XP und einem Fermi und/oder entsprechender ATI-Konkurenz? :confused:
Geht der Fermi und die neuen ATIs unter XP nicht?
Oder worauf wolltest du hinaus? :confused:

Wie ich schon geschrieben habe, es hat noch nicht jeder Vista oder Win7.

Gast
2010-03-27, 20:13:14
alle zukunftigen gtx 480/70 besitzter, werdet ihr euch alle ein neues gehäise für die graka kaufen?
es ist klar dass diese karte niemals im normalem gehäuse zu kühlen ist.
Im gehäuse 106°C bei 26°C raumtemperatur:
http://www.hardware.fr/articles/787-4/dossier-nvidia-geforce-gtx-480.html

Was ist wenn die graka im sommer abraucht?
Wird man auf den kosten sitzten bleiben, wenn man kein nvidia zertifiziertes gehäuse hat, oder bekommt man sein geld zurück?

ich würde den tower nie in anderen raum stellen, wenn das Gehäuse z.Bs.feuer fängt, aus welchen gründen auch immer, kann man nicht rechtzeitig reagieren.
Wenn bei mir der lüfter ausfallen würde würde ich es sofort bemerken und den stecker ziehen, vorrausgesetzt der rechner steht zu meinen füßen, unter dem schreibtisch.

gruß

seltener Gast
2010-03-27, 20:14:12
Und wen interessiert das?

Im Zweifel den Nachbar.


Wer sich eine GTX 480 kauft, weiß, dass sie tierisch nervt, wenn man daneben sitzt.

Es ging um SLI. Und es ging um Mitbewohner und/oder Nachbarn.
Daß sie einen selbst nerven, steht außer Frage. Aber das muß jeder mit sich selbst ausmachen.


Aus lärmschutztechnischer Sicht ist nur relevant, was z.B. der Nachbar von der Karte hört. Und 63 dB(A) aus 15 cm Abstand sind eben nicht so dramatisch viel, dass man hinter einer Steinwand noch was davon hören würde.

Sagt wer? "In der Literatur finden sich für den zulässigen Schalldruckpegel im Senderaum Angaben zwischen 60 dB(A) und 75 dB(A)"


Selbst wenn man in 1 m Entfernung zur Grafikkarte sitzt und das Gehäuse offen hat, ist man nur noch einem Schalldruckpegel von 46-47 dB(A) ausgesetzt. Weit weniger als die 80 dB(A) aus der DIN 4109.

Diese 80 db geben einen angenommenen Höchstwert an. Das hat nichts mit Nachtruhe zu tun.

"Das messtechnische Kriterium für ein 'deutlich wahrnehmbares' Störgeräusch wäre also eine Erhöhung des im Empfangsraum gemessenen Schalldruckpegels durch das Störgeräusch von 3 dB in einem oder mehreren Frequenzbändern."

Und "Lautstärken, die einen Wert von 40 db tagsüber bzw. 30 db nachts überschreiten, stellen grundsätzlich eine Überschreitung der Zimmerlautstärke dar. Dies kann jedoch auch für Geräusche unterhalb dieses Pegels gelten, wenn sie nach dem Empfinden eines Durchschnittsmenschen wegen ihrer physiologischen oder psychologischen Wirkung als störend empfunden werden".

PulsarS
2010-03-27, 20:14:59
Aber auch da fehlt natürlich die Angabe der Leistung, die die Karte dabei abliefert. So wissen wir zwar den Verbrauch, aber nicht die Leistung. Wenn schon müssten beide Karte auf dieselbe FPS gedrosselt werden, um eine vergleichbare Leistung zu bestimmen.

Was ist denn das für eine Logik? :freak:

Bei den FPS-Messungen stellen wir dann beide Karten auf die gleiche Verlustleistung ein und schauen dann wer schneller ist oder wie? :rolleyes:
Der GF100 wird es dann sicherlich nicht sein.

Man stellst du eine Gehirnakrobatik ohne Sinn auf.
Das muss doch weh tun, oder?:D

Gast
2010-03-27, 20:16:31
Was ist denn das für eine Logik? :freak:

Bei den FPS-Messungen stellen wir dann beide Karten auf die gleiche Verlustleistung ein und schauen dann wer schneller ist oder wie? :rolleyes:
Der GF100 wird es dann sicherlich nicht sein.

Man stellst du eine Gehirnakrobatik ohne Sinn auf.
Das muss doch weh tun, oder?:D

Das wird der neue Benchmarkhit: Verlustleistungsnormiert:D

Gast
2010-03-27, 20:18:30
Hat eigentlich schonmal jemand grob überschlagen wieviel neue Atomkraftwerke wir pro 100.000 verkaufte GrillForce Thermi neu bauen müssen?

Ich meine, die EU verbietet uns Glühbirnen aber nV haut die GrillForce raus, da stimmt doch was nicht, das ist doch ein Angriff auf die EU?

Die Atombonzen haben bestimmt eine geheime Absprache mit NV um zu begründen warum sie längere Laufzeiten brauchen.

Gast
2010-03-27, 20:19:07
Ja gut, jetzt wissen wir auch warum Huang vor ein paar Tagen soviele seiner nV Aktien abgestossen hat.

Bucklew
2010-03-27, 20:20:13
Was ist denn das für eine Logik? :freak:
Ähm, es ist doch völlig logisch, dass man auch nachprüfen muss, welche Leistung durch die Leistungsaufnahme X erreicht wird, oder nicht? Oder kaufst du ein Auto auch nur nach dem Verbrauch und denkst nichtmal ansatzweise darüber nach, was du damit willst und welche Leistung du brauchst? Kaufst dir dann also son 3l Lupo und wunderst dich, warum du mit dem 3t-Wohnmobil den Berg nicht schaffst?

Dann sag mir doch was wir machen, wenn folgendes passiert:

Morgen kommt Hersteller X her und begrenzt genau die Spiele, die nicht mehr für Benchmarks (man kennt sie ja) genutzt werden, sondern nur noch für Verbrauchsmessungen (GRID z.B.) auf 10% und schwupps hat er nur noch 50W Verbrauch in Spielen. Sagst du dann auch noch, dass das egal ist? ;)

Gast
2010-03-27, 20:21:50
Liebe GTX480 Freunde geht doch mal bitte darauf ein.
Deswegen spielt mans ja auch mit 32xCSAA + TMSSAA.

dildo4u
2010-03-27, 20:21:50
http://img6.imageshack.us/img6/1025/cwfermi.jpg

http://www.maingearforums.com/entry.php?23-So-You-Want-To-Buy-A-GeForce

PulsarS
2010-03-27, 20:23:03
Das wird der neue Benchmarkhit: Verlustleistungsnormiert:D
Zumindest ist die Methode, die ich vorgeschlagen habe sicherlich besser umsetzbar als die von Bucklew.
Ich möchte mal wissen wie er das mit den FPS regeln würde. ;D

Zitat - Gast
2010-03-27, 20:23:09
"Verlustleistungsnormiert"

Ob beim Ausdenken dieses Benchmarkhits, die Person auch an seine Verluste gedacht hat, die da einhergehen mit dem Kaudawelsch?

Nochmal, der GF 100 ist Schrott. Da brauch ich nur mit wachen Augen alle Tests quer lesen, keine Minute drüber nachdenken und mir nicht so einen Hirnfick machen.

Gruß Gast - Fazit

LovesuckZ
2010-03-27, 20:23:12
Jetzt wird es lächerlich.
Und das NV den Furmark drosselt kann man sehr leicht nachstellen indem man eine 17x-Treiber verwendet. ;)

Aus diesem Grund sind Werte aus Furmark intressant. Sollte Neoseeker mit den > 2x gegenüber der 5870 recht haben, dann limitiert AMD Furmark ebenfalls. Dann ist Furmark als Test komplett unbrauchbar.

Gast
2010-03-27, 20:24:28
Crysis WH in DX11 nicht schlecht. Was der Thermi so alles möglich macht.

Raff
2010-03-27, 20:26:16
Aber die bilineare Detailtextur bei der Radeon gefällt dir gut?
http://www.computerbase.de/bildstrecke/28941/98/
http://www.computerbase.de/bildstrecke/28941/104/
http://www.computerbase.de/bildstrecke/28941/110/

Brrr, das ist ja gruseliger als die Crysis-Shots von PCGH.de, da ich mir vorstellen kann, wie das in Bewegung aussieht. Interessanterweise sah ich mir erst kürzlich das HL2 auf meiner HD 5870 an – aber mit der Cinematic Mod 10.3. Deren Texturen sind schon lange nicht mehr "fies", sondern nur noch hübsch. Das war früher mal anders, etwa bei Version 4 (?), als diese Kieseltextur schlicht in höherer Auflösung vorlag und dadurch extrem aua machte ... urks.

MfG,
Raff

Gast
2010-03-27, 20:26:38
Man beachte das gut gebräunte Gesicht. Wohl zu dich an den Thermi rangekommen.

PulsarS
2010-03-27, 20:27:53
Crysis WH in DX11 nicht schlecht. Was der Thermi so alles möglich macht.
;D
Der war gut!
Gar nicht drauf geachtet...

Gast
2010-03-27, 20:29:22
Das macht der Tesselator.

Gast
2010-03-27, 20:29:32
Hardware.fr hat die GTX 480 in einem geschlossenen Gehäuse getestet und nicht wie fast alle anderen Reviewseiten in nem offenen Aufbau:

http://translate.google.de/translate?hl=de&sl=fr&tl=en&u=http%3A%2F%2Fwww.hardware.fr%2Farticles%2F787-4%2Fdossier-nvidia-geforce-gtx-480.html

Das Ergebniss: 106°C bei 26°C Raumtemperatur @Vollgaslüfter :freak:

Die Karte throttelt ab 104°C!
Jetzt wird klar warum es Fermi-Zertifizierte Gehäuse gibt :lol:

Gast
2010-03-27, 20:31:21
In einem gedämmten Gehäuse kann man den Thermi vergessen. Asbestwolle ist ja nicht mehr erlaubt.

Mark3Dfx
2010-03-27, 20:34:01
Hardware.fr hat die GTX 480 in einem geschlossenen Gehäuse getestet und nicht wie fast alle anderen Reviewseiten in nem offenen Aufbau:

http://translate.google.de/translate?hl=de&sl=fr&tl=en&u=http%3A%2F%2Fwww.hardware.fr%2Farticles%2F787-4%2Fdossier-nvidia-geforce-gtx-480.html

Das Ergebniss: 106°C bei 26°C Raumtemperatur @Vollgaslüfter :freak:

Die Karte throttelt ab 104°C!
Jetzt wird klar warum es Fermi-Zertifizierte Gehäuse gibt :lol:

:facepalm:
Was ich befürchtet habe, nochmal 200€ für ein Gehäuse mit nV Aufkleber inkl. 2kW NT und Drehstromanschluss...

bloub
2010-03-27, 20:34:13
Ja gut, jetzt wissen wir auch warum Huang vor ein paar Tagen soviele seiner nV Aktien abgestossen hat.

oder auch nicht, einfach mal bisschen recherchieren (auch wenn es schwer fällt), vielleicht merkst du dann, dass das ein ganz normaler vorgang ist, der keineswegs aus der reihe fällt.

Gast
2010-03-27, 20:35:24
Nicht unbedingt. Ein paar Power-Delta-Gehäuselüfter sollten auch bei einem normalen "Mesh Tower" reichen. Kommt da auch nicht mehr drauf an.

Bucklew
2010-03-27, 20:35:54
Zumindest ist die Methode, die ich vorgeschlagen habe sicherlich besser umsetzbar als die von Bucklew.
Ich möchte mal wissen wie er das mit den FPS regeln würde. ;D
Ich will gar nichts umsetzen, ich möchte nur bei Leistungsmessungen auch gern die dabei erbrachte Arbeit wissen. So ist das einfach nru ein sinnloser Test, speziell da ein Hersteller seine Karten in diesem Test drosselt.

PulsarS
2010-03-27, 20:40:34
Ich will gar nichts umsetzen, ich möchte nur bei Leistungsmessungen auch gern die dabei erbrachte Arbeit wissen. So ist das einfach nru ein sinnloser Test, speziell da ein Hersteller seine Karten in diesem Test drosselt.
Sorry, aber das was du schreibst ist einfach Quatsch.
Man muss die Karten so testen, wie sie vom Hersteller kommen.
Alles andere ist sinnlos und verzerrt nur das Ergebnis.

Wie fandst du denn meinen Vorschlag, dann auch auf die gleiche Verlustleistung zu stellen und dann zu sehen wer schneller ist? :naughty:

mboeller
2010-03-27, 20:42:33
Geht der Fermi und die neuen ATIs unter XP nicht?
Oder worauf wolltest du hinaus? :confused:


DX10; DX11. Für was willst du eine DX11-Karte wenn dein OS nur DX9 kann?

PulsarS
2010-03-27, 20:45:52
DX10; DX11. Für was willst du eine DX11-Karte wenn dein OS nur DX9 kann?
Du wirst es nicht glauben, wie lange viele eine DX10 Karte mit einem DX9 OS kombinierten, weil sie sich Vista nicht antun wollten...

derguru
2010-03-27, 20:51:44
Hast du meinen Post nicht verstanden?

Nicht 100% bedeutet der Lüfter hat Reserven.
Um 1K Kühler zu werden muss man viel Aufwand betreiben.

Natürlich wirds im Sommerlichen SLI wärmer. Gar keine Frage, nur deine Rechnung ist aus den Haaren herbeigezogen und stellt nicht die Wahrheit dar.
hier oberer gast,da haste dein fall.muh:wink:
Hardware.fr hat die GTX 480 in einem geschlossenen Gehäuse getestet und nicht wie fast alle anderen Reviewseiten in nem offenen Aufbau:

http://translate.google.de/translate?hl=de&sl=fr&tl=en&u=http%3A%2F%2Fwww.hardware.fr%2Farticles%2F787-4%2Fdossier-nvidia-geforce-gtx-480.html

Das Ergebniss: 106°C bei 26°C Raumtemperatur @Vollgaslüfter :freak:

Die Karte throttelt ab 104°C!
Jetzt wird klar warum es Fermi-Zertifizierte Gehäuse gibt :lol:

Raff
2010-03-27, 20:54:15
Du wirst es nicht glauben, wie lange viele eine DX10 Karte mit einem DX9 OS kombinierten, weil sie sich Vista nicht antun wollten...

Gegen Windows 7 spricht aber "nur" noch, dass es Geld in der Anschaffung kostet. Ich habe als Vista-Hasser auch sofort nach dem RC-Test vollständig vom feinen XP Richtung 7 gewechselt, weil 7 einfach gut ist. =)

MfG,
Raff

Gast
2010-03-27, 20:55:36
Hardware.fr hat die GTX 480 in einem geschlossenen Gehäuse getestet und nicht wie fast alle anderen Reviewseiten in nem offenen Aufbau:

http://translate.google.de/translate?hl=de&sl=fr&tl=en&u=http%3A%2F%2Fwww.hardware.fr%2Farticles%2F787-4%2Fdossier-nvidia-geforce-gtx-480.html

Das Ergebniss: 106°C bei 26°C Raumtemperatur @Vollgaslüfter :freak:

Die Karte throttelt ab 104°C!
Jetzt wird klar warum es Fermi-Zertifizierte Gehäuse gibt :lol:

Oh mann, mega-fail. Das erinnert immer mehr an Netburst. Also lauft die Karte nicht mal ohne Trottling stabil wenn man kein sehr gut belüftetes Gehäuse hat. Da scheint selbst der 21W Lüfter überfordert.

Raff
2010-03-27, 20:58:02
Oh mann, mega-fail. Das erinnert immer mehr an Netburst. Also lauft die Karte nicht mal ohne Trottling stabil wenn man kein sehr gut belüftetes Gehäuse hat. Da scheint selbst der 21W Lüfter überfordert.

Mich erinnert's an die instabile Asus Mars (http://www.pcgameshardware.de/aid,693909/Asus-Mars-GTX-295-im-Benchmark-Test/Grafikkarte/Test/?page=2). ;) Allerdings bedeutet der Betrieb in einem Gehäuse nicht zwangsläufig, dass es dort hitziger zugeht als im Freiluft-Aufbau. Viele Gehäuse verfügen über feinen Durchzug, der unter Umständen sogar die Temperaturen senkt. Das freiliegende Kühlmetall der GTX 480 direkt (zusätzlich) anzublasen hat deutliche, positive Auswirkungen.

MfG,
Raff

PulsarS
2010-03-27, 20:58:05
Gegen Windows 7 spricht aber "nur" noch, dass es Geld in der Anschaffung kostet. Ich habe als Vista-Hasser auch sofort nach dem RC-Test vollständig vom feinen XP Richtung 7 gewechselt, weil 7 einfach gut ist. =)

MfG,
Raff
Da kann ich natürlich nur zustimmen.
Ich wollte nur zeigen, dass es nicht unüblich ist, auch mal ein älteres OS zu verwenden, mehr nicht. :)

BTW ich habe Dir vor Kurzem eine PN geschrieben. Wäre nett, wenn Du mal was dazu sagen würdest ;)

pest
2010-03-27, 21:01:18
Ähm, es ist doch völlig logisch, dass man auch nachprüfen muss, welche Leistung durch die Leistungsaufnahme X erreicht wird, oder nicht?

hör doch mal bitte auf hier rumzutrollen, das nervt schon seit du hier aufgetaucht bist

128W (HD5870) zu 235W...jetzt zeig mir wo die GTX480 80% schneller in GRID ist, oder sei einfach still ... bitte :wink:

Gast
2010-03-27, 21:02:22
Bisher war es bei mir jedenfalls immer so dass meine Karten im freien Testaufbau kühler liefen als in einem Gehäuse.

Aber zugegeben, ich habe auch keine Gehäuse die 100 Löcher und 20 schnelldrehende Lüfter besitzen...

Ich bin wirklich auf den Sommer gespannt. Und nV will die Dinger ja nicht nur im kalten Deutschland verkaufen sondern auch in "heissen" Ländern. Das wird spannend.

Gast
2010-03-27, 21:04:10
http://www.hardwareboard.eu/entry.php?4-Aufruf-Wir-werden-siegen!-Wir-sind-unbesiegbar!/page2#comments

dargo
2010-03-27, 21:08:32
Geht der Fermi und die neuen ATIs unter XP nicht?
Oder worauf wolltest du hinaus? :confused:

Ich sehe keinen Grund eine Grafikkarte zu kaufen bei welcher das volle Feature-Set nicht genutzt werden kann.


Wie ich schon geschrieben habe, es hat noch nicht jeder Vista oder Win7.
Wer noch mit Windows XP rumdümpelt wird kaum eine GTX470/480 interessieren. ;)

http://img6.imageshack.us/img6/1025/cwfermi.jpg

http://www.maingearforums.com/entry.php?23-So-You-Want-To-Buy-A-GeForce
Seit wann nutzt Warhead DX11? :biggrin:

AYAlf_2
2010-03-27, 21:08:43
Du wirst es nicht glauben, wie lange viele eine DX10 Karte mit einem DX9 OS kombinierten, weil sie sich Vista nicht antun wollten...
Warum kein Windows 7 und lieber Windows Vista

http://www.youtube.com/watch?v=QKZUg-bTOak

Botcruscher
2010-03-27, 21:10:59
http://www.hardwareboard.eu/entry.php?4-Aufruf-Wir-werden-siegen!-Wir-sind-unbesiegbar!/page2#comments
WTF geht denn sonst noch so ab, da ist das 3DC ja ein Hort der Ruhe und Stille.
Der Kerl ist übrigens lustig. BS abschießen durch Grafiktreiber? Zwei mal? Fährt der noch Windows 98?

PS: Und der ganze Eingangstitel wird erst so richtig lustig weil es seit R600 keine Highend(single)chips mehr gibt. Rennen? Wettlauf? Was? Wahren die Jahre auf dem Mond?

Warum kein Windows 7 und lieber Windows Vista
http://www.youtube.com/watch?v=QKZUg-bTOak

Userfrendly? Am Regestrierungseditor wurde doch gar nichts verändert. Und den braucht man oft...

Popeljoe
2010-03-27, 21:11:51
Ich bin wirklich auf den Sommer gespannt. Und nV will die Dinger ja nicht nur im kalten Deutschland verkaufen sondern auch in "heissen" Ländern. Das wird spannend.
Man kann davon ausgehen, das die Karte in Brasilien weniger Abnehmer findet, als in Island oder Grönland...
Ich hoffe trotzdem noch auf die 470 und vor Allem auf die kleineren Midrange Ausgaben, denn die Atis sind in dem Bereich einfach ziemlich teuer momentan. ;)
Die 5770 ist wirklich sexy, aber der Preis wäre mit 100€ einfach netter. ;)
WTF geht denn sonst noch so ab, da ist das 3DC ja ein Hort der Ruhe und Stille.
Der Mob hat sich auch in den Tagen und Wochen davor reichlich ausgetobt! ;)

PulsarS
2010-03-27, 21:14:57
Ich sehe keinen Grund eine Grafikkarte zu kaufen bei welcher das volle Feature-Set nicht genutzt werden kann.
Performance.

z3ck3
2010-03-27, 21:17:23
Ob offen oder nicht sollte bei dem Aufbau dann egal sein wenn die Luftzufuhr ins gehäuse größer ist als die Abfuhr aus dem Gehäuse. Tehoretisch sollte dadurch sogar die Karte Kühler werden, da die Luft an allen Seiten der Komponenten lang geführt wird. Hat mnan allerdings ein Case wo nur ein rückseitiger 120mm Lüfter eingebaut ist oder der Frontlüfter nicht so viel Luft hinein befördert wie Netzteil, Grafikkarte und Rückseitiger Lüfter hinaus befördern, dann hat man ein Problem. Aber das hat man immer, das nicht allein ein Problem der aktuellen NV Generation. Das Problem liegt darin das im schlimmsten Fall die warme Luft der Grafikkarte und die anderer Komponenten wieder ins Gehäuse gelangen, oder was genau so schlim ist, manche Komponenten sich aufheizen und nicht gekühlt werden da die Luft nicht richtig durchs Gehäuse befördert wird. Letzteres wirkt sich dann auch auf andere Komponenten aus, da diese ja durch wärmestrahlung auch die anderen Komponenten wiederum aufheizen.

(alle Àngaben ohne gewähr, da reine Erfahrungswerte, hab sowas nicht studiert ;) )

dargo
2010-03-27, 21:19:22
Performance.
Für was? Unter DX9 reicht die alte Generation zu 99% völlig aus. Zumindest solange man in den üblichen, nativen Auflösungen spielt und sich aufs MSAA beschränkt.

Zockmaschine
2010-03-27, 21:21:46
Na dann zeig doch mal einen Beleg. Und dann bitte auch, dass diese hypotetische Drosselung (so es sie überhaupt gibt) auch in dem für die genutzen Treiber für die dutzenden Fermitests enthalten ist. Dann können wir ja weiter diskutieren ;)

Beleg ?

Reicht die Historie von nvidia als abgefackte Trickser nicht aus ?

Der Beschiss den die Firma schon abgelasen hat ist unterstes Niveau und daher müsste man um auf Nummer sicher zu gehen eigentlich jeden Testbericht mit deren Karten schon von Haus aus mindestens 5% schlechter dastehen lassen...

Schlammsau
2010-03-27, 21:21:53
Dann zeig mal :) bsn sagt das Gegenteil. Und auch TomHardware bestätigt es,eine 4870X2 z.B. dreht im Furmark nichtmal ansatzweise auf:
http://www.tomshardware.de/geforce-gtx-480-470-Fermi-GF100,testberichte-240527-15.html

Ich rede von der HD5000 Serie!
Und ich hab mehr als genug Beweise, in meinem Rechner. ;)

Alter Schwede, sehs doch ein.


Hardware.fr hat die GTX 480 in einem geschlossenen Gehäuse getestet und nicht wie fast alle anderen Reviewseiten in nem offenen Aufbau:

http://translate.google.de/translate?hl=de&sl=fr&tl=en&u=http%3A%2F%2Fwww.hardware.fr%2Farticles%2F787-4%2Fdossier-nvidia-geforce-gtx-480.html

Das Ergebniss: 106°C bei 26°C Raumtemperatur @Vollgaslüfter :freak:

Die Karte throttelt ab 104°C!
Jetzt wird klar warum es Fermi-Zertifizierte Gehäuse gibt :lol:
No comment.....;D

Daredevil
2010-03-27, 21:24:47
Das freiliegende Kühlmetall der GTX 480 direkt (zusätzlich) anzublasen hat deutliche, positive Auswirkungen.

MfG,
Raff
Das Comeback der Slot Lüfter? :)
http://www.imagebanana.com/img/49vngaca/123.jpg

LovesuckZ
2010-03-27, 21:26:03
Das Comeback der Slot Lüfter? :)
http://www.imagebanana.com/img/49vngaca/123.jpg

Bringt nichts, da du die Heatpipes anlüften solltest für eine bessere Wärmeabgabe im Gehäuse.

Botcruscher
2010-03-27, 21:26:19
Beleg ?
Reicht die Historie von nvidia als abgefackte Trickser nicht aus ?


Last mal die Leichen im Keller. Ein bisschen Druck auf beide kann dem Kunden, egal aus welchem Lager, nicht schaden. Mit Cheats schadet man eher sich selber und eigentlich sollte der ganze Mist frei wählbar sein.
Das Comeback der Slot Lüfter? :)
http://www.imagebanana.com/img/49vngaca/123.jpg
Bloß nicht, hab hier in der Kiste noch zwei. Da reist es einem die Ohren vom Stamm.

Hardware.fr hat die GTX 480 in einem geschlossenen Gehäuse getestet und nicht wie fast alle anderen Reviewseiten in nem offenen Aufbau:
Das Ergebniss: 106°C bei 26°C Raumtemperatur @Vollgaslüfter :freak:
Die Karte throttelt ab 104°C!
Jetzt wird klar warum es Fermi-Zertifizierte Gehäuse gibt :lol:

Sommer und der übliche Dreck kommen noch ...

Gast
2010-03-27, 21:28:30
Was mal auch mal erwähnen sollte: Sechs Monate nach der Konkurrenz zu kommen und dann wirklich einen astreinen Paperlaunch hinzulegen ist schon ein starkes Stück. Die HD5870 waren zumindest beschränkt lieferbar, aber die Fermi-Karten sind noch nicht mal beim Distributor angekommen, ja teilweise nicht mal gelistet. Einige 10.000 Karten sollte in zwei Wochen kommen, dann dürfte einige Zeit Sense sein.

Daredevil
2010-03-27, 21:28:47
Bringt nichts, da du die Heatpipes anlüften solltest für eine bessere Wärmeabgabe im Gehäuse.
Wenn Raff sagt, das die Belüftung der Platte auf der Front wirksam ist, dann wird auch die Entlüftung wirksam sein. Quasi ein zweites Aufpuffrohr für Fermi. *wrmmmwrmmmm* :D

@ Botcruscher
Was nicht schmeckt, das hilft. :freak:

Gast
2010-03-27, 21:32:49
Richtig, selbst wer mit einer 470 liebäugelt, darf das Thema Netzteil nicht ignorieren. Ich schmiss meine 8800GT aus dem PC und installierte die 5870; mein 3 Jahre altes Nexus 450 Watt NT verkraftete das ohne Probleme. Bei einer Fermi käme mit sehr großer Wahrscheinlichkeit noch ein neues Netzteil mit auf die Rechnung, was die Sache ungemein verteuern würde.

Es ist ohnehin ein Unding, Karten in offenem Aufbau zu testen. Klar, es spart viel Zeit und ist daher durchaus verständlich, allerdings entspricht es nicht der gängigen Praxis. Oder hat hier wirklich jemand seinen PC offen herumliegen und braucht den so?

Ich will keinesfalls den Miesepeter spielen und bin froh, dass nun auch NV endlich DX11 Hardware anbietet. Theoretisch ist neue GTX-Reihe die sogar sehr gut, in der Praxis dagegen klemmt einfach zu viel. Der kleinere Bruder GF104 hat deutlich bessere Karten, ein Erfolg zu werden.

AYAlf_2
2010-03-27, 21:34:42
Bloß nicht, hab hier in der Kiste noch zwei. Da reist es einem die Ohren vom Stamm.
...

geht bei dem geheule der gtx480 aber komplett unter....

Gast
2010-03-27, 21:36:14
Bloß nicht, hab hier in der Kiste noch zwei. Da reist es einem die Ohren vom Stamm.

Ach was, neben dem 21W Delta würdest du keinen Mucks von den Dingern hören. Die würden im Turbinengeräusch einfach untergehen.

Zauberer
2010-03-27, 21:40:17
Ich wollte nur mal schreiben, dass ich Enttäuscht bin.
Unter Crysis Warhead, ist eine HD 5870 fast genau so schnell wie ne GTX 480.
Im Vergleich zur eigenen GTX 285 hat NVidia zwar zugelegt, aber die Karten sind ein Witz im Vergleich zur Konkurrenz.

1. Teurer...
2. ...aber nicht schneller! (siehe Crysis Warhead)
3. Laut!
4. Stromverbrauch!
5. Hitze!
6. (noch) nicht verfügbar!

Scheinbar ist der Witz inzwischen bei allen angekommen, weil die Preise bei den ATi-Karten bis zu 50 € angezogen sind.
Scheinbar kaufen viele jetzt ATi, weil Nvidia den Witz endlich raus gelassen hat.

Ihr kennt mich, ich bin seit inzwischen vielen Jahren pro Nvidia (habe eine NVidia 9800 GX² und eine GTX 285 und werde mir auch in nächster Zeit keine ATi kaufen), aber das ist jetzt wirklich kein Witz, Nvidia hat sich blamiert!

Gast
2010-03-27, 21:50:09
1. Teurer...
2. ...aber nicht schneller! (siehe Crysis Warhead)
3. Laut!
4. Stromverbrauch!
5. Hitze!
6. (noch) nicht verfügbar!
Da passt einiges nicht.

Auf die 480 trifft nur 1, 3, 4, 5, 6 zu. Verglichen mit der 5970 höchtens 2.

Auf die 470 trifft vielleicht 1. (man kennt den exakten Preis ja nicht), 2, 3 und 6 zu.

Byteschlumpf
2010-03-27, 21:53:10
Es erinnert ein wenig an "The GeforceFX Strikes Back"!

AYAlf_2
2010-03-27, 21:56:00
ich kann mich gar nicht satt hoeren an der gtx480 http://www.youtube.com/watch?v=xfQOU3T0O3Q

wenn was schnell ist muss es auch laut sein und viel verbrauchen .. ist doch in der formel 1 auch so :tongue:

LovesuckZ
2010-03-27, 21:56:29
Es erinnert ein wenig an "The GeforceFX Strikes Back"!

Hm, eigentlich nichts. 300 Watt ist doch normal - sag danke zur 4870x2, GTX295 und 5970.
Lautstärke trifft das selbe zu - vorallen dank GTX280, den Dual Karten und der 4890.

Leistungstechnisch ist man im Durchschnitt schneller. Von der Architektur deutlich besser auf DX11 abgestimmt als die FX auf DX9. Ich seh da keine FX.

Jake Dunn
2010-03-27, 21:56:37
Scheinbar ist der Witz inzwischen bei allen angekommen, weil die Preise bei den ATi-Karten bis zu 50 € angezogen sind.
Scheinbar kaufen viele jetzt ATi, weil Nvidia den Witz endlich raus gelassen hat.



Jup ;(

Früher hieß es gute NV-Karten = günstige dennoch gute ATI-Karten ^^

Gast
2010-03-27, 21:57:19
Oder "4870 X2 reloaded". Gut mal abgesehen von den Profilen und µRucklern.
Ich denke das verdient mehr Respekt, so wie besagte 4870 X2 respektiert wurde.

Gast
2010-03-27, 21:57:55
1. Teurer...
2. ...aber nicht schneller! (siehe Crysis Warhead)
3. Laut!
4. Stromverbrauch!
5. Hitze!
6. (noch) nicht verfügbar!

1. Mir herzlich egal. ;)
2. http://www.bjorn3d.com/Material/revimages/video/Fermi_Ref/NEW_Warhead.jpg 27,5% schneller als ne HD5870
Aus diesem Review: http://www.bjorn3d.com/read.php?cID=1831&pageID=8799
3. = 4. = 5. Mir ebenfalls egal, Wakü sein dank. :)
6. Was für ein schlimmer Punkt. War bei den bisherigen Grafikkarten Generationen ja noch nie der Fall. Wie schlimm es wirklich um die Verfügbarkeit steht sehen wir in einem Monat. Wenns dann auch soviele Leute gibt die auf ihre Karten warten wie damals auf die HD5xxx, dann kannst du den Punkt 6 aufschreiben. :P

tombman
2010-03-27, 21:58:20
2. ...aber nicht schneller! (siehe Crysis Warhead)

Ja, genau :upicard:

http://www.abload.de/img/480vs5870udsx.png (http://www.abload.de/image.php?img=480vs5870udsx.png)

http://www.abload.de/img/img002833802ws.gif (http://www.abload.de/image.php?img=img002833802ws.gif)

http://www.abload.de/img/gtx480slivshd5870cfnsss.png (http://www.abload.de/image.php?img=gtx480slivshd5870cfnsss.png)

Megamember
2010-03-27, 21:58:32
ich kann mich gar nicht satt hoeren an der gtx480 http://www.youtube.com/watch?v=xfQOU3T0O3Q

wenn was schnell ist muss es auch laut sein und viel verbrauchen .. ist doch in der formel 1 auch so :tongue:


Ich kann mir gut vorstellen das das für manche Enthusiasts wie Musik in den Ohren klingt.;)

Gast
2010-03-27, 21:59:23
nVidia Ingenieure erproben gerade einen neuen GPU-Lüfter um die GTX 480 endlich auch mit 512 Cuda Cores anbieten zu können:

http://www.youtube.com/watch?v=YQBE15uZmiA

Schlammsau
2010-03-27, 21:59:31
ich kann mich gar nicht satt hoeren an der gtx480 http://www.youtube.com/watch?v=xfQOU3T0O3Q

wenn was schnell ist muss es auch laut sein und viel verbrauchen .. ist doch in der formel 1 auch so :tongue:

Ja krass...hab das Video noch gar net gesehen.

Meine Freundin ist grade vorbeigegangen und fragte mich welches Flugzeug da gerade startet. :freak:

Unglaublich!

Jake Dunn
2010-03-27, 22:01:42
Ich kann mir gut vorstellen das das für manche Enthusiasts wie Musik in den Ohren klingt.;)

Klar wenn Enthusiasts dann richtig ;D

nVidia Ingenieure erproben gerade einen neuen GPU-Lüfter um die GTX 480 endlich auch mit 512 Cuda Cores anbieten zu können:

http://www.youtube.com/watch?v=YQBE15uZmiA

;D

AYAlf_2
2010-03-27, 22:05:45
Hm, eigentlich nichts. 300 Watt ist doch normal - sag danke zur 4870x2, GTX295 und 5970.
Lautstärke trifft das selbe zu - vorallen dank GTX280, den Dual Karten und der 4890.
Leistungstechnisch ist man im Durchschnitt schneller. Von der Architektur deutlich besser auf DX11 abgestimmt als die FX auf DX9. Ich seh da keine FX.

du redest echt alles schoen .. und vergleichst aepfel mit birnen.

und von wegen sie ist von der architektur deutlich besser .. besser fuer was? fuer die spiele die gerade raus sind? ich glaube nicht tim! hast du ne glaskugel und weisst was kommt?
und komm mir bitte nicht mit metro.... das ist ein nvidia spiel .. hier spielen nicht nur die dx11 effekt rein.

Bucklew
2010-03-27, 22:06:47
Beleg ?

Reicht die Historie von nvidia als abgefackte Trickser nicht aus ?
Peinlich, da kann man sich zum Glück wenigstens die Argumente direkt sparen und es ignorieren ;D

Ich rede von der HD5000 Serie!
Und ich hab mehr als genug Beweise, in meinem Rechner. ;)

Alter Schwede, sehs doch ein.
Was soll ich da was einsehen, wo ich noch nichtmal den kleinsten Funken eines Indizes von dir gesehen hab? Wo das alles doch so klar ist, gibts doch sicherlich haufenweise Nachweise im Netz, zeig mir doch mal einen :)

Es erinnert ein wenig an "The GeforceFX Strikes Back"!
Weit entfernt. Es ist wohl eher "HD4000 strikes back!"

lilgefo~
2010-03-27, 22:06:55
nVidia Ingenieure erproben gerade einen neuen GPU-Lüfter um die GTX 480 endlich auch mit 512 Cuda Cores anbieten zu können:

http://www.youtube.com/watch?v=YQBE15uZmiA

Kommt sicher in ner MSI HAWX Edition. Military Class Components undso. :D

Zatoichi
2010-03-27, 22:07:51
Wenn es etwas beklopptes bei Hardware gibt, ist es Leistung auf Vorrat zu kaufen. Jetzt zählt was ist und nicht eventuell und vielleicht in Zukunft.

Megamember
2010-03-27, 22:08:22
Im Bericht steht aber auch das sie nur unter Furmark so abdreht, in Spielen isse sogar etwas leiser als ne 5970.

Schlammsau
2010-03-27, 22:12:20
Peinlich, da kann man sich zum Glück wenigstens die Argumente direkt sparen und es ignorieren ;D


Was soll ich da was einsehen, wo ich noch nichtmal den kleinsten Funken eines Indizes von dir gesehen hab? Wo das alles doch so klar ist, gibts doch sicherlich haufenweise Nachweise im Netz, zeig mir doch mal einen :)


Weit entfernt. Es ist wohl eher "HD4000 strikes back!"

Weisst was du kleines grünes Männchen...kauf oder leih dir eine 5870, starte den FURMark normal und dann mit einer umbenannten Exe. Du wirst sehen, der Stromverbrauch wird der gleiche sein.

Und wenn der Beweiss nicht reicht, dann nim den OCCT Graka Test. Dort wirst du auf den gleichen Lastverbrauch kommen.

Das versprech ich dir! ;)

Gast
2010-03-27, 22:12:34
Im Bericht steht aber auch das sie nur unter Furmark so abdreht, in Spielen isse sogar etwas leiser als ne 5970.
Wurde dort auch berichtet das sie jegliche andere Grafikhardware in den Boden stampft bei Furmark?

LordDeath
2010-03-27, 22:12:56
Kann es nicht sein, dass die neuen Fermi Karten bei GPGPU Aufgaben vielleicht stromsparender als RV870 Karten sind?
Was wenn ein Rack voll mit GF100-Telsa Karten mit einer bestimmten Aufgabe viel schneller fertig wird, als ein Rack voller RV870-Karten? Je nach Zeitunterschied hätte das Nvidia Rack dann vielleicht weniger Energie benötigt. Man könnte sich bestimmt solch einen Fall konstruieren, aber vielleicht tritt das ja häufiger auf.

In Hinsicht auf die GPGPU-Zielgruppe kann ich mir gut vorstellen, dass auch künftig solche Karten wie die GTX480 von Nvidia produziert werden. Denn die GPGPUler beschweren sich sicherlich nicht darüber, dass im sowieso schon lautem Rechenzentrum jetzt noch einige Telsa Karten extra Krach machen. Und die würden für Performance X lieber nur zwei Höheneinheiten im Rack verwenden, anstatt für dafür vier HEs aufbringen zu müssen.
Fraglich ist aber, ob dann solche GPUs, die an den technischen Grenzen arbeiten, auch wirklich auf Karten für Heimnutzer verbaut werden sollten.

Gast
2010-03-27, 22:13:02
Es wird Zeit dass mal ein Moderator einen Thermiwitze-thread aufmacht, wo man die besten Witze, Bilder und Video einstellen kann.
Auch wenn der GF100 als Grafikchip nichts taugt, bietet er dennoch gute Unterhaltung für lau.

Gast
2010-03-27, 22:13:59
Weisst was du kleines grünes Männchen...kauf oder leih dir eine 5870, starte den FURMark normal und dann mit einer umbenannten Exe. Du wirst sehen, der Stromverbrauch wird der gleiche sein.

Und wenn der Beweiss nicht reicht, dann nim den OCCT Graka Test. Dort wirst du auf den gleichen Lastverbrauch kommen.

Das versprech ich dir! ;)
Schon gewusst, auch wenns mangels Profiles so aussieht, AMD kann sehr wohl ohne Profile erkennen was da für eine Anwendung hintersteht.

Aber ist ja egal, vergleichen wir nochmal die Performance/W im Furmark?

Gast
2010-03-27, 22:14:53
Oh Wahnsinn 2 Fps mehr in Crysis na dann ist das ja gleich ein ganz anderes Spielgefühl. Da lohnt sich der doppelte Verbrauch bei 100C° GPU-Temp und ohrenbetäubenden Lärm ja wirklich. Man jetzt bin ich doch von Thermi überzeugt, muss gleich mal gucken wo ich am besten vorbestelle.

Gast
2010-03-27, 22:16:19
Hm, eigentlich nichts. 300 Watt ist doch normal - sag danke zur 4870x2, GTX295 und 5970.
Lautstärke trifft das selbe zu - vorallen dank GTX280, den Dual Karten und der 4890.

Leistungstechnisch ist man im Durchschnitt schneller. Von der Architektur deutlich besser auf DX11 abgestimmt als die FX auf DX9. Ich seh da keine FX.

4870X2, GTX295, 5970 und Konsorten waren irrelevant. Niemand hat sie gekauft, sie waren nur reine Balkenverlängerungsmaschinen. Doch jetzt bringt NV einen Singel-Chip mit noch mehr Leistungsaufnahme. Das ist geradezu ein negativer Quantensprung im Vergleich zu 8800GTX, GTX285, 4870 usw.

Hans Olo
2010-03-27, 22:16:41
Ich verstehe echt nicht, wie das manche immer noch schön reden. Die Karte ist vom Strombverbrauch her eine Katastrophe! Vom Turbinenlüfter mal ganz abgesehen.
Auch der Vergleich mit ATIs 4000-Reihe: Was habe ich davon wenn ich einen Stromschlucker mit dem anderen vergleiche? Wird es dann besser? Vielleicht für das Fanboy-Ego, aber sonst? *kopfschüttel

Gast
2010-03-27, 22:17:14
In Hinsicht auf die GPGPU-Zielgruppe kann ich mir gut vorstellen, dass auch künftig solche Karten wie die GTX480 von Nvidia produziert werden. Denn die GPGPUler beschweren sich sicherlich nicht darüber, dass im sowieso schon lautem Rechenzentrum jetzt noch einige Telsa Karten extra Krach machen. Und die würden für Performance X lieber nur zwei Höheneinheiten im Rack verwenden, anstatt für dafür vier HEs aufbringen zu müssen.
Fraglich ist aber, ob dann solche GPUs, die an den technischen Grenzen arbeiten, auch wirklich auf Karten für Heimnutzer verbaut werden sollten.
Heimnutzer haben die Wahl, sie können auch zu GTS 460 oder GTX 470 greifen.

Seien wir mal ehrlich, 5970 und 5870 oder GTX 480 und GTX 470 haben weniger mit Vernunft zu tun.
Viel entscheidender ist was diese kleinen leisten werden.

Sentionline
2010-03-27, 22:17:18
und von wegen sie ist von der architektur deutlich besser .. besser fuer was? fuer die spiele die gerade raus sind?
Reserven (http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index53.php?dummy=&prod[]=AMD+ATI+Radeon+HD+5870+2+GB&prod[]=NVIDIA+GeForce+GTX+480&filter[0][]=1920&filter[2][]=8&filter[3][]=16)...;)

Aufgrunddessen, passt die Leistungsaufnahme schon. Ich warte mal ab wie ATi den R600 noch ausmelken wird und ob ein komplett neuer Chip von denen es besser macht.

tombman
2010-03-27, 22:19:14
Oh Wahnsinn 2 Fps mehr in Crysis na dann ist das ja gleich ein ganz anderes Spielgefühl. Da lohnt sich der doppelte Verbrauch bei 100C° GPU-Temp und ohrenbetäubenden Lärm ja wirklich. Man jetzt bin ich doch von Thermi überzeugt, muss gleich mal gucken wo ich am besten vorbestelle.

Man kann sich natürlich den NV freundlichsten Review raussuchen und sich damit die Karte schönreden (bjornd3d.com wurde schon in diversen Foren stark kritisiert - 5 Spiele inkl. Best-Case FC2). Selbst PCGH sieht das anders, trotz tendenzieller NV-Affinität und HD5870 in Crysis vorn.
KEIN Review spricht der GTX480 die Single-GPU-Leistungskrone ab, KEINER.
[ ] Du weißt was ein Durchschnitt ist

Und über Tess. und DX11 müssen wir nicht reden, da wird die HD5 deklassiert ;)

Gast
2010-03-27, 22:21:02
Ich verstehe echt nicht, wie das manche immer noch schön reden. Die Karte ist vom Strombverbrauch her eine Katastrophe! Vom Turbinenlüfter mal ganz abgesehen.
Auch der Vergleich mit ATIs 4000-Reihe: Was habe ich davon wenn ich einen Stromschlucker mit dem anderen vergleiche? Wird es dann besser? Vielleicht für das Fanboy-Ego, aber sonst? *kopfschüttel
Die HD4 hat(te) einen sehr guten Ruf. Wohl zugut, wenn man nochmal auf die Fakten guckt.

4870X2, GTX295, 5970 und Konsorten waren irrelevant. Niemand hat sie gekauft, sie waren nur reine Balkenverlängerungsmaschinen. Doch jetzt bringt NV einen Singel-Chip mit noch mehr Leistungsaufnahme. Das ist geradezu ein negativer Quantensprung im Vergleich zu 8800GTX, GTX285, 4870 usw.
Stempel GTX 480 doch auch als irrelevant ab.
Was hindert dich daran?

AMD hat schliesslich auch nichts derartiges im Programm, ergo kannst du nur auf der 470 im Vergleich zur 5870 rumtrampeln.

Btw: ich finds sogar sehr positiv, das MGPU nicht noch weiter ausgebaut wird. Und die paar High-End Kunden freuen sich darüber ebenfalls.

Gast
2010-03-27, 22:21:04
Gibts eigentlich schon einen Thread indem sich angehende GTX480 Besitzer und technisch Intressierte unterhalten können ohne dass dauernd störende, nennen wir sie mal "Missionare", ihre Beleidigungen und Provokationen posten?
Intressant wäre da z.b.:
- Wasserkühler?
- alternative Luftkühler?
- Spannungsmod per Windows Tool oder Firmware?
- Lieferanten?
usw...

Jake Dunn
2010-03-27, 22:21:49
Es wird Zeit dass mal ein Moderator einen Thermiwitze-thread aufmacht, wo man die besten Witze, Bilder und Video einstellen kann.
Auch wenn der GF100 als Grafikchip nichts taugt, bietet er dennoch gute Unterhaltung für lau.

Ich frag mich gerade wozu ich noch GEZ bezahle ^^


Schon gewusst, auch wenns mangels Profiles so aussieht, AMD kann sehr wohl ohne Profile erkennen was da für eine Anwendung hintersteht.

Aber ist ja egal, vergleichen wir nochmal die Performance/W im Furmark?

Warum nicht Performance/Watt in Games :confused:

http://www.abload.de/img/perfwattfbzf.gif (http://www.abload.de/image.php?img=perfwattfbzf.gif)
Quelle: Techpowerup


Oh Wahnsinn 2 Fps mehr in Crysis na dann ist das ja gleich ein ganz anderes Spielgefühl. Da lohnt sich der doppelte Verbrauch bei 100C° GPU-Temp und ohrenbetäubenden Lärm ja wirklich. Man jetzt bin ich doch von Thermi überzeugt, muss gleich mal gucken wo ich am besten vorbestelle.


Nicht vergessen die tollen Partikel-Effekte in der Wohnung, wenn die Karte Funken aus dem Slot haut ;D in Tomban Worten bei NV bekommt mehr zu sehen :ulol:

tombman
2010-03-27, 22:24:16
Gibts eigentlich schon einen Thread indem sich angehende GTX480 Besitzer und technisch Intressierte unterhalten können ohne dass dauernd störende, nennen wir sie mal "Missionare", ihre Beleidigungen und Provokationen posten?
Intressant wäre da z.b.:
- Wasserkühler?
- alternative Luftkühler?
- Spannungsmod per Windows Tool oder Firmware?
- Lieferanten?
usw...
Ich habe schon 2 Stück ZERN Universal-Wasserkühler bestellt für die GPU only. Kosten nur 20€ pro Stück.
100€++ Vollbereichswasserkühler braucht man ja diesmal nicht, Platte sei Dank :)

Dann habe ich noch 2x MSI + 2x ASUS GTX480 bestellt, weil diese Vcore Adjust bieten. Je nachdem was ich kriegen kann, wirds die eine oder die andere Marke :)

Black-Scorpion
2010-03-27, 22:24:29
- Spannungsmod per Windows Tool oder Firmware?
Das ist aber nicht dein ernst?

Gast
2010-03-27, 22:25:26
Ich frag mich gerade wozu ich noch GEZ bezahle ^^




Warum nicht Performance/Watt in Games :confused:


LOL; weit und breit nur ATI-Karten in Front. Aber ich stimme dir zu: Das ist deutlich interessanter als reine FPS-Vergleiche und aus den Zusammenhang gerissenen Leistungsaufnahmetests.

Gast
2010-03-27, 22:27:09
Das ist aber nicht dein ernst?

Warum nicht. Mit einem Wasserkühler und Vcore Mod sollten ~900Mhz GPU kein Problem sein.

AYAlf_2
2010-03-27, 22:27:30
Gibts eigentlich schon einen Thread indem sich angehende GTX480 Besitzer und technisch Intressierte unterhalten können ohne dass dauernd störende, nennen wir sie mal "Missionare", ihre Beleidigungen und Provokationen posten?
Intressant wäre da z.b.:
- Wasserkühler?
- alternative Luftkühler?
- Spannungsmod per Windows Tool oder Firmware?
- Lieferanten?
usw...
was soll denn der post? willst du provozieren? oder willst du diskutieren? wenn du einen solchen thread vermisst ... und ihn mit infos fuellen kannst .. mach doch einen auf.
ein tipp fuer lau .. so ein thread waere perfekt im nvidia forum.

Gast
2010-03-27, 22:28:23
Gibts eigentlich schon einen Thread indem sich angehende GTX480 Besitzer und technisch Intressierte unterhalten können ohne dass dauernd störende, nennen wir sie mal "Missionare", ihre Beleidigungen und Provokationen posten?
Intressant wäre da z.b.:
- Wasserkühler?
- alternative Luftkühler?
- Spannungsmod per Windows Tool oder Firmware?
- Lieferanten?
usw...

Das ist hier schon der richtige Thread dafür.
Die Moderatoren sollten für Thermiwitze halt einen extra Thread aufmachen.
Dass der Mob sich nun über die GF100 lustig macht, hat Nvidia sich durch den riesen Hype selbst eingehandelt.
Jeder macht mal Fehler. Nvidia sollte froh sein, wenn die Leute nur Witze machen und erstmal abwarten, anstatt direkt zu AMD zu wechseln.

Gast
2010-03-27, 22:28:31
was soll denn der post? willst du provozieren? oder willst du diskutieren? wenn du einen solchen thread vermisst ... und ihn mit infos fuellen kannst .. mach doch einen auf.
ein tipp fuer lau .. so ein thread waere perfekt im nvidia forum.

Sollte aber von einem aufgemacht werden der den ersten Post wartet und mit Infos nachfüllt. ;)

Gast
2010-03-27, 22:29:19
KEIN Review spricht der GTX480 die Single-GPU-Leistungskrone ab, KEINER.


So, GF100 is here, and we’ve been playing new DX11 games on it for a straight week, working ourselves through games such as Metro 2033 and Bad Company 2 and Aliens vs. Predator. Our first impression with the GeForce GTX 480 and GeForce GTX 470 is that nothing really wowed us in our gaming experiences with the cards. The one thing that stood out in our minds was, "We’ve already been here before," the Radeon HD 5870 and Radeon HD 5850 have been giving us this same experience since last year.

http://hardocp.com/article/2010/03/26/nvidia_fermi_gtx_470_480_sli_review/8

LovesuckZ
2010-03-27, 22:29:35
4870X2, GTX295, 5970 und Konsorten waren irrelevant. Niemand hat sie gekauft, sie waren nur reine Balkenverlängerungsmaschinen. Doch jetzt bringt NV einen Singel-Chip mit noch mehr Leistungsaufnahme. Das ist geradezu ein negativer Quantensprung im Vergleich zu 8800GTX, GTX285, 4870 usw.

Dann deklariere die GTX480 doch auch zum "irrelevant" Lager und all unsere Probleme sind gelöst. :freak:
Die Karte wird genauso wenig gekauft werden wie die aufgezählten. Dafür ist einfach der Stromverbrauch zu hoch.

tombman
2010-03-27, 22:30:27
Warum nicht. Mit einem Wasserkühler und Vcore Mod sollten ~900Mhz GPU kein Problem sein.
Da denkt einer mit :up: ;)
Die 7% Verlust von 512sp -> 480sp hol' ich wieder rein :biggrin:

Gast
2010-03-27, 22:30:41
KEIN Review spricht der GTX480 die Single-GPU-Leistungskrone ab, KEINER.
[ ] Du weißt was ein Durchschnitt ist

Und über Tess. und DX11 müssen wir nicht reden, da wird die HD5 deklassiert ;)


Ich habe aber nur über Crysis gesprochen und da sieht PCGH die HD58xx jeweils vorne und nein keiner spricht ihr die Leistungskrone oder die sehr starke aber momentan einfach irrelevante DX11 Leistung ab.

Trotzdem steht die Leistung in keiner Relation zu der katastropalen Effizienz und den noch dazu höheren Anschaffuingskosten.

Don Vito
2010-03-27, 22:31:12
habe auch einfach mal 2 Karten geordert, wobei cih eine Option auf eine 3te offen halte.
Kühlungsprinzip schließe ich mich Tombman an.
Dank der Platte ist auch eine günstige Wakü möglich.

bestellt sind derzeiotig 2x Asus gtx 480 eben auch wegen Vcore Adjust, sowie eine zusätzliche als Option.


seltsam, ich höre immer nur Crysis...
Neues ATI Fanboy geblubber?

Gast
2010-03-27, 22:31:44
Wenn die ersten Foristen ihre 4xx erhalten haben wird es mit Sicherheit einen solchen Erfahrungsthread geben. Da die Dinger aber momentan noch nichtmal die Distris haben musst du dich eben noch etwas gedulden.

Gast
2010-03-27, 22:33:06
Warum nicht. Mit einem Wasserkühler und Vcore Mod sollten ~900Mhz GPU kein Problem sein.

Das Ding knackt mit Standardspannung von 1V und 700Mhz die 300W, wenn du da auch noch voll übertaktest und die Spannung erhöhst bist du da wohl schnell bei 400-500W. Auch eine Wakü leitet die entstehende Wärme nur weiter, das wird selbst dafür schwer zu kühlern IMO.

Ich freue mich eh schon auf Tombmans Erfahrungsbericht mit zwei GTX480, da macht vermutlich eine Wasserkühlung schlapp. :)

Bucklew
2010-03-27, 22:34:29
Weisst was du kleines grünes Männchen...kauf oder leih dir eine 5870, starte den FURMark normal und dann mit einer umbenannten Exe. Du wirst sehen, der Stromverbrauch wird der gleiche sein.

Und wenn der Beweiss nicht reicht, dann nim den OCCT Graka Test. Dort wirst du auf den gleichen Lastverbrauch kommen.

Das versprech ich dir! ;)
Na, wenn das dein ganzer "Beweis" ist, dann hab ich keinen Grund mehr an der Darstellung von bsn zu zweifeln. Damit hat sich dann natürlich Furmark als Testdisziplin erledigt, wenn dieser Text gezielt von ATI gebremst wird, um keine ausufernden Verbrauchswerte zu erhalten wie mit der HD4000er Reihe.

Bin echt fasziniert von deiner Diskussionskultur. Wenn es wirklich so wäre, wie du es behauptest, hättest du mich wohl schon mit Links totbombadiert ;D

Gast
2010-03-27, 22:34:50
Wenn die ersten Foristen ihre 4xx erhalten haben wird es mit Sicherheit einen solchen Erfahrungsthread geben. Da die Dinger aber momentan noch nichtmal die Distris haben musst du dich eben noch etwas gedulden.

Den wirds mit sicherheit geben da können die religiöden NV Fanboys dann ihre abgerauchten Heizplatten vergleichen.

Gast
2010-03-27, 22:35:00
Ich freue mich eh schon auf Tombmans Erfahrungsbericht mit zwei GTX480, da macht vermutlich eine Wasserkühlung schlapp. :)

Oder die SpaWas auf der Karte...

Ein Zisch, ein Rauch, das wars dann auch ;D

Don Vito
2010-03-27, 22:35:27
400 - 500 Watt...
bleibt mal auf dem Teppich.
Oder braucht eine i7 920 CPU auch 300 Watt wenn sie auf 4Ghz übertaktet wird?

Gast
2010-03-27, 22:37:33
400 - 500 Watt...
bleibt mal auf dem Teppich.
Oder braucht eine i7 920 CPU auch 300 Watt wenn sie auf 4Ghz übertaktet wird?

SLI?

2 mal 300W + 200W Restsystem = ~800W. Ohne Übertaktung...

tombman
2010-03-27, 22:37:48
Ich habe aber nur über Crysis gesprochen und da sieht PCGH die HD58xx jeweils vorne und nein keiner spricht ihr die Leistungskrone oder die sehr starke aber momentan einfach irrelevante DX11 Leistung ab.

Trotzdem steht die Leistung in keiner Relation zu der katastropalen Effizienz und den noch dazu höheren Anschaffuingskosten.
1.) Crysis sieht ja nach Review unterschiedlich aus- also Gleichstand. Da SLI aber besser als CF ist, sehe ich NV vorne.
2.) Das ist der erste, stinkige Launchtreiber. Die Crysis Leistung wird sicher noch verbessert, während AMD schon einen optimierten
Treiber ins Feld warf.
3.) Was irrelevant ist, entscheidest du nur für dich selbst- für mich ist zb Strom/Hitze/Lautstärke irrelevant.
4.) IMO ist DX11 UND TESS. überhaupt nicht irrelevant, das heißt einiges.

Blaire
2010-03-27, 22:41:12
Ich habe aber nur über Crysis gesprochen und da sieht PCGH die HD58xx jeweils vorne und nein keiner spricht ihr die Leistungskrone oder die sehr starke aber momentan einfach irrelevante DX11 Leistung ab.

Solange die HD58x0 keine vergleichbare Bildqualität liefert sind die Vergleiche eh für die Tonne.
http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=3

AYAlf_2
2010-03-27, 22:41:24
don vito und tombman ich freu mich schon auf eure erfahrungsberichte .. dann muessen wir endlich nicht mehr spekulieren! :wink:

Gast
2010-03-27, 22:42:22
KEIN Review spricht der GTX480 die Single-GPU-Leistungskrone ab, KEINER.
[ ] Du weißt was ein Durchschnitt ist

Und über Tess. und DX11 müssen wir nicht reden, da wird die HD5 deklassiert ;)

interessiert nur keinen.....und deklassiert wo..bzw was bringts mit einer Karte..genau nix...unspielbar EndeGelände.

Was regt ihr euch auf? In 4 Monaten spricht von dem Ding kein Mensch mehr wenn der refresh da ist.

Gast
2010-03-27, 22:42:34
Mafia 2 will ich alles haben. Da kackt 58XX ab. Das nennt man FAKT.

tombman
2010-03-27, 22:42:36
SLI?

2 mal 300W + 200W Restsystem = ~800W. Ohne Übertaktung...
Und? Zar wos gibts >1000W NTs? :cool:

3x GTX480 sind sogar machbar mit normalen NTs, da wird 2x GTX480+ OC ein Kinderspiel sein.

Abrauchen wird da auch nix, die haben Reserve.

Don Vito
2010-03-27, 22:44:54
Starkes Nt mit 1KW+ ist eh klar, wobei ja im Notfall bald das evga classified Nt kommt.
Das EVGA wird alles richten;)

Jake Dunn
2010-03-27, 22:45:04
Oder braucht eine i7 920 CPU auch 300 Watt wenn sie auf 4Ghz übertaktet wird?

Das nicht aber der Verbrauch steigt nochmal exorbitant ;)

Hab mal beim Vantage (CPU-Test) das EC3000 (EKM) beobachtet:

3.8ghz@1.23V -> ~250W
4.25ghz@1.45V -> ~360W

Quelle: Me

Exxtreme
2010-03-27, 22:49:51
So Leute, jetzt beruhigen wir uns mal wieder. Ansonsten wird der Thread für paar Stündchen dichtgemacht und Paar Leute bekommen ein wenig Forenauszeit.

Rolsch
2010-03-27, 22:50:34
Nach all der Verspätung ein Mordsdrum glühendes Slizium mit einem Turbinenlüfter abzuliefern ist schon ziemlich schlecht. Die Performance macht das auch nicht wett, da hätte mehr kommen müssen. Ich denke die basteln schon eifrig am Nachfolger.

chetigol
2010-03-27, 22:53:49
1.) Crysis sieht ja nach Review unterschiedlich aus- also Gleichstand. Da SLI aber besser als CF ist, sehe ich NV vorne.
2.) Das ist der erste, stinkige Launchtreiber. Die Crysis Leistung wird sicher noch verbessert, während AMD schon einen optimierten
Treiber ins Feld warf.
3.) Was irrelevant ist, entscheidest du nur für dich selbst- für mich ist zb Strom/Hitze/Lautstärke irrelevant.
4.) IMO ist DX11 UND TESS. überhaupt nicht irrelevant, das heißt einiges.

Eigentlich geb ich da recht, bis auf die nummer zwei! Irgendwie kann ich nicht glauben, dass Nvidias Treiberabteilung all die Monate nur da gesessen sind. Da die Karte schon viel früher hätte rauskommen sollen hat die Treiberabteilung sicher nicht geschlafen und hat durch die Verspätung weiterhin an der Performance schrauben können.
Was natürlich nicht heßen soll, dass es nicht mehr weiter aufwärts geht.

Ich versteh nicht, wie sich hier manche nur so reinsteigern können! Es hat doch jeder seine eigenen Prioritäten!!! Dem einen kann der Verbrauch exponenteill zu den frames steigen, dem anderen ist halt der Verbrauch nicht unwichtig!
Ich find die Leistung der 480 sehr gut, werde aber wegen dem Verbrauch und Lautstärke aber doch zur 5870 greifen

Gast
2010-03-27, 22:56:02
Fakt ist bei Mafia 2 siehst du alle Details wie die Programmierer es haben wollen. ATI schaut da blöd aus.

Gast
2010-03-27, 22:57:59
http://www.youtube.com/watch?v=vcpEc6kC0HM

Nochmal. Schauen und abwegen.

Don Vito
2010-03-27, 22:59:50
Und mal ehrlich.
Wer solche sytseme aufbaut, hat sicher nicht nur den einen PC.
sondern mehrere.
Ich nutze z.B. ein Notebook als "Hauptrechner" der mir den Weg zum WWW sichert.
Da relativisiert sich doch eher die Sache mit Verbrauch;).


Mit dieser Tatsache stehe ich sicher nicht alleine da.

AYAlf_2
2010-03-27, 23:01:21
Eigentlich geb ich da recht, bis auf die nummer zwei! Irgendwie kann ich nicht glauben, dass Nvidias Treiberabteilung all die Monate nur da gesessen sind. Da die Karte schon viel früher hätte rauskommen sollen hat die Treiberabteilung sicher nicht geschlafen und hat durch die Verspätung weiterhin an der Performance schrauben können.
Was natürlich nicht heßen soll, dass es nicht mehr weiter aufwärts geht.

Ich versteh nicht, wie sich hier manche nur so reinsteigern können! Es hat doch jeder seine eigenen Prioritäten!!! Dem einen kann der Verbrauch exponenteill zu den frames steigen, dem anderen ist halt der Verbrauch nicht unwichtig!
Ich find die Leistung der 480 sehr gut, werde aber wegen dem Verbrauch und Lautstärke aber doch zur 5870 greifen
ich glaube nicht, dass es boese gemeint ist wenn sich hier einige so reinsteigern wie du sagst. die leute sind nur unheimlich entaeuscht von dem was ihnen jetzt von nvidia geboten wurde. einige haben ewig auf den zig mal verschobnen launch dieser wunderkarte gewartet. und jetzt wird man so herbe entaeuscht, dass die konkurenz sogar als erst reaktion die preise der 5870 gleich um 50+ euro anhebt. die meisten haben sich wenigstens einen preiskampf gewuenscht. aber so wie nvidia hier auftritt wird es den wohl nicht geben. die unzulaenglichkeiten der karte sind dann nur ein nettes angriffsziel. ... neid wie hier schon behauptet wird spielt hier keine rolle. denn besonders die ati fans hatten auf einen preisnachlass ihrer favoriten gehofft.

Gast
2010-03-27, 23:01:39
Mafia 2. Ich will alles. SO wie es vorgesehen ist. Da hinkt ATI her. Das ist nunmal FAKT.

Byteschlumpf
2010-03-27, 23:02:09
Die Frage ist, ob für alle Details bei "Mafia 2" eine GTX470 schon genügt, oder ob man diese erst ab einer GTX480 genießen kann? Die neue GTS wird da kaum genügend Leistung bieten können!

Mit "Mafia 2" könnte es sich durchaus so verhalten, wie mit Crysis - erst ein paar GPU-Generation später wird man das Game in voller Pracht mit maximaler Auflösung genießen können! ;)

Schlammsau
2010-03-27, 23:02:25
ich glaube nicht, dass es boese gemeint ist wenn sich hier einige so reinsteigern wie du sagst. die leute sind nur unheimlich entaeuscht von dem was ihnen jetzt von nvidia geboten wurde. einige haben ewig auf den zig mal verschobnen launch dieser wunderkarte gewartet. und jetzt wird man so herbe entaeuscht, dass die konkurenz sogar als erst reaktion die preise der 5870 gleich um 50+ euro anhebt. die meisten haben sich wenigstens einen preiskampf gewuenscht. aber so wie nvidia hier auftritt wird es den wohl nicht geben. die unzulaenglichkeiten der karte sind dann nur ein nettes angriffsziel. ... neid wie hier schon behauptet wird spielt hier keine rolle. denn besonders die ati fans hatten auf einen preisnachlass ihrer favoriten gehofft.


Wos die Preise der HD5000 wurden erhöht?

LovesuckZ
2010-03-27, 23:03:48
Für die SLI-Freunde:
http://www.techarp.com/article/NVIDIA/GTX400_Tech_Report/slide_07_big.png

http://www.techarp.com/showarticle.aspx?artno=668&pgno=1

Exxtreme
2010-03-27, 23:03:54
Mit "Mafia 2" könnte es sich durchaus so verhalten, wie mit Crysis - erst ein paar GPU-Generation später wird man das Game in voller Pracht mit maximaler Auflösung genießen können! ;)
Bei der miesen Grafik, die man im Video sieht glaube ich nicht, daß das Spiel zu lahm laufen wird.