PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 480 und 470: (P)Review-Thread


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28

dildo4u
2010-03-27, 11:38:59
naja gemessen an 5870

pro:
Performance (zuwachs gemessen an der GTX280 nach so langer Zeit natürlich dürftig)

Find ich Persönlich nicht mit 4XAA sind's ca 80% mit 8XAA ca 100%.(1900*1200)CB Rating GTX 275 als Grundlage.

Gast
2010-03-27, 11:40:03
Gemittelt über sehr viele Reviews sind es nicht ganz 15% inkl. DX11:

http://img11.imageshack.us/img11/1360/480vs5870final.png

http://www.xtremesystems.org/forums/showpost.php?p=4309698&postcount=2495

Armaq
2010-03-27, 11:41:00
Hier noch ein paar Werte für die Durchschnittswert-Interessierten: http://www.xtremesystems.org/forums/showpost.php?p=4309698&postcount=2495
Das ist mal eine Tabelle. 15% vor HD5870. Damit kann man etwas anfangen.
Jemand der nur eine 1680-Auflösung betreibt ist mit der 470 bzw. 5850 ganz gut bedient, ansonsten ist die 5870 einfach das bessere Paket vor der 480. Bei Unternehmen nimmt man ja gerne das Aphorisma: "too big to fail", bei der 480 ist es eindeutig "too big not to fail". Im nächsten Prozess ist die Karte sicher ein Kracher, aber so ist sie einfach nur ein Monster.

Tombman, fährst du 2560?


Edit: Das Computerbase schon in Englisch verlinkt wird ist auch interessant.

AnarchX
2010-03-27, 11:41:07
Vielleicht können wir mal ein paar D3D11-Durchschnittswerte zusammentragen:

GTX 480 vs 5870 - DX11 - 1920x1200 4xMSAA/16xAF

HW.fr +42% (http://www.hardware.fr/articles/787-21/dossier-nvidia-geforce-gtx-480.html)
CB +20% (http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_nvidia_geforce_gtx_480/21/#abschnitt_performancerating_directx_11)
TweakPC +31% (http://www.tweakpc.de/hardware/tests/grafikkarten/nvidia_geforce_gtx_480/benchmarks.php?benchmark=pfd11)
HT4u + 24% (http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index53.php?dummy=&prod[]=AMD+ATI+Radeon+HD+5870&prod[]=NVIDIA+GeForce+GTX+480&filter[0][]=1920&filter[2][]=4&filter[3][]=0&filter[3][]=16)


Wer weitere Ratings findet, bitte posten.

PulsarS
2010-03-27, 11:41:20
naja gemessen an 5870

pro:

bessere AA Modi (bis auf OGSSAA)

Geht bei den GF100 überhaupt SSAA offiziell?


Downsampling
Geht Downsampling mit Nvidia mittlerweile auch unter XP?
Bin da nicht mehr auf dem Laufenden.
Letzter Stand:
NV -> Vista, Win 7
AMD -> XP

Wenn es immernoch so ist, dann hat nämlich kein IHV einen Vorteil

Ronny145
2010-03-27, 11:43:09
Hier noch ein paar Werte für die Durchschnittswert-Interessierten: http://www.xtremesystems.org/forums/showpost.php?p=4309698&postcount=2495


Sind dann eher so 15-20% im Durchschnitt.

Daredevil
2010-03-27, 11:43:16
Stromsparer (vor allem unter Last) heißt Nichts anderes, als dass AMD darauf verzichtet hat, das Letzte heraus zu quetschen.
NV musste dagegen schneller sein und hat dazu nahezu Alles in Kauf genommen.
Es ging um die Performance Krone, Nvidia sagt ja selbst, das die GTX480 für Enthusiasten ist, statt 2 kleine Karten zusammen zu schrauben und ein hitziges lautes stromfressendes Monster zu schaffen ( HD5970 ) haben sie sich halt eine Karte genommen und haben die so dermaßen zugepumpt, das sie in die Regionen der Konkurierenden mGPU Karte kommt, die GTX480 ist zwar nicht schneller als eine HD5970 ( ~15% langsamer ), dafür gibts aber auch keine Mikroruckelei und sonstige Nachteile.
Aber dafür ist sie natürlich auch hitzig, laut und ein stromfressendes Monster. :D

Sentionline
2010-03-27, 11:43:31
Ich finde die GPU deswegen gelungen, da es die Sicherheit bietet, auch die nächsten Jahre damit gut zu fahren. Flexibel ist sie ja und reicht, bis die ersten XBox460 oder Playstation 4 Portierungen erscheinen. Und ich behaupte mal, auch die Games würde die GPU mit einem Gulftown oder Thuban passabel darstellen. Das mit Cuda & Co sind "nice to Have" Features, die auch ein Kiddie bedienen kann, das aus seine Hose rauswächst und auch andere Sachen ausprobiert als ein Furmark Bench.

Der Stromverbrauch ist natürlich nicht nett und auch die daraus resultierende abwärme+lautstärke. Das wird man aber bestimmt in den Griff bekommen und zuminderst die Kühlung kann man ja per Hand ausbessern. Jetzt wo man sich das bei der RV8x anschauen kann kann man natürlich sagen das die Karte zuviel verbraucht. Im Vergleich zu der GTX285 ist m.E. dieser nicht zu sehr angewachsen.

Aufgrund der hohen Kompatibilität und der Featureliste ist die GTX480 für mich ein Must have. Inkompatibilitäten sowie der daher eingehenden Hotfix Problematik gibts bei Nvidia nicht bzw. sehr selten.

Ein Gamer mit maximal fps Gier kauft keine High-End Hardware, um schliesslich zu sagen, mein 12Zylinder schluckt zuviel. Das ist blödsinn. Den Verbrauch hat man schon vorab in richtung 300Watt geschätzt, warum sollte ich da also verwundert tun. Ist eben etwas mehr Salz in der Suppe. Wayne, dann kann man ja zu ATi Rv8x greifen und sich das gepatchte SGSSAA zugemüte führen, die unter DX11 Games wieder das stottern aufm Bildschirm zaubert. Ist das selbe gegenargument zu Leistungsaufnahme bei Nvidia.

Für mich sind 479€ zuviel. Bei 399€ bin ich dabei, aber vorher muss ich auf n vierkerner umrüsten, sonst ist das Ding blödsinn.

mfg

derguru
2010-03-27, 11:43:50
naja gemessen an 5870

pro:
Performance (zuwachs gemessen an der GTX280 nach so langer Zeit natürlich dürftig)
AF
bessere AA Modi (bis auf OGSSAA)
PhysX
Downsampling
Cuda
Treiber vermutlich
zukünftige Performancezuwächse

contra:
extreme Last Leistungsaufnahme
zu hohe IDLE Leistungsaufnahme
resultierend aus obigen zu laut ohne andere Kühllösungen
evtl. der Preis (also bei der GTX480 definitiv bei GTX470 muss man sehen wo der sich einpendelt)
evtl. Verfügbarkeitsprobleme
nicht immer die Werte raussuchen die einem passen

gemittelt über 3 Webseiten (PCGH,CB,HT4U) erreicht die GTX480 in Dirt2 1920x1200 4xAA/16xAF ein Plus von 20%
in stalker ist es sogar gleich schnell.
-----------------------------------------------------------------------------------------------------------------------------------------
GTX 480 vs 5870

und die durchschnittswerte unter 2560*1600 4AA/16AF sollten gleichstand bedeuten.

pest
2010-03-27, 11:46:02
in stalker ist es sogar gleich schnell.

öhm, nein gemittelt über CB und HT4U: 20% schneller in 19x12 4xAA/16xAF

Vielleicht können wir mal ein paar D3D11-Durchschnittswerte zusammentragen:


das müssen wir anders machen, das CB-Rating kannst du vergessen, da immer relatv zur schnellsten Karte

ich habe schon ein paar DX11-Only Werte zusammengetragen aber die Testbedingungen sind oft zu unterschiedlich (mal 4xAA/8xAF, mal nur 4xAA...)
Der Metro 2033 Wert der HD5870 bei PCGH ist z.B. total seltsam

aber sag mal welche Spiele wr für den "Zukunft-Vergleich" nehmen:
Dirt2 DX11
Metro 2033 DX11
BattleForge DX11
Stalker COP DX11
...?

als Auflösung würde ich ersteinmal 19x12 4xAA/16xAF vorschlagen

Ronny145
2010-03-27, 11:46:04
Geht bei den GF100 überhaupt SSAA offiziell?


Geht Downsampling mit Nvidia mittlerweile auch unter XP?
Bin da nicht mehr auf dem Laufenden.
Letzter Stand:
NV -> Vista, Win 7
AMD -> XP

Wenn es immernoch so ist, dann hat nämlich kein IHV einen Vorteil


Da hätte natürlich Nvidia einen Vorteil. Unter XP könnte man zur Not SSAA nehmen, DX10/11 ist da eh nicht möglich.

Sentionline
2010-03-27, 11:46:37
in stalker ist es sogar gleich schnell.
Skandal!

als Auflösung würde ich ersteinmal 19x12 4xAA/16xAF vorschlagen
2560x1600 - 8xAA /16xAF bitte bei dieser Generation.

PulsarS
2010-03-27, 11:48:29
Da hätte natürlich Nvidia einen Vorteil. Unter XP könnte man zur Not SSAA nehmen, DX10/11 ist da eh nicht möglich.
Da hast du sicherlich Recht.
Auf der anderen Seite ist XP bei der Verbreitung noch immer vor Vista/Win 7.
Deswegen sehe ich hier einen Gleichstand, mit leichter Tendenz zu Nvidia. :)

LovesuckZ
2010-03-27, 11:48:41
Vielleicht interessiert es ja jemanden, wie nVidia im Furmark den ganzen Strom in Frames umwandelt:
http://i.neoseeker.com/a/gtx480launch/furbar.png
http://www.neoseeker.com/Articles/Hardware/Reviews/gtx480launch/6.html

Da hat man wohl den Fix vergessen. :lol:

Cubitus
2010-03-27, 11:48:43
Es ging um die Performance Krone, Nvidia sagt ja selbst, das die GTX480 für Enthusiasten ist, statt 2 kleine Karten zusammen zu schrauben und ein hitziges lautes stromfressendes Monster zu schaffen ( HD5970 ) haben sie sich halt eine Karte genommen und haben die so dermaßen zugepumpt, das sie in die Regionen der Konkurierenden mGPU Karte kommt, die GTX480 ist zwar nicht schneller als eine HD5970 ( ~15% langsamer ), dafür gibts aber auch keine Mikroruckelei und sonstige Nachteile.
Aber dafür ist sie natürlich auch hitzig, laut und ein stromfressendes Monster. :D

Eine Dualkarte wird von NV aber auch kommen..
Fragt sich nur wie schnell..

Ri*g*g*er
2010-03-27, 11:48:59
Das traurigste überhaupt:

Crysis/Warhead

ich hab mit einem ordentlichem Schub gerechnet aber meine Enttäuschung kann ich kaum in Worte fassen . . .

Gruss
Ri*g*g*er

Gast
2010-03-27, 11:49:23
Der Stromverbrauch ist natürlich nicht nett und auch die daraus resultierende abwärme+lautstärke. Das wird man aber bestimmt in den Griff bekommen und zuminderst die Kühlung kann man ja per Hand ausbessern.

Ich glaube nicht das du auf diesem Planeten eine LuftKühler findest der 300W leise wegkühlen kann.

pest
2010-03-27, 11:49:26
2560x1600 - 8xAA /16xAF bitte bei dieser Generation.

bei einer 1GB HD5870, sehr sinnvoll

Sentionline
2010-03-27, 11:51:01
bei einer 1GB HD5870, sehr sinnvoll
Pech. Eine Karte kauft man sich doch für die Zukunft?

Villeicht kann man sich bei 19x12 bei 8xAA / 16xAF treffen.

Ronny145
2010-03-27, 11:51:27
Da hast du sicherlich Recht.
Auf der anderen Seite ist XP bei der Verbreitung noch immer vor Vista/Win 7.
Deswegen sehe ich hier einen Gleichstand, mit leichter Tendenz zu Nvidia. :)


Ja unter Steam ist es verbreiteter, abe wer davon betreibt downsampling? Doch nur die Enthusiasten und Freaks, selbst im Forum hier dürfte der Anteil äußerst gering sein. Und von denen stellt Vista/Win 7 eine deutliche Mehrheit.

Gast
2010-03-27, 11:51:48
bei einer 1GB HD5870, sehr sinnvoll

Mit 2GB zieht die Radeon da wohl vorbei wenn man die Tendenzen betrachtet.

derguru
2010-03-27, 11:52:29
öhm, nein gemittelt über CB und HT4U: 20% schneller in 19x12 4xAA/16xAF

ja ok aber sind ja nicht die einzigen reviewer aber haut schon hin obwohl es in den nächsten auflösung fast wieder gleichzieht.

Skandal!
es ging um spiele mit tesselation.:wink:

bei einer 1GB HD5870, sehr sinnvoll
was meinst du warum er das sehen will.

Exxtreme
2010-03-27, 11:52:41
Ich finde die GPU deswegen gelungen, da es die Sicherheit bietet, auch die nächsten Jahre damit gut zu fahren.
Eine Sicherheit gibt es bei sowas nie. Gab etliche vernünftige Dinge, die sich am Ende nicht durchgesetzt haben. Und angesichts der vielen Konsolenports fragt man sich ob man diese Tesselation-Leistung denn braucht. Selbst eine olle R5850 berechnet vortrefflich alle Konsolenports. Selbst meine R3870 reicht dazu völlig aus.

Gast
2010-03-27, 11:52:58
öhm, nein gemittelt über CB und HT4U: 20% schneller in 19x12 4xAA/16xAF


CB und HT4U sind auch nicht der Weisheit letzter Schluss. Bei anderen Seiten sind sie gleich schnell. Kommt halt immer auf die gebenchte Szene an.

PulsarS
2010-03-27, 11:53:23
Ich glaube nicht das du auf diesem Planeten eine LuftKühler findest der 300W leise wegkühlen kann.
Da wäre ich nicht soooo sicher.
Der MK-13 sollte das ganz gut hinbekommen.

Daredevil
2010-03-27, 11:53:31
Evtl. hat ja Nvidia den logischen Schritt getan und dachte sich "Hm... die µRuckler bekommen wir eh nicht weg, also heißt es SingleGPU pimpen!", nur das sie das dann wohl doch nicht so sehr geschafft haben ( 512 Shader Einheiten und die Sache wär geritzt ).
Das sie Quasi die Geschwindigkeit einer MultiGPU in einer SingleGPU packen wollten, die Rechenleistung ist ja brachial vorhanden ( Siehe Cuda, PhysX, Tesselation ), nur wird die irgendwie nicht umgesetzt. :(

Gast
2010-03-27, 11:53:53
Vielleicht interessiert es ja jemanden, wie nVidia im Furmark den ganzen Strom in Frames umwandelt:
http://i.neoseeker.com/a/gtx480launch/furbar.png
http://www.neoseeker.com/Articles/Hardware/Reviews/gtx480launch/6.html

Da hat man wohl den Fix vergessen. :lol:

Der Stromverbrach liegt auch in Games tw. nahe an 300W, von daher....

Gast
2010-03-27, 11:54:49
Das traurigste überhaupt:

Crysis/Warhead

ich hab mit einem ordentlichem Schub gerechnet aber meine Enttäuschung kann ich kaum in Worte fassen . . .

Gruss
Ri*g*g*er

Ich hab zwar einen Benchmark gepostet, aber allzu Nvidia freundliche Postings kommen heute leider nicht durch die Forumszensur.
http://www.hwgurus.com/tests/Graficke%20karte/NVIDIA_GTX480/Grafikoni/crysis/crysis_1920_8aa.PNG

Keine Ahnung warum Leute glauben sie sei in Crysis nicht wirklich schneller.

http://www.hwgurus.com/testovi/grafike-karte/152.html?start=11

Versuchen wirs halt nochmal, vielleicht ist der Zensurangestellte grad Mittagessen.

dildo4u
2010-03-27, 11:54:57
Das traurigste überhaupt:

Crysis/Warhead

ich hab mit einem ordentlichem Schub gerechnet aber meine Enttäuschung kann ich kaum in Worte fassen . . .

Gruss
Ri*g*g*er
Das liegt daran das das ne DX9 Engine ist.DX9 Max aber halt nach alter Bauart, Cryengine 3 bringt hoffentlich Besserung.Neben Crysis nutzt ja auch kaum ein Game die Cryengine 2 aus gutem Grund.

pest
2010-03-27, 11:55:52
ja ok aber sind ja nicht die einzigen reviewer.


deswegen habe ich gerade meine Tabellenkalkulation im Hintergrund
und wenn ich nicht der Einzige mit Vorschlägen bin, mache ich auch weiter ;)
also welche Spiele, welche Auflösung und welche Seiten?
bis jetzt habe ich PCGH, CB, Techspot und Anandtech

Gast
2010-03-27, 11:56:00
Eine Sicherheit gibt es bei sowas nie. Gab etliche vernünftige Dinge, die sich am Ende nicht durchgesetzt haben. Und angesichts der vielen Konsolenports fragt man sich ob man diese Tesselation-Leistung denn braucht. Selbst eine olle R5850 berechnet vortrefflich alle Konsolenports. Selbst meine R3870 reicht dazu völlig aus.

Eben. Zukunftssicher sind immer die Karten welche sich gut verkaufen, denn darauf nehmen die Spielehersteller Rücksicht.

dildo4u
2010-03-27, 11:57:01
Eine Sicherheit gibt es bei sowas nie. Gab etliche vernünftige Dinge, die sich am Ende nicht durchgesetzt haben. Und angesichts der vielen Konsolenports fragt man sich ob man diese Tesselation-Leistung denn braucht. Selbst eine olle R5850 berechnet vortrefflich alle Konsolenports. Selbst meine R3870 reicht dazu völlig aus.
Gerade diese Ports werden Tesslation bekommen um den Polycount zu erhöhen.Das wird in diesem Jahr auch der Häufigste Einsatz dieser Tech sein.Avp und Dirt 2 sind imo gute Gradmesser dafür.

Mr. Lolman
2010-03-27, 11:58:10
Ich hab zwar einen Benchmark gepostet, aber allzu Nvidia freundliche Postings kommen heute leider nicht durch die Forumszensur.
http://www.hwgurus.com/tests/Graficke%20karte/NVIDIA_GTX480/Grafikoni/crysis/crysis_1920_8aa.PNG

Keine Ahnung warum Leute glauben sie sei in Crysis nicht wirklich schneller.

http://www.hwgurus.com/testovi/grafike-karte/152.html?start=11

Versuchen wirs halt nochmal, vielleicht ist der Zensurangestellte grad Mittagessen.

Achja tatsächlich. HWGurus hat hohe fps mit dem achso relevanten 8xAA gemessen. Na dann muss es ja stimmen.



EDIT: Wobei die Profis dort anscheinend nicht wissen wie man GraKas übertaktet. Wenn man mit höherem Takt niedrigere fps erzielt hat mans anscheinend übertrieben, da beim RV870 der Speicher eine Art Throttling macht, falls der Speichertakt in instabilen Bereichen gehoben wird.

y33H@
2010-03-27, 11:58:42
Der Metro 2033 Wert der HD5870 bei PCGH ist z.B. total seltsam.Weil?

@ Topic

Vergleiche mit der H2900 XT sind imo nicht ganz korrekt. Ja, Fermi ist sehr spät, extrem laut, ein Hitzkopf und ein Stromfresser. Die XT konnte anno dazu mal aber mit Müh' und Not mit der 88GTS/640 mithalten, die 88GTX rannte weit davon. Die GTX 480 schlägt die HD5870 im Mittel jedoch spürbar und klatscht in einigen Benches gar eine HD5970. Zwar mit verdammt viel "Brute Force", aber es klappt.

LovesuckZ
2010-03-27, 11:59:05
Der Stromverbrach liegt auch in Games tw. nahe an 300W, von daher....

In welchen? Bei PCGH.de sind es 235 Watt in Race Driver und bei HT4U 230 Watt bei "Spiele".
Schade, dass die Leute alle Furmark als Stromverbrauchstest verwenden, aber nicht die Frames aufzeigen. Laut denen von neoseeker ist die GTX480 mehr als 2x so schnell bei "nur" 53% mehr Verbrauch...

Gast
2010-03-27, 12:00:12
Achja tatsächlich. HWGurus hat hohe fps mit dem achso relevanten 8xAA gemessen. Na dann muss es ja stimmen.

Ach, dir gefallen die Ergebnisse nicht? Na dann hophop, weglöschen.

Odal
2010-03-27, 12:00:49
Geht bei den GF100 überhaupt SSAA offiziell?


laut PCGH sind die hybriden 16xS 32xS verfügbar
über den nhancer dann wie gehabt alles andere


Geht Downsampling mit Nvidia mittlerweile auch unter XP?
Bin da nicht mehr auf dem Laufenden.
Letzter Stand:
NV -> Vista, Win 7
AMD -> XP


k.a. habe mein XP das letzte mal vor nem halben jahr für gothic2 gestartet

AnarchX
2010-03-27, 12:01:02
Laut denen von neoseeker ist die GTX480 mehr als 2x so schnell bei "nur" 53% mehr Verbrauch...
Wurden denn diese 300W+ auch mit dem 4xAA Setting von Neoseeker gemessen?

Schlammsau
2010-03-27, 12:01:06
Weil?

@ Topic

Vergleiche mit der H2900 XT sind imo nicht ganz korrekt. Ja, Fermi ist sehr spät, extrem laut, ein Hitzkopf und ein Stromfresser. Die XT konnte anno dazu mal aber mit Müh' und Not mit der 88GTS/640 mithalten, die 88GTX rannte weit davon. Die GTX 480 schlägt die HD5870 im Mittel jedoch spürbar und klatscht in einigen Benches gar eine HD5970. Zwar mit verdammt viel "Brute Force", aber es klappt.

Dafür klatscht auch eine 5870, zwar seltenst, eine 480! ;)
Ok....also wie schnell würde eine auf 300Watt Lastverbrauch hochgezüchtete 5870/2GB werden? Ich bin mir sicher, sie würde eine GTX480 hinter sich lassen.
Eine 5870 mit dem Stromverbrauch könnte ich mir so vorstellen.....selektierte Chips und 2GB VRAM@1100/1300Mhz. Evtl sogar noch mehr MHz.....

Mit Tesselation würde sie zwar immer noch nicht an eine 480 rankommen aber in allem anderen hätte die 480 verloren.

Armaq
2010-03-27, 12:02:01
http://www.hwgurus.com/tests/Graficke%20karte/NVIDIA_GTX480/Grafikoni/crysis/crysis_1920_8aa.PNG[/url]


Die beiden Werte sind mal interessant. Der Furmark-Wert 2 und die Min FPS bei Crysis rocken ziemlich.

Ich bin bei Fermi auf Min-Fps Vergleich gespannt, wenn der VRAM nicht! der Schuldige ist.

derguru
2010-03-27, 12:02:28
deswegen habe ich gerade meine Tabellenkalkulation im Hintergrund
und wenn ich nicht der Einzige mit Vorschlägen bin, mache ich auch weiter ;)
also welche Spiele, welche Auflösung und welche Seiten?
bis jetzt habe ich PCGH, CB, Techspot und Anandtech
http://www.techspot.com/review/263-nvidia-geforce-gtx-480/page11.html

aber hats recht der rest der reviews zeigen in etwa das selbe wie cb und co.

komische werte bei alien vs. predator,hmm. erst bei 4aa kommt es zum einbruch?

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/30297-nvidia-geforce-gtx-480-review-13.html

Gast
2010-03-27, 12:02:31
In welchen? Bei PCGH.de sind es 235 Watt in Race Driver und bei HT4U 230 Watt bei "Spiele".
Schade, dass die Leute alle Furmark als Stromverbrauchstest verwenden, aber nicht die Frames aufzeigen. Laut denen von neoseeker ist die GTX480 mehr als 2x so schnell bei "nur" 53% mehr Verbrauch...

[...]Im simulierten Last-Betrieb unter Furmark rennt die GeForce GTX 480 über ihre genannte TDP von 250 Watt hinaus. NVIDIA ist sich diesem Umstand bewusst, wie man uns bestätigt hat. Wie man uns erklärt hat, ermittelte man die TPD anhand eines Mittelwertes in Spielen - das haben wir schon einmal vor einem Weilchen von AMD hören dürfen - und sieht Furmark nicht als repräsentativ an.

Das Argument muss man akzeptieren. Allerdings gab NVIDIA auch an, dass ihre Grafiklösung auf kommende High-End-Titel zugeschnitten sei. Ebenso erklärte man uns, dass einige Boardpartner ihre Supersonic-Demo mit als Beilage in den Karton packen würde. Nun dann, betrachten wir uns die folgenden Resultate auch noch:

# NVIDIA SuperSonic-Demo: 262,70 Watt
# 3DMark06: 283,16 Watt
# Heaven 2: 242,6 Watt
# Stalker CoP: 239,86 Watt


Ausgehend von diesen Resultaten haben wir NVIDIA natürlich kontaktiert und um Rücksprache gebeten. Erst einmal erklärte man uns, dass natürlich ein offener Teststand nicht optimal für die GeForce GTX 480-Konstellation sei. "Gute Gehäuse mit guter Gehäuse-Durchlüftung" seien hier eigentlich vorgesehen. [...]

Anmerkung: Die ermittelten 3DMark 06 Ergebnisse wurden nicht unter den typisch herangezogenen Benchmarks ermittelt, sondern unter den Tests Vertex-Shader Complex, Shader Particles (SM3.0) und Perlin Noise (SM3.0).

http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index15.php

Exxtreme
2010-03-27, 12:02:43
Gerade diese Ports werden Tesslation bekommen um den Polycount zu erhöhen.Das wird in diesem Jahr auch der Häufigste Einsatz dieser Tech sein.Avp und Dirt 2 sind imo gute Gradmesser dafür.
Das glaube ich nicht. Sowas einzubauen verursacht Kosten. Und Kosten werden gescheut angesichts der Krise in der Spieleindustrie.

Gast
2010-03-27, 12:03:40
Schade, dass die Leute alle Furmark als Stromverbrauchstest verwenden, aber nicht die Frames aufzeigen. Laut denen von neoseeker ist die GTX480 mehr als 2x so schnell bei "nur" 53% mehr Verbrauch...

Das ist zB etwas das mich schon länger stört. Das Problem ist das es dich in der Vergangenheit nicht gestört hatte als die AMD-Karten da aus Leistung/Watt Sicht deutlich überlegen waren.

LovesuckZ
2010-03-27, 12:04:08
Wurden denn diese 300W+ auch mit dem 4xAA Setting von Neoseeker gemessen?

Nein, Neoseeker verwenden OCCT für ihre Messung:
http://i.neoseeker.com/a/gtx480launch/power.png
http://www.neoseeker.com/Articles/Hardware/Reviews/gtx480launch/18.html

AnarchX
2010-03-27, 12:04:35
Ok....also wie schnell würde eine auf 300Watt Lastverbrauch hochgezüchtete 5870/2GB werden? Ich bin mir sicher, sie würde eine GTX480 hinter sich lassen.
Für einen deutlichen Sieg müssten es wohl schon 1100/1400MHz sein, dementsprechend auch der neue 0.33ns Speicher von Samsung.
Ich bezweifele, dass sich dieser Aufwand für AMD lohnt, immerhin kann man noch auf die 5970 verweisen bzw. die bald erscheinende 5870x2 2x2GiB Version.

Daredevil
2010-03-27, 12:05:00
Dafür klatscht auch eine 5870, zwar selten, eine 480.
Ok....also wie schnell würde eine auf 300Watt Lastverbrauch hochgezüchtete 5870/2GB werden? Ich bin mir sicher, sie würde eine GTX480 hinter sich lassen.
Eine 5870 mit dem Stromverbrauch könnte ich mir so vorstellen.....2GB@1050/1300Mhz.
Es wurden hier mal Benchies gepostet, nur ich find se nimma. :(
War ne 5870 2g die übertaktet war, anbei noch Strommessungen.

Edit: Gefunden!
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7925389&postcount=2297

dildo4u
2010-03-27, 12:06:09
Für einen deutlichen Sieg müssten es wohl schon 1100/1400MHz sein, dementsprechend auch der neue 0.33ns Speicher von Samsung.
Ich bezweifele, dass sich dieser Aufwand für AMD lohnt, immerhin kann man noch auf die 5970 verweisen bzw. die bald erscheinene 5870x2 2xGiB Version.

Jo kommt auf's Game an 1Ghz würde whol nicht immer reichen.

http://www.hwgurus.com/tests/Graficke%20karte/NVIDIA_GTX480/Grafikoni/jc2/jc2_1920_8aa8af.PNG

http://www.hwgurus.com/testovi/grafike-karte/152.html?start=19

Hans Olo
2010-03-27, 12:08:06
Also die Karte ist von der Leistung her ja ganz ordentlich, ABER die Verbrauchswerte sind eine Katastrophe! Unter Last genau so wie im Idle.

Keine Ahnung was sich nVidia hierbei gedacht hat!

Das Argument mit der Zukunftsfähigkeit ist auch eher eine Durchhalteparole. Ein aktuelles Hardwareprodukt und Zukunftsfähigkeit beißt sich meiner Meinung nach immer. Keiner weiß wie sich der Markt entwickeln wird und wenn wirklich fordernde Titel auf den Markt kommen, ist sowieso schon wieder eine neue Kartengeneration oder zumindest Refreshgeneration (mit hoffentlich ordentlichen Verbrauchswerten) verfügbar.

grafzahl
2010-03-27, 12:08:54
Nur mal eine Frage ohne das zu sehr zu bewerten,

aber wo ist den bitte eine 480GTX Zukunftssicher? Das ist ja wohl der größte Witz sich damit was schön zu reden. Ja sie ist schneller in Tess und DX11 aber reicht auch nicht um die Games flüssig zu zocken. Die Games die flüssig laufen schafft ne ATI auch.

Bis die passenden Games in der Masse da sind, wird es die nächste Rev geben von Nvidia. Das Ding wird so wie es ist nicht lang da sein. Sieht man an den Arbeiten am B1 Stepping.

Das gleiche Spiel wie mit Crysis und DX10 damals. Sah Ultray High und DX10 schick aus lief aber unter aller Kanone auch auf der Prestige Karte der 8800 Ultra. Also was soll das von wegen Zukunftssicher? Bis dahin haben wir schon längst die nächsten Karten bis Games mit den Features flüssig laufen.

y33H@
2010-03-27, 12:09:19
Dafür klatscht auch eine 5870, zwar selten, eine 480.Unter "klatschen" verstehe ich mal so gepflegte 30% mehr. Wo schafft das die HD5870 in Spielen? ;)
Ich bin mir sicher, sie würde eine GTX480 hinter sich lassen.Geht man von (großzügigen) +25% für die GTX480 aus, sollte eine HD5870 mit 1.050 bis 1.100 MHz Chiptakt die Geforce locker knacken. Aber eine solche wird es sicherlich nicht geben. Eine eventuelle HD5890 bleibt unter 1,0 GHz.

tombman
2010-03-27, 12:09:21
Who's yer daddy?:

http://www.abload.de/img/img002833802ws.gif (http://www.abload.de/image.php?img=img002833802ws.gif)

Und für unsere Crysis-Freunde:

http://www.abload.de/img/gtx480slivshd5870cfnsss.png (http://www.abload.de/image.php?img=gtx480slivshd5870cfnsss.png)

Sentionline
2010-03-27, 12:09:47
Eine Sicherheit gibt es bei sowas nie.
Eine G8x reicht heute noch für die meisten Spiele. Ein R600 dagegen nicht...;)

OgrEGT
2010-03-27, 12:10:06
Der Shrink auf 32nm mitsamt einer Entschlackung des Designs sollte schnell von statten gehen....dann ist auch der Stromverbrauch wieder halbwegs im Rahmen.
Die Lautstärke ist irrelevant, weil es nur das Referenzdesign ist.

Sieht man ja jetzt ganz klar, dass die Annahme lediglich die Strukturbreite zu shrinken nicht automatisch in einer geringeren Stromaufnahme mündet. Das Design des Chips muss vernünftig auf diesen Prozess angepasst werden. Dazu gehört auch die Größe des Chips und die Menge an Transistoren und deren Packdichte. Dise Faktoren müssen in eine vernünfige Relation zum Leckstrom des Chips gebracht werden, da dieser die Wärmenetwicklung und somit die Peformance/Watt ungünstig beeinflusst. Alles was an Energie durch Leckstrom verschwendet wird, kommt der Leistung des Chips nicht zu Gute und muss unnötigerweise abenfalls durch die Kühlkonstruktion abgeführt werden.

Gast
2010-03-27, 12:10:55
Für einen deutlichen Sieg müssten es wohl schon 1100/1400MHz sein, dementsprechend auch der neue 0.33ns Speicher von Samsung.
Ich bezweifele, dass sich dieser Aufwand für AMD lohnt, immerhin kann man noch auf die 5970 verweisen bzw. die bald erscheinende 5870x2 2x2GiB Version.
Bei 2GiB wird das ein teurer Spass.
Dann wird man auch noch negative Pressemeldungen ernten, ich denke das spart sich AMD.
Sie haben keinen Grund dazu, sie haben eh die 5970 am Markt, die die Krone auf dem Papier versucht zu verteidigen und die dank MGPU weniger kritisiert wird.

Exxtreme
2010-03-27, 12:11:44
Eine G8x reicht heute noch für die meisten Spiele. Ein R600 dagegen nicht...;)
Purer Zufall. Eine Radeon 9700 Pro hat auch ewig gehalten, der direkte Kontrahent inkl. seinen Nachfolger hingegen nicht.

Gast
2010-03-27, 12:11:55
Eine G8x reicht heute noch für die meisten Spiele. Ein R600 dagegen nicht...;)

Und wo ist da die Analogie?

dildo4u
2010-03-27, 12:13:37
Nur mal eine Frage ohne das zu sehr zu bewerten,

aber wo ist den bitte eine 480GTX Zukunftssicher? Das ist ja wohl der größte Witz sich damit was schön zu reden. Ja sie ist schneller in Tess und DX11 aber reicht auch nicht um die Games flüssig zu zocken. Die Games die flüssig laufen schafft ne ATI auch.

Bis die passenden Games in der Masse da sind, wird es die nächste Rev geben von Nvidia. Das Ding wird so wie es ist nicht lang da sein. Sieht man an den Arbeiten am B1 Stepping.

Das gleiche Spiel wie mit Crysis und DX10 damals. Sah Ultray High und DX10 schick aus lief aber unter aller Kanone auch auf der Prestige Karte der 8800 Ultra. Also was soll das von wegen Zukunftssicher? Bis dahin haben wir schon längst die nächsten Karten bis Games mit den Features flüssig laufen.
Abgesehen von Crysis hat das High End von NV als 8800GTx oder GTX 280 jeweil's sher lange gehalten hat,warum sollte es bei der 480 anders sein?(zu wenig V-Ram,Tesslation werden schon mal nicht zum Problem)

Gast
2010-03-27, 12:13:59
http://www.abload.de/img/gtx480slivshd5870cfnsss.png (http://www.abload.de/image.php?img=gtx480slivshd5870cfnsss.png)
4x und 8xAA kosten fast nichts. :eek:

OgrEGT
2010-03-27, 12:14:14
Fermi ist die schnellste Single Chip Karte geworden. FERTIG! Im Verhältnis zu der GTX285 hat die Karte deutlich zugelegt. 35% mehrverbrauch bei 130% mehrleistung. Mehr braucht man nicht zu wissen.

Du darfst bei Deinem Vergleich ncht mit der Gesamtaufnahme des Systems rechnen. Alle Reviews bisher (siehe Ht4u.net) attestieren bei 3D eine doppelte Leistugsaufnahme im Vergleich zur HD5870, wenn nur die Einzelkarte betrachtet wird. Alle anderen Komponenten des Systems werden nicht verändert und sind somit als konstant anzusehen.

Schlammsau
2010-03-27, 12:14:16
Für einen deutlichen Sieg müssten es wohl schon 1100/1400MHz sein, dementsprechend auch der neue 0.33ns Speicher von Samsung.
Ich bezweifele, dass sich dieser Aufwand für AMD lohnt, immerhin kann man noch auf die 5970 verweisen bzw. die bald erscheinende 5870x2 2x2GiB Version.

Es wird auch keine solche Karte kommen.

Demnächst kommt ja die Asus 5870 Matrix mit 2GB, und die wird denke ich einer GTX480 mächtig "einheizen" können.

LovesuckZ
2010-03-27, 12:14:19
Unter "klatschen" verstehe ich mal so gepflegte 30% mehr. Wo schafft das die HD5870 in Spielen? ;)
Geht man von (großzügigen) +25% für die GTX480 aus, sollte eine HD5870 mit 1.050 bis 1.100 MHz Chiptakt die Geforce locker knacken. Aber eine solche wird es sicherlich nicht geben. Eine eventuelle HD5890 bleibt unter 1,0 GHz.

Habt ihr noch eine GTX480 bei euch im Verlag? Könntest du die FPS der GTX285 und der GTX480 dann mal posten? :)

/edit: Furmark...

Mr. Lolman
2010-03-27, 12:15:53
Ach, dir gefallen die Ergebnisse nicht? Na dann hophop, weglöschen.


Passt scho. Schaun wir mal, was die anderen so zusammengebencht haben.

http://www.abload.de/thumb/guru3dgmn7.png (http://www.abload.de/image.php?img=guru3dgmn7.png) http://www.abload.de/thumb/482x0g7sz.jpg (http://www.abload.de/image.php?img=482x0g7sz.jpg) http://www.abload.de/thumb/crysis_1920_1200g7u3.gif (http://www.abload.de/image.php?img=crysis_1920_1200g7u3.gif) http://www.abload.de/thumb/img0028320vvzh.gif (http://www.abload.de/image.php?img=img0028320vvzh.gif) http://www.abload.de/thumb/ht4uck1p.png (http://www.abload.de/image.php?img=ht4uck1p.png) http://www.abload.de/thumb/02vvt9.png (http://www.abload.de/image.php?img=02vvt9.png) http://www.abload.de/thumb/cry19206v0w.gif (http://www.abload.de/image.php?img=cry19206v0w.gif) http://www.abload.de/thumb/cbovok.png (http://www.abload.de/image.php?img=cbovok.png) http://www.abload.de/thumb/gf100-crysis-1920lvrh.png (http://www.abload.de/image.php?img=gf100-crysis-1920lvrh.png) http://www.abload.de/thumb/22162qwhn.png (http://www.abload.de/image.php?img=22162qwhn.png) http://www.abload.de/thumb/ixbtery2.png (http://www.abload.de/image.php?img=crysis1920s8ly.png) http://www.abload.de/thumb/crysis1920s8ly.png

Eigentlich erbärmlich, für eine Karte mit dermaßen hoher Geometrieleistung und den Unkenrufen, dass der RV870 mit seinem limitierenden Trisetup die Leistung in Crysis nicht auf die Straße bringt.


EDIT: Hoppla, Guru3d verwendet nicht mal Enthusiast Shaders. Naja egal, lass ma das Bildchen halt drinnen.

Sentionline
2010-03-27, 12:16:07
Und wo ist da die Analogie?
DX10, das die R600 nie richtig konnte und auch dessen Nachfolger nicht. Man vergleicht den Fermi ja gerne mit der R600, das die Analogie.;)

derguru
2010-03-27, 12:16:19
Who's yer daddy?:

http://www.hardware.fr/medias/photos_news/00/28/IMG0028338.gif

Und für unsere Crysis-Freunde:

http://www.abload.de/img/gtx480slivshd5870cfnsss.png (http://www.abload.de/image.php?img=gtx480slivshd5870cfnsss.png)

crysisfreunde spielen unter dx9.(das ist sogar noch der launchtreiber)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7579775&postcount=172

AnarchX
2010-03-27, 12:16:47
Demnächst kommt ja die 5870 Matrix mit 2GB, und die wird denke ich einer GTX480 mächtig "einheizen" können.
Mit 895MHz GPU-Takt?
Soviel macht der Speicherunterschied imo einfach nicht aus: 2GiB @ HT4u (http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index53.php?dummy=&prod[]=AMD+ATI+Radeon+HD+5870&prod[]=AMD+ATI+Radeon+HD+5870+2+GB&filter[0][]=1920&filter[2][]=4&filter[2][]=8&filter[3][]=0&filter[3][]=16)

Schlammsau
2010-03-27, 12:18:33
Mit 895MHz GPU-Takt?
Soviel macht der Speicherunterschied imo einfach nicht aus: 2GiB @ HT4u (http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index53.php?dummy=&prod[]=AMD+ATI+Radeon+HD+5870&prod[]=AMD+ATI+Radeon+HD+5870+2+GB&filter[0][]=1920&filter[2][]=4&filter[2][]=8&filter[3][]=0&filter[3][]=16)

Nicht mit dem Standardtakt, aber sie soll ja eine Overclockerkarte sein.

Gast
2010-03-27, 12:18:44
Gerade diese Ports werden Tesslation bekommen um den Polycount zu erhöhen.Das wird in diesem Jahr auch der Häufigste Einsatz dieser Tech sein.Avp und Dirt 2 sind imo gute Gradmesser dafür.Ich finde bis das fett greift und auch XP endlich real unter 50% fällt sind beide Chipgenerationen veraltet. Für mich gute Voraussetzungen im Design, aber angesichts der ATIs noch recht mäßig für 2010.
Nichts aufregendes eben. Im Gegensatz zu dem ATI-Launch.

@y33H & LovesuckZ
Gute Idee. Falls nicht auch bei euch die 480 abgeraucht ist.

grafzahl
2010-03-27, 12:20:27
Aber wo ist den eine Karte zukunftssicher , die in den von euch so beschworenen Games gerade mal halbwegs sichtbar flüssige Games zaubert? Metro ist von flüssig auch noch gut entfernt.

Wie soll das den in Zukunft werden wenn du Games in dieser Hinsicht weiter ausgebaut werden? Wo soll den da die Mehrleistung noch herkommen dieser Karte um die Games flüssig zu zocken :)

Finde das nur ein komisches Argument, Zukunftssicher :D

Gast
2010-03-27, 12:22:16
DX10, das die R600 nie richtig konnte und auch dessen Nachfolger nicht. Man vergleicht den Fermi ja gerne mit der R600, das die Analogie.;)

Wer außer dir vergleicht den GF100 mit dem R600?
Nur weil es schon schlechtere Karten als die GTX480 gab, ist sie noch lange nicht toll.

Gast
2010-03-27, 12:23:49
Aber wo ist den eine Karte zukunftssicher , die in den von euch so beschworenen Games gerade mal halbwegs sichtbar flüssige Games zaubert? Metro ist von flüssig auch noch gut entfernt.

Wie soll das den in Zukunft werden wenn du Games in dieser Hinsicht weiter ausgebaut werden? Wo soll den da die Mehrleistung noch herkommen dieser Karte um die Games flüssig zu zocken :)

Finde das nur ein komisches Argument, Zukunftssicher :D

"Zukunftsicher" und "warten" sind die schlechtesten und meistgebrauchten Phrasen des Hardwaremarktes.

dildo4u
2010-03-27, 12:24:33
Aber wo ist den eine Karte zukunftssicher , die in den von euch so beschworenen Games gerade mal halbwegs sichtbar flüssige Games zaubert? Metro ist von flüssig auch noch gut entfernt.

Wie soll das den in Zukunft werden wenn du Games in dieser Hinsicht weiter ausgebaut werden? Wo soll den da die Mehrleistung noch herkommen dieser Karte um die Games flüssig zu zocken :)

Finde das nur ein komisches Argument, Zukunftssicher :D
Es gibt noch mher DX11 Game's mit und ohne Tesslation im spielbaren Bereich wo die 480 weit vor den Ati's liegt.Es gibt noch keine go to DX11 Engine,da muss man jetzt den Schnitt von allen erhältlichen DX11 Games nehmen um eine Aussage zu treffen.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7931975&postcount=1004

tombman
2010-03-27, 12:24:34
Wer schneller ist, der darf auch mehr verbrauchen.
Nur muss das im Verhältnis stehen.

FALSCH.

Bugatti Veyron:

Für 300km/h bräuchte man nur 300ps.
Für 400km/h braucht man 1000ps.

700ps für die letzten 100km/h.

JETZT endlich verstanden?

Odal
2010-03-27, 12:26:05
"Zukunftsicher" und "warten" sind die schlechtesten und meistgebrauchten Phrasen des Hardwaremarktes.


naja wie mans nimmt hätte ich damals geahnt das der G80 nach noch solanger zeit pwned hätte ich mir damals gleich die GTX gekauft auch wenn das nicht mein wunsch preisbereich war und nicht erst auf 3850 gewartet um dann nochmal auf 88GT aufrüsten zu müssen

zukunftsicher ist natürlich immer mit sehr viel spekulatius verbunden, aber wenn man da mal richtig liegt ist die freude am stück hardware umso grösser/länger

derguru
2010-03-27, 12:26:14
@y33H

mit was kann man eigentlich dieses 32cssa vergleichen?mit edge oder was?

und was meintest du vor paar tagen eigentlich mit,das es noch was cooles gibt außer dem 32cssa ?

Gast
2010-03-27, 12:26:38
Eine G8x reicht heute noch für die meisten Spiele. Ein R600 dagegen nicht...;)

Der GF100 ist aber kein neuer G80.
Allein für die Stromkosten des Idleverbrauchs der GTX 480 mit 2 Bildschirmen und 12 Stunden Laufzeit pro Tag, kann man sich nach "zukunftssicheren" drei Jahren eine neue Grafikkarte kaufen.

Daredevil
2010-03-27, 12:27:09
Nicht mit dem Standardtakt, aber sie soll ja eine Overclockerkarte sein.
Und was muss man ab 1GHZ machen? Richtig, ordentlich Saft draufballern!

Siehe hier:
http://www.hexus.net/content/item.php?item=23079
http://img707.imageshack.us/img707/2153/52614539.png

9% mehr GPU Takt
4% mehr RAM Takt
1GB mehr RAM

=

5% mehr Leistung bei Crysis ( Nicht Ram limitiert )
27% mehr Leistung bei Crysis ( Ram limitiert )

=
16.25% mehr Leistungsaufnahme

Gast
2010-03-27, 12:27:16
FALSCH.

Bugatti Veyron:

Für 300km/h bräuchte man nur 300ps.
Für 400km/h braucht man 1000ps.

700ps für die letzten 100km/h.

JETZT endlich verstanden?

Immer diese unpassenden Vergleiche. Ein Fermi hat aber nicht den Nachteil des exponentiell steigenden Luftwiderstandes und das Problem nicht endlos Grip auf der Straße zu haben. Eigentlich sollte eine größere GPU sogar im Vorteil sein bei der Effizienz.

Sven77
2010-03-27, 12:28:17
So während andere immer noch Crysis spielen hab ich mich auf die GTX470 eingeschossen.. gute Karte, leider wird sie eben von den Mängeln der 480er überschattet. Hatte schon Angst ich muss mir wieder ne ATI kaufen :P

y33H@
2010-03-27, 12:29:20
@ derguru

Frei wählbare TSSAA-Samples und nach wie vor xS und OGSSAA. 16xS mit nur 2x TSSAA etwa. oder 16xQ mit 4x TSSAA. Da kann man nette Sachen draus basteln.

Mr. Lolman
2010-03-27, 12:31:01
@y33H

mit was kann man eigentlich dieses 32cssa vergleichen?mit edge oder was?

Nö:
http://www.computerbase.de/bildstrecke/28941/74/
http://www.computerbase.de/bildstrecke/28941/53/



EDIT: ...und wirklich identisch ist das AF auch nicht:

http://www.computerbase.de/bildstrecke/28941/122/
http://www.computerbase.de/bildstrecke/28941/116/

(auch wenn die Unterschiede minimalst sind, so haben sie doch etwas geändert. Und zwar nicht zum Positiven)

Sentionline
2010-03-27, 12:31:21
Villeicht haben die Nvidia Power Now noch nicht im Griff. Wäre die Leistungsaufnahme auf RV8x nivou, würde ATi ja gar keine Karten mehr verkaufen. Villeicht hat Nvidia auch nur mitleid und hat ein Stro(m)halm für die ATi Fanboys offengelassen :freak:

Neocroth
2010-03-27, 12:32:28
FALSCH.

Bugatti Veyron:

Für 300km/h bräuchte man nur 300ps.
Für 400km/h braucht man 1000ps.

700ps für die letzten 100km/h.

JETZT endlich verstanden?

sorry, der Vergleich ist mal wieder so was von idiotisch... ich bitte darum, jeden der einen Autovergleich in einem Hardware-Forum macht, auf der Stelle von vier 5800 Ultra-Karten beschallen zu lassen, während er sich SemiAccurate-News durchlesen und GTA4 unpatched auf einer HD2400XT spielen muss.

allein schon: PS = Tempo, ahja... schon mal nen Sattelschlepper mit 480 PS mit 200km/h fahren sehen?
außerdem: Tuner-Versionen des Enzo schaffen auch Tempo 400 mit 800 PS ;)

Gast
2010-03-27, 12:32:36
Villeicht haben die Nvidia Power Now noch nicht im Griff. Wäre die Leistungsaufnahme auf RV8x nivou, würde ATi ja gar keine Karten mehr verkaufen. Villeicht hat Nvidia auch nur mitleid und hat ein Stro(m)halm für die ATi Fanboys offengelassen :freak:

Klar das kommt alles in Ordnung im nächsten Treiber!

Gast
2010-03-27, 12:32:44
Wie sieht es mit 32xCSAA + TMSAA aus? Dank des neuen CSAA Modus sollte TMSAA ja deutlich besser aussehen und das ganze bei noch immer spielbaren FPS.

AnarchX
2010-03-27, 12:33:01
Hier noch ein paar Werte für die Durchschnittswert-Interessierten: http://www.xtremesystems.org/forums/showpost.php?p=4309698&postcount=2495
Update: http://www.xtremesystems.org/forums/showpost.php?p=4309768&postcount=238

Iceman346
2010-03-27, 12:33:32
Villeicht haben die Nvidia Power Now noch nicht im Griff. Wäre die Leistungsaufnahme auf RV8x nivou, würde ATi ja gar keine Karten mehr verkaufen. Villeicht hat Nvidia auch nur mitleid und hat ein Stro(m)halm für die ATi Fanboys offengelassen :freak:

Ich hab ein Deja-vu. Genau diese Durchhalteparolen gabs von Ati Fanboys bei Release der 4870 als die wegen der schlechten Energieeffizienz gescholten wurde. Und nun wiederholt sich das ganze nur mit Fanboys der anderen Farbe ;)

Gast
2010-03-27, 12:34:42
Ich würde eindeutig auf die Refreshchips warten. Die erste Generation ist jetzt nur für die Devs nutzlich und eine schöne Spielerei. Ich erwarte von Nvidia mit dem Refresh eine "deutliche" Besserung.

Gast
2010-03-27, 12:34:51
Nö:
http://www.computerbase.de/bildstrecke/28941/74/
http://www.computerbase.de/bildstrecke/28941/53/

Gegen einen überlegenen Downsamplingfilter helfen auch 1000 Samples nichts. Der Box-Filter stößt bereits bei >4 Samples an seine Grenzen. Schade das NV auch nicht nicht nachgezogen ist.

tombman
2010-03-27, 12:34:58
crysisfreunde spielen unter dx9.(das ist sogar noch der launchtreiber)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7579775&postcount=172
Dafür aber mit OC- und damit nix Besonderes.
Und 35fps mit CF? -> :ujump:

Daredevil
2010-03-27, 12:35:21
sorry, der Vergleich ist mal wieder so was von idiotisch... ich bitte darum, jeden der einen Autovergleich in einem Hardware-Forum macht, auf der Stelle von vier 5800 Ultra-Karten beschallen zu lassen, während er sich SemiAccurate-News durchlesen und GTA4 unpatched auf einer HD2400XT spielen muss.

allein schon: PS = Tempo, ahja... schon mal nen Sattelschlepper mit 480 PS mit 200km/h fahren sehen?
außerdem: Tuner-Versionen des Enzo schaffen auch Tempo 400 mit 800 PS ;)


Sogesehen hat er aber recht, beim Taktanheben gibt es irgendwann die Grenze, wo man unproportional mehr Saft geben muss, um den Takt vergleichsweis gering zu heben, was halt in immenser Stromaufnahme endet.

1.30v > 3.0Ghz
1.55v > 3.2Ghz

OgrEGT
2010-03-27, 12:37:27
Pech. Eine Karte kauft man sich doch für die Zukunft?

Villeicht kann man sich bei 19x12 bei 8xAA / 16xAF treffen.

Aus Erfahrung kann man sagen, dass Spieler-Grafikkarten noch nie zukunftssicher waren. Die Entwicklungszyklen liegen bei 6 Monaten. Neue Generation - refresh - Neue Generation - ... Das drückt sich auch im Werteverfall dieser Produkte aus. Am wirtschaftlichsten fährt man, wenn man zum aktuellen Zeitpunkt die eine Generation ältere Karte zulegt.

Ansonsten sollte man den Kauf auf die aktuellen eigenen Bedürfnisse hin zugeschnitten kaufen. Monitorgröße, Software (Spiele), Bildqualität, Leistungsaufnahme, Lautstärke. Sofern diese Bedürfnisse von der ins Auge gefassten Karte bei akteptabler Leistung befriedigt werden, lohnt sich auch der Kauf.

Spieler-Grafikkartenkauf ist immer eine rein persönliche Entscheidung aufgrund persönlicher Bedürfnisse.

deekey777
2010-03-27, 12:37:54
Gegen einen überlegenen Downsamplingfilter helfen auch 1000 Samples nichts. Der Box-Filter stößt bereits bei >4 Samples an seine Grenzen. Schade das NV auch nicht nicht nachgezogen ist.
Na das bedarf einer Erklärung.
Nö:
http://www.computerbase.de/bildstrecke/28941/74/
http://www.computerbase.de/bildstrecke/28941/53/





(auch wenn die Unterschiede minimalst sind, so haben sie doch etwas geändert. Und zwar nicht zum Positiven)
Kann es sein, dass CSAA und Oblivion sich nicht vertragen?

Gast
2010-03-27, 12:38:00
Dafür aber mit OC- und damit nix Besonderes.
Und 35fps mit CF? -> :ujump:

Mit 4x SGSSAA. Das ist das was eine perfekte IQ bringt und Fermi nicht mal kann. Nur zur Info.

Sascha1971
2010-03-27, 12:38:23
Tja die Hoffnung das die 5870er (2Gig Version), die erhebliche Mehrleistung bringen könnten um an die die 480er ran zu kommen, scheint sich leider zu verstreuen :frown:
http://www.hexus.net/content/item.php?item=23079&page=4

Was für ein besch.... Jahr zum aufrüsten.

pest
2010-03-27, 12:38:43
Update: http://www.xtremesystems.org/forums/showpost.php?p=4309768&postcount=238

das mixen die aber ganz schön wild

schau mal in meine Tabelle ;)
rot ist komisch, überall Fragezeichen

http://www.abload.de/img/gtx_compibws.png

tombman
2010-03-27, 12:40:15
Mit 4x SGSSAA. Das ist das was eine perfekte IQ bringt und Fermi nicht mal kann. Nur zur Info.
Natürlich kann Fermi perfekte IQ ;) Und das auch noch schnell mittels 32x CSAA :)

y33H@
2010-03-27, 12:40:39
Warum ist der PCGH-Wert komisch?! Da ist halt der Speicher alle ...

Gast
2010-03-27, 12:41:16
Villeicht haben die Nvidia Power Now noch nicht im Griff. Wäre die Leistungsaufnahme auf RV8x nivou, würde ATi ja gar keine Karten mehr verkaufen. Villeicht hat Nvidia auch nur mitleid und hat ein Stro(m)halm für die ATi Fanboys offengelassen :freak:

Klar, am Chip-design kann's natürlich nicht liegen, dann waren's doch eher wieder die Illuminaten.

Gast
2010-03-27, 12:41:55
Natürlich kann Fermi perfekte IQ ;) Und das auch noch schnell mittels 32x CSAA :)

Das reicht nicht mal annähernd wenn man sich mal ein paar Screens ansieht.

AnarchX
2010-03-27, 12:42:44
Generationen Meeting bei INPAI:

Crysis
http://img.inpai.com.cn/article/2010/3/26/872c198a-5ae5-489a-bf50-1686a1708eed.png
http://www.inpai.com.cn/doc/hard/119945_95.htm

urfaust
2010-03-27, 12:43:52
Klar das kommt alles in Ordnung im nächsten Treiber!

wenn es "nur" ein Treiberproblem wäre, hatte nVidia ja genug Zeit gehabt die
"Problemchen" zu beheben. Die nVidia Konstruktionen sind hardwaretechnisch voll und ganz auf "Holzhammermethode" ausgelegt,
mit dem Ziel Nr. 1 zu werden um jeden Preis - da werden Treiber auch nix mehr richten... :rolleyes:

OgrEGT
2010-03-27, 12:44:42
FALSCH.

Bugatti Veyron:

Für 300km/h bräuchte man nur 300ps.
Für 400km/h braucht man 1000ps.

700ps für die letzten 100km/h.

JETZT endlich verstanden?

Ich denke der Vergleich zu den Automobilen hinkt, da im Wesentlichen der Luftwiderstand quadratisch zur Geschwindigkeit ansteigt.

Neocroth
2010-03-27, 12:46:19
Sogesehen hat er aber recht, beim Taktanheben gibt es irgendwann die Grenze, wo man unproportional mehr Saft geben muss, um den Takt vergleichsweis gering zu heben, was halt in immenser Stromaufnahme endet.

1.30v > 3.0Ghz
1.55v > 3.2Ghz

war mir schon klar, trotzdem ist das Autobeispiel Müll, die Vorraussetzungen sind einfach nicht vergleichbar - Punkt. Ansonsten würde das bedeuten, dass ich bei einem 1.6 Liter-Motor im Grenzbereich ja bloß viel mehr Kraftstoff einspritzen müsste, um schneller zu fahren, oder? :freak:

Andere Frage: gibt es Pläne, Optimus auf den Desktop zu bringen? Das wäre zwar erst mit Sandy Bridge/Bulldozer wirklich sinnvoll, aber eine Überlegung wert. Jetzt sehe ich keinen großen Mehrwert, weil kaum jemand mit einer 480 einen Clarkdale verwendet und afaik keine X58-Boards mit einer verwendbaren IGP am Markt sind.

Gast
2010-03-27, 12:46:22
wenn es "nur" ein Treiberproblem wäre, hat nVidia ja genug Zeit gehabt die
"Problemchen" zu beheben. Die nVidia Konstruktionen sind hardwaretechnisch voll und ganz auf "Holzhammermethode" ausgelegt,
mit dem Ziel Nr. 1 zu werden um jeden Preis - da werden Treiber auch nix mehr richten... :rolleyes:

Das war ironisch in Anspielung auf den rv770 gemeint.
Sry für das nicht vorhandene emote.

dildo4u
2010-03-27, 12:47:31
http://img.inpai.com.cn/article/2010/3/26/1ec001bc-3c63-433a-bf65-fbc0563f2b38.png

Nich schlecht das 470 SLI und nein V-Ram ist hier nicht das Problem der 5970.Hoffe paar mher Seiten bekommen bald 470 zum testen.

Gast
2010-03-27, 12:48:57
http://img.inpai.com.cn/article/2010/3/26/1ec001bc-3c63-433a-bf65-fbc0563f2b38.png

Nich schlecht das 470 SLI.Hoffe paar mher Seiten bekommen bald 470 zum testen.

Das wird mit 38 FPS avg wahrscheinlich nicht flüssig spielbar sein.

derguru
2010-03-27, 12:50:05
Dafür aber mit OC- und damit nix Besonderes.
Und 35fps mit CF? -> :ujump:

ui oc war sehr hoch,ich wette mit dem aktuellen treiber ist unter default mindestens gleich schnell.;)

ja 35fps und sexy dabei.:biggrin:

Sascha1971
2010-03-27, 12:51:35
Das wird mit 38 FPS avg wahrscheinlich nicht flüssig spielbar sein.


Jep, da werden die MR gut spürbar.

r@h
2010-03-27, 12:51:43
Steuer dazurechnen, dann ist es nicht mehr so prickelnd.
372,86€ + ca. 20% Steuern = 447,43€
Warum hier ein MSRP von 499€ gilt, weiß wohl nur nVidia...

wie hatten nv das in den pr folien genannt,typical.:wink:
OK, na dann... ;D

Aber interessant, dass die Spekulationen (295W TDP) diesmal tatsächlich präziser waren, als die Herstellerangaben (250W TDP), oder?
Zumindest DAS ist definitiv eine Premiere!
:up:

Es gibt aber für mich nachwievor einen Grund bei nvidia zu bleiben: Der Treiber.
IMHO immer noch ein Millimeter besser als bei ATI/AMD.
Na ja... auch da hat sich nVidia in letzter Zeit nicht gerade mit Ruhm bekleckert.

Win7, 6 Monate nach "Auftritt":
- funktionsfähiges Scaling erst mit dem 196.75
- "saubere" Bildqualität (vor allem im Overlay/Video-Bereich) auch erst mit den letzten Treibern
- der Lapsus mit der infunktionalen Lüftersteuerung beim letzten WHQL
etcpp.

Doch wurde es von beiden Seiten:
Wurde es nicht...
Habe selber den 2D-Modus "erzwungen" und keinerlei Nachteile festgestellt.
Habe per RT hoch und runter "getaktet"... und wieder: kein "Bildflackern".

Es sind einfach nur Ausreden für eine "billige" Implementierung.
Es interssiert die Hersteller einfach nicht...

Razor

P.S.:ich geh' mich jetzt erst mal mit sinnvolleren Dingen als diesem Fermi-Zeug beschäftigen ;)

dildo4u
2010-03-27, 12:52:25
Das wird mit 38 FPS avg wahrscheinlich nicht flüssig spielbar sein.
Ach komm 90% der Leute hier haben Crysis mit weit weniger FPS gezockt war dort auch kein Problem.

Armaq
2010-03-27, 12:53:33
Generationen Meeting bei INPAI:

Crysis
http://img.inpai.com.cn/article/2010/3/26/872c198a-5ae5-489a-bf50-1686a1708eed.png
http://www.inpai.com.cn/doc/hard/119945_95.htm
Die 8800er ist einfach eine Göttin. :D

Sascha1971
2010-03-27, 12:53:40
Ach komm 90% der Leute hier haben Crysis mit weit weniger FPS gezockt war dort auch kein Problem.

Aber die hatten nicht mit MR zu kämpfen.

AnarchX
2010-03-27, 12:55:00
Wurde es nicht...
Habe selber den 2D-Modus "erzwungen" und keinerlei Nachteile festgestellt.
Habe per RT hoch und runter "getaktet"... und wieder: kein "Bildflackern".

Es sind einfach nur Ausreden für eine "billige" Implementierung.
Es interssiert die Hersteller einfach nicht...

Es gibt klare Statements, mit technischen Fakten unterlegt, was du auf einer einzelnen Karte nachgestellt hast, interessiert da nicht.

Gast
2010-03-27, 12:56:03
Ach komm 90% der Leute hier haben Crysis mit weit weniger FPS gezockt war dort auch kein Problem.

In Crysis waren niedrige FPS und MR auch nicht so spürbar wie zum Bsp in UT3.
Das kommt immer auf das Spiel/Engine an.

Raff
2010-03-27, 12:56:49
Nö:
EDIT: ...und wirklich identisch ist das AF auch nicht:

http://www.computerbase.de/bildstrecke/28941/122/
http://www.computerbase.de/bildstrecke/28941/116/

(auch wenn die Unterschiede minimalst sind, so haben sie doch etwas geändert. Und zwar nicht zum Positiven)

Das ist nicht pixelgenau. Das AF hat sich nicht verschlechtert. Nur weil etwas anders aussieht, muss das nicht schlechter sein. :) Ich sehe da nichts, was auf mehr Flimmerneigung hindeutet. Das hier finde ich viel schlimmer (am Radeon-AF):

http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=3

(unten)

MfG,
Raff

tombman
2010-03-27, 12:58:25
Aber die hatten nicht mit MR zu kämpfen.
Dafür mit häßlicher Grafik :)

Btw, ok, ich gebs zu, AA ist auf HD5 schöner, aber nachdem man in DX10/11 AA eh nimmer forcieren darf, ist nicht so schlimm.
Zur Not gibts ja noch die SSAA/Hybridmodi per Nhancer :)

Da sind mir so Sachen wie Metro und co wichtiger...

aths
2010-03-27, 13:01:36
GF100 ist ein Anfang.

Klar war ohnhin, dass Nvidia es irgendwie hinbekommt, die schnellste verfügbare GPU zu haben. Aber wer will einen Krachmacher im PC?

Aus Nvidias Sicht ist das wohl alles kein großes Problem: Durch die Presse geistert das Wort der schnellsten GPU. Während GF100 offenbar Schwächen bei Nicht-DX11-Anwendungen hat, lässt sich das in zukünftigen Weiterentwicklungen sicherlichen durch Takt und Architekturverbreiterung lösen.

Gast
2010-03-27, 13:02:43
Dafür mit häßlicher Grafik :)

Btw, ok, ich gebs zu, AA ist auf HD5 schöner, aber nachdem man in DX10/11 AA eh nimmer forcieren darf, ist nicht so schlimm.
Zur Not gibts ja noch die SSAA/Hybridmodi per Nhancer :)

Da sind mir so Sachen wie Metro und co wichtiger...

Metro interessiert in zwei Monaten kein Schwein mehr. In crysis losst sie einfach nur ab.

san.salvador
2010-03-27, 13:06:28
GF100 ist ein Anfang.

Klar war ohnhin, dass Nvidia es irgendwie hinbekommt, die schnellste verfügbare GPU zu haben. Aber wer will einen Krachmacher im PC?

Aus Nvidias Sicht ist das wohl alles kein großes Problem: Durch die Presse geistert das Wort der schnellsten GPU. Während GF100 offenbar Schwächen bei Nicht-DX11-Anwendungen hat, lässt sich das in zukünftigen Weiterentwicklungen sicherlichen durch Takt und Architekturverbreiterung lösen.
Ich seh die 480 mittlerweile als Kontrahent zur 5970. Dann passen auch Performance und Lautstärke/Verbrauch halbwegs. ;)
Metro interessiert in zwei Monaten kein Schwein mehr. In crysis losst sie einfach nur ab.
Und das interessiert bald schon 2 Jahre kein Schwein.
Mal im ernst, Crysis hat in etwa die Aussagekraft vom 3Dmark. Eine mit Grafikeffekten zugekleisterte Demo, hübsch anzusehen. Aber die Engine ist reiner Selbstzweck, sie hat schlicht keine Bedeutung - nie gehabt.

Mr. Lolman
2010-03-27, 13:09:33
Das ist nicht pixelgenau. Das AF hat sich nicht verschlechtert. Nur weil etwas anders aussieht, muss das nicht schlechter sein. :)

Hoppla, waren die falschen Bilder.

Hier gibts pixelgenaue:

http://www.computerbase.de/bildstrecke/28941/122/
http://www.computerbase.de/bildstrecke/28941/128/

Ist wirklich minimal. Aber da wos Differenzen gibt, sind die zuungunsten des GF100. Mal abgesehen davon: Was ist mit dem Q-Modus los? War beim GT200 in Oblivion schon ein bisschen verwaschener als HQ, jetzt schauts noch schlimmer aus. Und dabei mein ich nicht die Texturen , sondern die Beleuchtung im Allgemeinen:

http://www.computerbase.de/bildstrecke/28941/121/
http://www.computerbase.de/bildstrecke/28941/127/

Das hier finde ich viel schlimmer (am Radeon-AF):

http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=3

(unten)

MfG,
Raff
1. sieht mir Q+TriOpt flimmriger aus
2. Ist das AI Banding trotzdem extrem übel. Hast vll. ein Savegame?

tombman
2010-03-27, 13:10:02
In crysis losst sie einfach nur ab.
Da habe ich was anderes gelesen ;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7932054&postcount=1052

Achja, und AF ist weiterhin schöner auf NV.

Btw, niemand fickt 4x4 OGSSAA von Nvidia ;D

Exxtreme
2010-03-27, 13:10:13
Ich denke der Vergleich zu den Automobilen hinkt, da im Wesentlichen der Luftwiderstand quadratisch zur Geschwindigkeit ansteigt.
Die Elektronik verhält sich hier aber ähnlich. Ich denke, die 480'er wird ausserhalb ihres gedachten Szenarios betrieben, sprich übertaktet. Bei den G5-Macs war das genauso. Da hat Apple auch an der Taktschraube gedreht um mit PCs mithalten zu können. Der Preis dafür war eine WaKü und ein extrem hoher Stromverbrauch.

san.salvador
2010-03-27, 13:12:55
Die Elektronik verhält sich hier aber ähnlich. Ich denke, die 480'er wird ausserhalb ihres gedachten Szenarios betrieben, sprich übertaktet. Bei den G5-Macs war das genauso. Da hat Apple auch an der Taktschraube gedreht um mit PCs mithalten zu können. Der Preis dafür war eine WaKü und ein extrem hoher Stromverbrauch.
Vielleicht war der ursprüngliche Plan, die 480 mit 512 SPs, aber dem Takt der 470 rauszbringen. :uponder:

Sascha1971
2010-03-27, 13:14:01
Ich glaube mit der 470er sollte man auch vorsichtig sein.

Die Leistungsaufnahme des Gesamtsystems stieg während der Berechnungen mit der GeForce GTX 470 auf 348 Watt und während die GeForce GTX 285 dabei nicht signifikant lauter wurde, wurde die 470 zwischendurch zum Fön. Der Lüfter drehte mit einem Mal auf enorme 3000 Upm und brüllte beinahe das Haus zusammen (Spectrin Test). Bis zum Abschluss der Berechnungen sank die Drehzahl wieder auf 2800 Upm, was aber immer noch sehr, sehr laut ist.
Ein Nachtest brachte außerdem ein kleines Problem zu Tage. Beim Versuch, dieses Verhalten zu reproduzieren, versagte die Lüftersteuerung. Die Chiptemperatur stieg stetig an, bis der Bildschirm bei 112°C schließlich schwarz wurde, ohne dass das System aber anhielt. Ein schneller manueller Reset verhinderte möglichen Schaden an der Grafikkarte.
Wirklich praktikabel ist Folding@Home auf der GeForce GTX 470 in dieser Form nicht, wenn die Chiptemperatur dadurch dermaßen ansteigt.

http://www.hartware.de/review_1079_16.html

Exxtreme
2010-03-27, 13:14:01
Vielleicht war der ursprüngliche Plan, die 480 mit 512 SPs, aber dem Takt der 470 rauszbringen. :uponder:
Das mag durchaus sein. Mich würde interessieren wie sich der Stromverbrauch verhält wenn man die 480'er auf 470'er-Niveau runtertaktet.

derguru
2010-03-27, 13:21:00
Btw, niemand fickt 4x4 OGSSAA von Nvidia ;D


hmm,ich glaub da gibt es konkurrenz.8xsgsaa+jeweilige tents sind nicht schlechter und wenigstens ab und zu spielbar.

san.salvador
2010-03-27, 13:22:24
Das mag durchaus sein. Mich würde interessieren wie sich der Stromverbrauch verhält wenn man die 480'er auf 470'er-Niveau runtertaktet.
Bei gleicher Spannung dürfts wohl nicht viel bringen, was mich zu einer anderen Frage bringt:
Meine uralte 260GTX lässt sich sehr gut undervolten (trotz OC), könnte man das nicht auch mal mit GF100 versuchen? Mich würde interessieren, ob da etwas Spielraum vorhanden ist.

Soundwave1983
2010-03-27, 13:22:58
Ich werde auf die 485 im B Stepping warten, sollte keine kommen lasse ich die Generation aus, meine 285 ist mir noch schnell genug.

mboeller
2010-03-27, 13:29:42
FALSCH.

Bugatti Veyron:

Für 300km/h bräuchte man nur 300ps.
Für 400km/h braucht man 1000ps.

700ps für die letzten 100km/h.

JETZT endlich verstanden?


....und deshalb verkauft VW ja auch nur 50 Veyron pro Jahr..

Gast
2010-03-27, 13:32:28
Bei gleicher Spannung dürfts wohl nicht viel bringen, was mich zu einer anderen Frage bringt:
Meine uralte 260GTX lässt sich sehr gut undervolten (trotz OC), könnte man das nicht auch mal mit GF100 versuchen? Mich würde interessieren, ob da etwas Spielraum vorhanden ist.
Spielraum ist immer vorhanden, so ohne Reserve kann man keine Produkte auf den Markt werfen.

Spasstiger
2010-03-27, 13:41:59
Hoppla, waren die falschen Bilder.

Hier gibts pixelgenaue:

http://www.computerbase.de/bildstrecke/28941/122/
http://www.computerbase.de/bildstrecke/28941/128/
Pixelgenau und mit JPEG-Komprimierung passt nicht so ganz zusammen. Wenn Differenzen bestehen, können die auch alleine von der Komprimierung kommen. Auf jeden Fall ist das Ergebniss in beiden Fällen hervorragend, das sieht bei meinen Radeons nicht so gut aus (leichtes Banding).

san.salvador
2010-03-27, 13:42:09
....und deshalb verkauft VW ja auch nur 50 Veyron pro Jahr..
Bitte nicht schon wieder diese bescheuerten Auto-Vergleiche...

Spielraum ist immer vorhanden, so ohne Reserve kann man keine Produkte auf den Markt werfen.
Und mich interessiert jetzt die Größe dieses Spielraums, da könnte man vielleicht den Verbrauch spürbar verkleinern. Raff, liest du mit? :D

Dural
2010-03-27, 13:46:08
ich warte immer noch auf vGPU der GTX470 ;)

Shaft
2010-03-27, 13:46:30
Tjo, die 470GTX ist und bleibt für mich am aktraktivsten.

Gegen die 480 spricht die sehr hohe Lautstärke, Hitzentwicklung (wohl Wort wörtlich), Verbrauch und Preis. Dacht die hätten aus den FX Fiasko gelernt. :rolleyes:

Alternative sehe ich die 5870, einziges Manko fehlendes PhysX, CUDA aber dafür gutes P/L und alternative leise Kühlerlösungen.

Wie gehabt, GF100 kommt viel zu spät auf den Markt und bringt einen gespalteten Eindruck mit.

Hier mal was zur Lautstärke von PCGH:

PCGH Uncut - Folge 4: Wie schnell ist die Geforce GTX 480? (http://www.youtube.com/watch?v=H4dD94QMz50&feature=player_embedded)

Mr. Lolman
2010-03-27, 13:47:05
Jo kommt auf's Game an 1Ghz würde whol nicht immer reichen.

http://www.hwgurus.com/tests/Graficke%20karte/NVIDIA_GTX480/Grafikoni/jc2/jc2_1920_8aa8af.PNG

http://www.hwgurus.com/testovi/grafike-karte/152.html?start=19

Kommt wohl auch draufan, welche Settings und welche Benchszene man wählt:

http://www.abload.de/thumb/ixbt_jc26sra.png (http://www.abload.de/image.php?img=ixbt_jc26sra.png) http://www.abload.de/thumb/ixbt_jc2_25605skl.png (http://www.abload.de/image.php?img=ixbt_jc2_25605skl.png)

http://translate.google.at/translate?hl=de&sl=ru&tl=en&u=http%3A%2F%2Fwww.ixbt.com%2F

urfaust
2010-03-27, 13:49:27
Tjo, die 470GTX ist und bleibt für mich am aktraktivsten. Gegen die 480 spricht die sehr hohe Lautstärke

also ich empfand schon die GTX285 als sehr laut, und das:

Die Leistungsaufnahme des Gesamtsystems stieg während der Berechnungen mit der GeForce GTX 470 auf 348 Watt und während die GeForce GTX 285 dabei nicht signifikant lauter wurde, wurde die 470 zwischendurch zum Fön. Der Lüfter drehte mit einem Mal auf enorme 3000 Upm und brüllte beinahe das Haus zusammen (Spectrin Test). Bis zum Abschluss der Berechnungen sank die Drehzahl wieder auf 2800 Upm, was aber immer noch sehr, sehr laut ist.
Ein Nachtest brachte außerdem ein kleines Problem zu Tage. Beim Versuch, dieses Verhalten zu reproduzieren, versagte die Lüftersteuerung. Die Chiptemperatur stieg stetig an, bis der Bildschirm bei 112°C schließlich schwarz wurde, ohne dass das System aber anhielt. Ein schneller manueller Reset verhinderte möglichen Schaden an der Grafikkarte.
Wirklich praktikabel ist Folding@Home auf der GeForce GTX 470 in dieser Form nicht, wenn die Chiptemperatur dadurch dermaßen ansteigt.

GeForce GTX 470 : Tests: DirectX 11, CUDA & PhysX - Review Hartware.net (http://www.hartware.de/review_1079_16.html)

V2.0
2010-03-27, 13:51:18
Der Architektur scheint Potential zu haben und das AF ist weiterhin leicht besser. Das finde ich gut. In der gegenwärtigen Revision aber ommt mir keine GF100 in den Produktivrechner, da die Lautsärke einem beim Rendering einfach auf den Sack geht.

Für den Spielerechner ist mir der Verbrauch zu hoch und ebenso die Lautstärke. Da könnte die GF104 aber als Nachfolger meiner alten G92 durchaus reizvoll sein. (Falls die leiser ist und irgendow um 140-170W nimmt)

Skinner
2010-03-27, 13:52:29
Ich glaube mit der 470er sollte man auch vorsichtig sein.


http://www.hartware.de/review_1079_16.html

Oder das Sample was die zum Testen hatten, war/ist einfach nur defekt.
Abwarten und Tee trinken. Noch gibt es keine Karten im Handel zu kaufen.

Tolles Cuda feature des Fermii das er da ATI voraus hat.

Cuda ist nicht nur bei Spielen interessant. Gerade im Video Editing bereich rennt Nvidia mit diesen "features" ATI immer weiter davon.

mrt
2010-03-27, 13:53:18
Bei gleicher Spannung dürfts wohl nicht viel bringen, was mich zu einer anderen Frage bringt:
Meine uralte 260GTX lässt sich sehr gut undervolten (trotz OC), könnte man das nicht auch mal mit GF100 versuchen? Mich würde interessieren, ob da etwas Spielraum vorhanden ist.
Bei eine Standardspannung von ~1V geht da leider nicht mehr viel nach unten.

Tesseract
2010-03-27, 13:53:44
hmm,ich glaub da gibt es konkurrenz.8xsgsaa+jeweilige tents sind nicht schlechter und wenigstens ab und zu spielbar.

nein gibt es nicht. das ist ein äpfel-birnen-vergleich. beim supersampling hat SG nicht diese extremen vorteile gegenüber OG, die es nur bei kanten hat.
natürlich ist SG bei selber samplezahl (und sinnvoller verteilung) die bessere alternative zu OG, aber wir haben hier nicht gleich viele samples.

und die tents sind auch ein zweischneidiges schwert. einerseits beruhigen sie das bild zwar, andererseits entsteht aber unschärfe. selbst wenn SG+tent das bild so ruhig (oder ruhiger) wie OG macht, schlägt bei nvidia dann durch boxfilter+bessere filterung+mehr SS-samples die volle ladung schärfe durch.

4x4 OGSSAA ist zwar imho ein total sinnloser modus weil einfach für fast alles VIEL zu langsam aber qualitativ ist er einfach der absolute könig.

Jake Dunn
2010-03-27, 13:53:46
Hardware.fr: http://www.hardware.fr/articles/787-1/dossier-nvidia-geforce-gtx-480.html


Gutes Review, wie erwartet :)

In ARMA2 ist die 5870er der Leader (immernoch :P)



Schade, dass die Leute alle Furmark als Stromverbrauchstest verwenden, aber nicht die Frames aufzeigen. Laut denen von neoseeker ist die GTX480 mehr als 2x so schnell bei "nur" 53% mehr Verbrauch...

Achso :rolleyes: aufeinmal, die 4870er hat gut Strom genommen im FUR und bei den Frames eine GTX295 geschlagen...

Fahne ? Wind ?

Gast
2010-03-27, 13:54:26
Bitte nicht schon wieder diese bescheuerten Auto-Vergleiche...


Und mich interessiert jetzt die Größe dieses Spielraums, da könnte man vielleicht den Verbrauch spürbar verkleinern. Raff, liest du mit? :D

bastelt gerade sein 3. 5870 in die Kiste :D

Dural
2010-03-27, 13:55:12
und hört jetzt entlich mit diesem verbrauch ding auf, es hat glaub mittlerweilen jeder mitbekommen!

Die spannende Frage ist viel eher wieso, NV geht bei der GTX470/480 ganz klar nicht über Brute Force wie der Takt und Spannung der jeweiligen karten schön Zeigt!

Ich vermute, wie ich das schon letztes jahr mal gesagt habe das der Aktuelle 40nm Prozess Tierische Probleme beim Hot Takt macht!

Das bedeutet zugleich nichts anderes, das es auch mit GF104 und co. bei diesem 40nm Prozess nicht besser wird in sachen Strom-Verbrauch!!!

Das kann man übrigens auch sehr gut mit dem ATI Chips nachstellen, mit OC sprengt ein RV870 auch schon mal ganz schnell die 300Watt Marke.

Spasstiger
2010-03-27, 13:55:39
4x4 OGSSAA isz zwar imho ein total sinnloser modus weil einfach für fast alles VIEL zu langsam aber qualitativ ist er einfach der absolute könig.
Qualitativ ist er nur bei Texturen und Shaderoberflächen der König. Zur Glättung von Alphatests und Geometriekanten gibts bessere Modi - sowohl bei ATI als auch bei NV.

Kosh
2010-03-27, 13:56:42
Würde man die 5870 auf die Stromverbrauchswerte der GTX480 pushen bezüglich Voltmod,Overclocking, glaube die GTX480 würde im Schnitt 10 % hinter der Radeon Karte liegen.

Sprich,die Mehrleistung dürfte primär der Holzhammermethode, Leistung um jeden Preis ,zugrunde liegen.

Fazit: Hätte ATI auf Verbrauch und Lautstärke geschissen, wäre die 5870 immer noch die schnellste SInglekarte.
Ich persönlich bin froh das sie es nicht gemacht haben und ein absolut rundes Gesamtpaket bevorzugt haben,anstatt Leistung um jeden Preis.

Gast
2010-03-27, 13:56:59
und hört jetzt entlich mit diesem verbrauch ding auf, es hat glaub mittlerweilen jeder mitbekommen!

Die spannende Frage ist viel eher wieso, NV geht bei der GTX470/480 ganz klar nicht über Brute Force wie der Takt und Spannung der jeweiligen karten schön Zeigt!

Ich vermute, wie ich das schon letztes jahr mal gesagt habe das der Aktuelle 40nm Prozess Tierische Probleme beim Hot Takt macht!

Das bedeutet zugleich nichts anderes, das es auch mit GF104 und co. bei diesem 40nm Prozess nicht besser wird in sachen Strom-Verbrauch!!!

Das kann man übrigens auch sehr gut mit dem ATI Chips nachstellen, mit OC sprengt ein RV870 auch schon mal ganz schnell die 300Watt Marke.

Bitte was?
Was ist an der GTX480 nicht brute force?

Dural
2010-03-27, 13:59:51
Bitte was?
Was ist an der GTX480 nicht brute force?

Takt ist nichts besonderes... Spannung sehr gering mit 0,99Volt

Die Karte könnte noch deutlich schneller sein, nur würde die dann alles Komplett Sprengen! Siehe auch OC Werte mit den GF100 Chips...

Tesseract
2010-03-27, 14:00:31
Qualitativ ist er nur bei Texturen und Shaderoberflächen der König. Zur Glättung von Alphatests und Geometriekanten gibts bessere Modi - sowohl bei ATI als auch bei NV.

ja gibt es, aber szenen bestehen nicht nur aus kanten bzw. nur aus alphatests sondern aus einer kombination aus vielen verschiedenen effekten, texturen, kanten, shadern usw. und da wird der 4x4 in 99% aller fälle das beste resultat erziehlen.

Gast
2010-03-27, 14:00:36
Eines dürfte jedoch klar geworden sein - die Fermi-Arichtektur ist eindeutig die modernere und zunkunftsfähigere.
Doch genau das wird ihr allerdings zum Verhängnis;

Die von NVidia inzwischen offensichtlich mehr und mehr vernachlässigte DX 9-Performance ist hier leider unter aller Sau. Damit hat sich nur bestätigt, was sich bereits beim G200(b) abzeichnete. Der letzte starke DX 9-Beschleuniger von Nvidia ist und bleibt die GTS 250.

Unter DX 10 kann der G100 nicht wirklich glänzen bzw. befindet sich leistungstechnisch auf einer Ebene mit HD5-Karten von ATI.
PhysX und CUDA spielen hier auch nicht die entscheidene Rolle, als dass sie den Ausschlag geben, am Ende doch auf die neuen Nvidia-Karten zu setzen.

DirectX 11 ist schlichtweg zu neu und wird (mitsamt Tesselation) heute einfach in zu wenigen Anwendungen und Spielen eingesetzt, als dass es für jetzige Entscheidungen eine Rolle spielt. Zweifelsohne ist die Tesselationsleistung vom G100 beeindruckend. Doch wen interessiert dies im April 2010?

Die (in Relation zu ATI) zu geringe DX 10-Leistung der G100-Chips in Verbindung mit den drei bösen Schwestern Leistungsaufnahme, Hitzentwicklung und Lautstärke lassen eigentlich nur einen Schluss zu...

Die Preisentwicklung bleibt zwar noch abzuwarten, doch ich befürchte auch hier, dass sich kein siganifikant besseres Preisgefüge bei GTX 480 und 470 ergeben wird.

Ich bin zwar kein schlimmer Fanboy, aber lasse mich im Zwifel trotzdem zu den Nvida-Anängern zählen. Meine Grafikkarten trugen seit der GeForce 2 immer die NV-Aufschrift... Unter diesen Gesichtspunkten kann man allerdings keinem raten, heute zu einer der neuen NV-Karten zu greifen. Sie sind eine schöne Techdemo. Mehr leider nicht.

NVidia hätte wohl doch lieber einen anderen Weg gehen sollen.
=> Shrink und erneute Aufbohrung des G200b. Dieser war bekannterweise noch lange nicht am Limit und hätte mit einiger, gut möglicher, Effizienzoptimierung genauso viel zu Stande gebracht wie der neue Fermi. Allein die Verwendung von 40nm-Strukturen, schnellem GDDR5 an dessen großen Speicherinterfaces sowie die Implementierung von DX 11 und das hinzufügen einiger Shader, hätten bei einem "gepimpten" G200 einiges bewirkt.

Eine spannende Frage wird sein, wie sich Nvidia bis Ende des Jahres im darunterliegenden Performance und Mainstremsegment auftellt. Betrachtet man die Ausgangsbasis, so schwant aber auch hier nicht viel gutes.


Und zum Schluss noch eine kleine persönliche Randnotiz;
Ja, ihr habt recht, die 8800 GTX/Ultra ist eine wahre Göttin...
Und genau aus diesem Grund bleibe ich bei meinem Titan - :umassa: GTS 250.
Eine vollwertige, unbeschnittene Karte, die in DX 9 alles abräumt
und in DX 10 eine sehr solide Grundperformance liefert.
Einen triftigen Grund, sich derzeit die neuen HD5-Karten von ATI zu kaufen,
sehe ich nämlich auch nicht. :ass:

Gast
2010-03-27, 14:01:51
Die GTX470 ist wirklich ganz interessant, wobei ich gehoft habe das die Karte fühlbar schneller wie eine HD5870 ist. Damit würden die ATI Karten (wenn der Lieferengpass beendet ist) bestimmt schneller im Preis fallen. Doch so hat ATI bis auf die paar Spiele wo NV schneller ist überhaupt nichts zu befürchen. Solange die Karten dieses Preisniveau haben behalte ich meine alte Karte lieber. Bisher ist meiner Meinung nach für uns Endkunden leider noch nichts gewonnen durch Fermi :-(

Adam D.
2010-03-27, 14:02:10
Eine GTX470 mit Custom Kühler wird, wenn der Preis angemessen ist, sicherlich eine sehr gute Alternative zu den ATi-Karten. Da hat sich das Warten zumindest gelohnt. Die GTX480 ist aber insgesamt wirklich ein unbrauchbares Paket. Was ich mich frag: wie hätte sich denn eine GTX480 mit den Taktraten vor der kurzfristigen Senkung seitens NVidia verhalten? Viele Testmuster haben die damals angepeilten Taktraten bei der Übertaktung ja nicht mal erreicht.

AnarchX
2010-03-27, 14:02:23
Die Äußerung auf dem Launch Event von NV trifft es wohl doch ziemlich gut:
http://www.uvm.edu/~bborneil/Nvidia5.JPG

Gast
2010-03-27, 14:02:48
Takt ist nichts besonderes... Spannung sehr gering mit 0,99Volt

Die Karte könnte noch deutlich schneller sein, nur würde die dann alles Komplett Sprengen! Siehe auch OC Werte mit den GF100 Chips...

Ja und?
Wenn ich einen Chip mit vielen Transistoren habe brauch ich eine niedrige Spannung.
Die Verlustleistung ist schon so kaum zu beherschen, da wäre so gut wie Nichts mehr unter Luftkühlung gegangen.

Gast
2010-03-27, 14:02:56
dann letzter Satz >die ATI sprengt alle Ketten...wenn sich einige hier mal sehen könnten..zum Tot lachen

Lesen bildet! ^^

er schrieb: "MIT OC sprengt ein RV870 auch schon mal ganz schnell die 300Watt Marke."

Dural
2010-03-27, 14:04:05
=> Shrink und erneute Aufbohrung des G200b. Dieser war


ein GT200 in der Grösse würde genau so beim Verbrauch scheitern wie es jetzt GF100 tut...

Ja und?
Wenn ich einen Chip mit vielen Transistoren habe brauch ich eine niedrige Spannung.
Die Verlustleistung ist schon so kaum zu beherschen, da wäre so gut wie Nichts mehr unter Luftkühlung gegangen.

du nix verstehen... der 40nm Prozess ist schlicht nicht gut genug für den GF100... Wenn der Prozess jetzt entlich vernünftig reift dürfte die Probleme quasi mit Bx von selber Verschwinden, WENN

dildo4u
2010-03-27, 14:08:14
Gutes Review, wie erwartet :)

In ARMA2 ist die 5870er der Leader (immernoch :P)


Hier wiederum nicht.
http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=6

Gast
2010-03-27, 14:10:02
du nix verstehen... der 40nm Prozess ist schlicht nicht gut genug für den GF100... Wenn der Prozess jetzt entlich vernünftig reift dürfte die Probleme quasi mit Bx von selber Verschwinden, WENN

Soso jetzt ist wieder TSMC schuld und die Lösung natülich sehr bald da.
Gut das der Prozess in Hinsicht Verlustleistung für RV870 "gut genug" ist.

AnarchX
2010-03-27, 14:12:30
Nochmal zur Erinnerung:
Die Moderation bittet um eine vernünftige Diskussionskultur. Dementsprechend sind Spam und persönliche Angriffe zu unterlassen. Wem es ohne dem nicht möglich ist zu "diskutieren", sollte sich auf das Lesen beschränken, ansonsten sind Konsequenzen zu erwarten.

Wer sich mit daran beteiligen möchte, diesen Anspruch an die Diskussion zu erhalten, sollte nicht davor zurückschrecken entsprechende Verstöße zu melden: http://www.forum-3dcenter.org/vbulletin/images/3dc/insanedruid/buttons/report.gif.

Auch die Gastposter, die dankend die gebotene Möglichkeit des Gastrechtes im 3DCenter-Forum sinnvoll nutzen, können im entsprechenden Thread ebenfalls Verstöße melden: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=261891 und so sich so gegen die wenigen Störenfriede, welche diese Benutzergruppe in ein schlechtes Licht rücken, wehren.

Dural
2010-03-27, 14:14:09
Soso jetzt ist wieder TSMC schuld und die Lösung natülich sehr bald da.
Gut das der Prozess in Hinsicht Verlustleistung für RV870 "gut genug" ist.


lesen bildet:


Die spannende Frage ist viel eher wieso, NV geht bei der GTX470/480 ganz klar nicht über Brute Force wie der Takt und Spannung der jeweiligen karten schön Zeigt!

Ich vermute, wie ich das schon letztes jahr mal gesagt habe das der Aktuelle 40nm Prozess Tierische Probleme beim Hot Takt macht!

Das bedeutet zugleich nichts anderes, das es auch mit GF104 und co. bei diesem 40nm Prozess nicht besser wird in sachen Strom-Verbrauch!!!

Das kann man übrigens auch sehr gut mit dem ATI Chips nachstellen, mit OC sprengt ein RV870 auch schon mal ganz schnell die 300Watt Marke.

Aquaschaf
2010-03-27, 14:15:45
ieser war bekannterweise noch lange nicht am Limit und hätte mit einiger, gut möglicher, Effizienzoptimierung genauso viel zu Stande gebracht wie der neue Fermi.

Was heißt hier "bekannterweise noch lange nicht am Limit"? Und Fermi ist letztendlich nichts anderes als eine konsequente Weiterentwicklung und Optimierung im Vergleich zur vorherigen Architektur.

Gast
2010-03-27, 14:16:56
ein GT200 in der Grösse würde genau so beim Verbrauch scheitern wie es jetzt GF100 tut...


Davon ist nicht auszugehen. ATI konnte von RV770 -> RV870 den Verbrauch bei aufgebohrter Architektur trotz größerem Die und höheren Taktraten senken. Denken wir uns jetzt einen ebenso um den Faktor 2 aufgebohrten GT200b, 480SPs, 160 TMUs usw - ohne den DP-Kram evntl. sogar noch mehr. Die Karte hätte, ausgehend von den Ergebnissen bei ATI, den Verbrauch einer GTX285 unterboten und wäre wohl schneller geworden als Fermi aktuell... Leider ohne DX11 wohl keine Alternative für das Marketing.

Gast
2010-03-27, 14:17:33
Die Karte war schon für 2009 geplant.Die Treiber sind mindestens genau so reif wie die treiber der 5800 Karten.;)

Das ist kompletter Blödsinn, wie viele Generationen in der Vergangenheit schon gezeigt haben und gerade die, wo doch deutlich an der Architektur geschraubt wurde.

Gerade die Spiele, wo das Ergebnis momentan eher mau aussieht und eigentlich besser sein müsste, werden mit neuen Treiberversionen ordentliche Steigerungen bekommen. Der Abstand wird auf jeden Fall mit fortlaufender Zeit größer werden, zumal es die richtig fertigen A3 Chips erst seit kurzem gibt, was sich ja in der Lieferbarkeit am Anfang auch zeigen wird.

Noebbie
2010-03-27, 14:18:05
Boah in der Post-Frequenz und den ganzen darin enthaltenen irrelevanten Informationen verlier ich total den Überblick! Info Thread ade!

Nun zu meinem eigentlichen belangen:

Gibt mir bitte nochmal die Links für brauchbare Fermi-Tests in Armed Assault 2. Den von pcgh.de habe ich schon gesehen.

AnarchX
2010-03-27, 14:18:54
Gibt mir bitte nochmal die Links für brauchbare Fermi-Tests in Armed Assault 2. Den von pcgh.de habe ich schon gesehen.
http://www.hardware.fr/articles/787-9/dossier-nvidia-geforce-gtx-480.html

Gast
2010-03-27, 14:19:07
lesen bildet:

Du schreibst, dass ein rv870 durch OC leicht 300W erreicht und Das ist Unsinn.
Es bedarf massiver Spannungserhöhung und damit treibt man den Verbrauch von Jedem Chip massiv in die Höhe.
Wenn NV schon jetzt den Chip nur mit 1V betreiben und trotzdem so eine Verlustleistung produzieren sind Sie doch selber Schuld und nicht TSMC.
Vor allem dann nicht, wenn das Konkurrenzprodukt eine ähnliche Leistung ohne diese Macken abliefert.

mrt
2010-03-27, 14:22:27
ein GT200 in der Grösse würde genau so beim Verbrauch scheitern wie es jetzt GF100 tut...
Dürfte zumindest in ähnlichen Regionen liegen, es handelt sich dabei aber um ein Designproblem bei den ALUs. Nvidia hat sich einfach verschätzt.

Vergesst die Treiberdiskussion bitte, mit den Treibern fängt man an bevor überhaupt der Chip sein Tape-out hat. Man entwickelt nach Spezifikationen, wenn dabei das Programmiermodell sich nicht ändert, wie bei Cypress und Fermi, dann ists noch "einfacher". Optimierungspotential gibts immer, aber ändern wird sich am Abstand nicht viel und wenn dann höchstens minimal in die andere Richtung -> AMD hat (gezwungenermaßen) einen komplexeren Shadercompiler. (Der könnte auch der Grund für das Domainshaderproblem sein auf Cypress und nicht unbedingt die Caches, wie ich bisher vermutete)

Dural
2010-03-27, 14:23:10
300Watt sind für eine 5870 kein Problem... und ein RV870 läuft ja auch nur mit 850MHz...

Bin mir ziemlich sicher das der hohe Strom Verbrauch an 40nm in verbindung mit dem Hot Takt liegt, test werden das ja schnell zeigen...

und wenn es so ist, wird auch ein GF104 kein Wunder vollbringen in sachen verbrauch, sicher besser abschneiden als GF100 aber kein Wunder...

aths
2010-03-27, 14:25:23
Pixelgenau und mit JPEG-Komprimierung passt nicht so ganz zusammen. Wenn Differenzen bestehen, können die auch alleine von der Komprimierung kommen. Auf jeden Fall ist das Ergebniss in beiden Fällen hervorragend, das sieht bei meinen Radeons nicht so gut aus (leichtes Banding).Dasselbe Bild inden selben JPEG-Komprimierer mit denselben Einstellungen liefert denselben Output.

Gast
2010-03-27, 14:28:20
[QUOTE=Dural;7932333]ein GT200 in der Grösse würde genau so beim Verbrauch scheitern wie es jetzt GF100 tut...
...blabla... [QUOTE]

Nein, das ist so nicht gesagt. Aber das zu widerlegen hat ja schon ein anderer Gast dankenswerterweise für mich übernommen. :D
Außerdem hast du überlesen, dass ich etwas von Effizienzsteigerungen schrieb. Das schließt auch Performance/Watt mit ein.
Gegen einen hohen Verbrauch ist nichts einzuwenden,
sofern am Ende der Output stimmt.
Mit einem aufgebohrten G200b hätte dies gelingen können.
Ich sage es nochmal: Das Ding hat(te) ernorme Reserven!

Gast
2010-03-27, 14:28:37
Kommt wohl auch draufan, welche Settings und welche Benchszene man wählt:

http://www.abload.de/thumb/ixbt_jc26sra.png (http://www.abload.de/image.php?img=ixbt_jc26sra.png) http://www.abload.de/thumb/ixbt_jc2_25605skl.png (http://www.abload.de/image.php?img=ixbt_jc2_25605skl.png)

http://translate.google.at/translate?hl=de&sl=ru&tl=en&u=http%3A%2F%2Fwww.ixbt.com%2F

Schön wie du hier mit deiner Doppelmoral postest. Dir sollte bekannt sein das 80% der Review Seiten Just Cause 2 falsch gebencht haben da per default Fermi Only Effects eingeschalten sind. (GPU Water & CO.)
Bei Batman Benchmarks mit aktiviertem PHSYX@ATI würdest du aber der Erste sein der laut aufschreit. (Zurecht!). Soviel zu deiner Objektivität.

Hier gibts Just Cause 2 Benchmarks unter vergleichbaren Settings
JC2 is a story all by itself. NVIDIA cards will have extra options in image quality. In fact I expect quite a number of reviews out today with improper benchmark results as for NVIDIA graphics cards additional features like Bokeh filters and GPU Water Simulation are enabled at default.

http://www.guru3d.com/article/geforce-gtx-470-480-review/25

Gast
2010-03-27, 14:28:39
Leistungsmässig ist die GTX480 und 70 doch besser als erwartet.

Leistungsmässig hat NVIDIA somit alles richtig gemacht.

Denke das ist für viele das entscheidende.

Denke der Begriff Holzhammer Methode trifft das ganze aber ganz gut,fürs erreichte Ziel.


Das mit der Holzhammer Methode hört man ja des öfteren aber ich kann dem nicht ganze folgen. Man muss auch mal bedenken, dass die 480 ein wenig eingeschränkt ist durch die fehlenden Einheiten.
Bei den geplanten 512 Einheiten wären die Ergebnisse doch noch um einiges deutlicher ausgefallen. Das zweite was mir hier in den Sinn kommt ist rückblickend betrachtet Intels Larabee Geschichte. Nvidia hatte ja nicht nur zu bedenken, wie sie gegen AMD/ATI bestehen können, sondern auch wie sie Intel im Profi und Supercomputer Bereich auf Distanz halten. Das ist für Nvidia finanziell und im Hinblick auf die Zukunft fast noch entscheidender.

Mal unabhängig davon, dass Larabee erstmal nicht kommt, haben sie doch genau dort mächtig vorgelegt und viel Potenzial zum ausbauen. Daran wird Intel noch eine ganze Weile knabbern und bis dahin ist Nvidia schon wieder eine Generation weiter.

Insofern denke ich, dass im Profi Segment ihr Standbein nochmal verstärkt wurde und im Retail Bereich oberhalb des GF104 reicht es um die Position zu halten. Der GF104 wird für den Massenbereich wichtig werden und genau da ist mein Gefühl nach den derzeitigen Gerüchten, dass Nvidia AMD/ATI ordentlich erwischt.

Gast
2010-03-27, 14:29:30
300Watt sind für eine 5870 kein Problem... und ein RV870 läuft ja auch nur mit 850MHz...

Bin mir ziemlich sicher das der hohe Strom Verbrauch an 40nm in verbindung mit dem Hot Takt liegt, test werden das ja schnell zeigen...

und wenn es so ist, wird auch ein GF104 kein Wunder vollbringen in sachen verbrauch, sicher besser abschneiden als GF100 aber kein Wunder...

Warum setzt man auch gerade bei eine GPU auf hohe Taktraten?
Das ist doch ein Designfehler und nicht die Schuld der Foundry.

Gast
2010-03-27, 14:30:55
zu ArmA2 benchmarks:

ArmA2 ist wegen der recht detaillierten landschaft und großer texturen heftigst hdd-limitiert. im BI-Forum gibt es leute, die mit SSDs oder RAMDisks (http://forums.bistudio.com/showthread.php?t=88388) ihre performance deutlich steigern können. da die AI nicht gescriptet ist kann auch noch eine starke CPU-abhängigkeit aufkommen.

will sagen: gerade bei ArmA sind verschiedene bench-szenen noch weniger vergleichbar als schon bei anderen spielen. ich glaube, bevor bei dem spiel eine GTX470/480 oder eine hd5870 limitiert ist die HDD oder die CPU am ende.

für einen normalen bench-run, wie ihn PCGH verwendet, empfiehlt es sich bei ArmA2, ihn mindestens zweimal direkt hintereinander laufen zu lassen, da beim ersten mal viel zu viel von platte nachgeladen werden muss.

(del)
2010-03-27, 14:31:43
Oder das Sample was die zum Testen hatten, war/ist einfach nur defekt.Mit Sicherheit. Mit Sicherheit hat NV bei einem der wichtigsten Launches in ihrer Geschichte ungeprüfte Montagsware mit alpha BIOSen an die Tester verschickt :crazy2:

@Gast
für einen normalen bench-run, wie ihn PCGH verwendet, empfiehlt es sich bei ArmA2, ihn mindestens zweimal direkt hintereinander laufen zu lassen, da beim ersten mal viel zu viel von platte nachgeladen werden muss.Meinen Erfahrungen nach 4x und davon den Schnitt der 2 letzten Läufe nehmen.
Wobei gerade bei solchen Spielen man auf keine große Aussagekraft zählen kann wie das Spiel dann beim User wirklich mit Graka XY läuft. Die Bediengungen sind eben zu jedem Zeitpunkt "zu chaotisch". Wobei ich das bei so einem Spiel aber gut finde :)

AnarchX
2010-03-27, 14:32:39
Mit Sicherheit. Mit Sicherheit hat NV bei einem der wichtigsten Launches in ihrer Geschichte ungeprüfte Montagsware mit alpha BIOSen an die Tester verschickt :crazy2:
Defekte Samples kommen durchaus vor. Wenn es richtig daneben geht, sind im BIOS nicht mal alle Einheiten aktiv, siehe HD4830.

Noebbie
2010-03-27, 14:33:15
zu ArmA2 benchmarks:

ArmA2 ist wegen der recht detaillierten landschaft und großer texturen heftigst hdd-limitiert. im BI-Forum gibt es leute, die mit SSDs oder RAMDisks (http://forums.bistudio.com/showthread.php?t=88388) ihre performance deutlich steigern können. da die AI nicht gescriptet ist kann auch noch eine starke CPU-abhängigkeit aufkommen.

will sagen: gerade bei ArmA sind verschiedene bench-szenen noch weniger vergleichbar als schon bei anderen spielen. ich glaube, bevor bei dem spiel eine GTX470/480 oder eine hd5870 limitiert ist die HDD oder die CPU am ende.

für einen normalen bench-run, wie ihn PCGH verwendet, empfiehlt es sich bei ArmA2, ihn mindestens zweimal direkt hintereinander laufen zu lassen, da beim ersten mal viel zu viel von platte nachgeladen werden muss.

Ja das unterschreibe ich hier so wie du es geschrieben hast. Bei uns im Klan hat auch jemand eine SSD und damit enorme Performancesprünge erreicht.

Armaq
2010-03-27, 14:35:41
Eine Karte war zumindest defekt bei PCGH.


Offtopic@PCGH:

Das PCGH Uncut Video zur GTX ist echt nett. Sehr symphatisch kommt ihr da rüber. Wobei ihr euch wirklich schwer tut, positive Argumente zu nennen.
Habt ihr eigentlich mal ein Rhetoriktraining mit Kamera gemacht? Hatte die Möglichkeit in der Hochschule und das hilft wirklich. Zumal ich mit 2m und 105 KG nicht wirklich kameratauglich bin.

(del)
2010-03-27, 14:41:55
Defekte Samples kommen durchaus vor. Wenn es richtig daneben geht, sind im BIOS nicht mal alle Einheiten aktiv, siehe HD4830.Aber nicht bei einer 4870 oder? ;) Bzw. glaubst du wirklich, daß soetwas einem Hersteller auch noch einmal passieren wird? Wäre schon verdammt traurig, wenn ja.

Davon ab können ja nicht alle Samples eine Macke haben und wie die Sau rumbrüllen oder wegkochen. Sonst würde ich das als PR-Desaster bezeichnen.

Jake Dunn
2010-03-27, 14:45:44
Offtopic@PCGH:

Das PCGH Uncut Video zur GTX ist echt nett. Sehr symphatisch kommt ihr da rüber. Wobei ihr euch wirklich schwer tut, positive Argumente zu nennen.
Habt ihr eigentlich mal ein Rhetoriktraining mit Kamera gemacht? Hatte die Möglichkeit in der Hochschule und das hilft wirklich. Zumal ich mit 2m und 105 KG nicht wirklich kameratauglich bin.
Ich fand das auch gut und recht authentisch :) die Leute wollen ja nicht ein Oscar gewinnen ^^

urfaust
2010-03-27, 14:55:51
Interessant ist auch wie der Fermi trotz Hype und hoher Leistung bei den Leuten (Querschnitt) ankommt. Wohlgemerkt nach dem Launch.
Von rund 222 Personen werden sich 14,41% eine GTX470/480 anschaffen, über 60% dagegen eine 5850/5870.
Gerade das Luxx-Forum dient hier als gutes Beispiel, Stichwort "Luxurious Hardware"

http://www.bilder-hochladen.net/files/dssb-2b.jpg

http://www.hardwareluxx.de/community/f14/kauft-ihr-euch-eine-480-gtx-oder-5870-a-702673-4.html

LovesuckZ
2010-03-27, 14:57:47
Das ist schön für das Luxx Forum. Wieviel wollen sich denn eine 5870 über einer GTX470 kaufen? Und wieviele eine 5970 über einer GTX480?

_DrillSarge]I[
2010-03-27, 14:59:11
was ist eigentlich mit der verfügbarkeit. wann sind denn, nach diesem presse-launch, die karten zu erwarten?

Eggcake
2010-03-27, 14:59:35
zu ArmA2 benchmarks:

ArmA2 ist wegen der recht detaillierten landschaft und großer texturen heftigst hdd-limitiert. im BI-Forum gibt es leute, die mit SSDs oder RAMDisks (http://forums.bistudio.com/showthread.php?t=88388) ihre performance deutlich steigern können. da die AI nicht gescriptet ist kann auch noch eine starke CPU-abhängigkeit aufkommen.

will sagen: gerade bei ArmA sind verschiedene bench-szenen noch weniger vergleichbar als schon bei anderen spielen. ich glaube, bevor bei dem spiel eine GTX470/480 oder eine hd5870 limitiert ist die HDD oder die CPU am ende.

für einen normalen bench-run, wie ihn PCGH verwendet, empfiehlt es sich bei ArmA2, ihn mindestens zweimal direkt hintereinander laufen zu lassen, da beim ersten mal viel zu viel von platte nachgeladen werden muss.


Das habe ich selbst kurz nach Release getestet und habe keinen Unterschied zwischen Intel Postville und einer stinknormalen 7.2k Platte feststellen können - nichtmal in den Min. FPS.

Gast
2010-03-27, 14:59:35
Interessant ist auch wie der Fermi trotz Hype und hoher Leistung bei den Leuten (Querschnitt) ankommt.
Von rund 222 Personen werden sich 14,41% eine GTX470/480 anschaffen, über 60% dagegen eine 5850/5870.
Gerade das Luxx-Forum dient hier als gutes Beispiel, Stichwort "Luxurious Hardware"

http://www.bilder-hochladen.net/files/dssb-2b.jpg

Naja die 470 kann man doch durchaus kaufen.
Im Augenblick gibt es halt einen kleinen Negativhype aufgrund der schlechten Vorstellung der 480.

urfaust
2010-03-27, 15:00:52
Das ist schön für das Luxx Forum

finde ich auch

I[;7932426']was ist eigentlich mit der verfügbarkeit. wann sind denn, nach diesem presse-launch, die karten zu erwarten?

hier werden sie geholfen:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=480244

ab 12. April heißt es offiziell

LovesuckZ
2010-03-27, 15:00:58
I[;7932426']was ist eigentlich mit der verfügbarkeit. wann sind denn, nach diesem presse-launch, die karten zu erwarten?

Laut nVidia in den nächsten 14 Tagen.

Gast
2010-03-27, 15:11:18
Das habe ich selbst kurz nach Release getestet und habe keinen Unterschied zwischen Intel Postville und einer stinknormalen 7.2k Platte feststellen können - nichtmal in den Min. FPS.

das scheint, je nachdem wo im betreffenden system der flaschenhals liegt, tatsächlich sehr unterschiedlich zu sein. in jedem fall ist es erstaunlich, was die verlegung des gesamten spiels ins ram (wie im von mir verlinkten thread beschrieben) für eine beschleunigung ausmacht. leider nicht wirklich praktikabel für die meisten user.

LovesuckZ
2010-03-27, 15:14:08
Von welcher Seite ist das Zitat?

Spasstiger
2010-03-27, 15:15:02
Dasselbe Bild inden selben JPEG-Komprimierer mit denselben Einstellungen liefert denselben Output.
Dasselbe Bild ist es natürlich nicht (sind zwei unterschiedliche Zeitpunkte mit evtl. minimal unterschiedlicher Beleuchtung auf zwei GPUs mit unterschiedlicher AF-Implementierung).

AnarchX
2010-03-27, 15:18:50
Auch noch ein gutes Review aus China:
http://translate.googleusercontent.com/translate_c?hl=zh-CN&ie=UTF-8&sl=auto&tl=en&u=http://www.itocp.com/htmls/59/n-959.html&prev=_t&rurl=translate.google.com&usg=ALkJrhik4sm7rB2iHtEn7mFrwAdezdkFjQ
mit GTX 470, Frameverläuf (Anteil FPS <30) und direkten Vebrauchsmessungen.

http://www.itocp.com/html/20100327/article/GTX480_review/images/480power.jpg
http://www.itocp.com/html/20100327/article/GTX480_review/image1/idle.png
http://www.itocp.com/html/20100327/article/GTX480_review/image1/FULLLOAD.png

looking glass
2010-03-27, 15:24:39
Einige Daten waren ja schon raus, was bisher fehlte waren Idle Daten, die gibt es nun in einem kleinen Artikel.

Demnach soll laut Nvidia die 480 um die 250 W schlucken, bei der c't kamen aber auch Lastspitzen bis 302 W vor. Wirklich bedenklich finde ich den Idle Wert, die, laut c't, bei 45 W im Einzelbetrieb und bei 100 W im Dualmonitorbetrieb liegen soll. Das ist, laut c't, doppelt soviel im Einzelbetrieb, wie bei der ATI 5870. Im Desktopbetrieb ist sie aber mit 0,3 Sone recht ruhig.

Für die 480 wird ein 600 W NT von Nvidia vorgeschlagen, für die 470 ein 550 W NT.


Ich finde die Idle Werte einfach nur noch inakzeptabel.

Mr. Lolman
2010-03-27, 15:27:33
Schön wie du hier mit deiner Doppelmoral postest. Dir sollte bekannt sein das 80% der Review Seiten Just Cause 2 falsch gebencht haben da per default Fermi Only Effects eingeschalten sind. (GPU Water & CO.)
Bei Batman Benchmarks mit aktiviertem PHSYX@ATI würdest du aber der Erste sein der laut aufschreit. (Zurecht!). Soviel zu deiner Objektivität.

Hier gibts Just Cause 2 Benchmarks unter vergleichbaren Settings


http://www.guru3d.com/article/geforce-gtx-470-480-review/25

Auch wenn man die NV-spezifischen Optionen einschaltet ist Fermi bei Guru3D immernoch vorn. Und nun? Dürft vll. doch an der Benchszene liegen, meinst nicht?

Dasselbe Bild ist es natürlich nicht (sind zwei unterschiedliche Zeitpunkte mit evtl. minimal unterschiedlicher Beleuchtung auf zwei GPUs mit unterschiedlicher AF-Implementierung).

hast schon recht. andererseits ists ja dann doch ein seltsamer Zufall, dass die wenigen Stellen, wo man einen Unterschied sieht, alle zu Ungunsten des GF100 sind, oder?

Vollkommene Klärung des Umstands können letztendlich natürlich doch nur pngs liefern.

Knacki99
2010-03-27, 15:31:22
Solange es keine GTX 480 mit einer neuen Kühllösung eines Nvidia Partners gibt, kommt das Referenzboard mit der jetzigen Kühlung für mich nicht in Frage. Meine GTX 280 ist teilweise in-game schon laut aber noch lauter mag ich mir nicht verbauen.

H2O Kühlung ist zumindest für mich auch keine Alternative. Bin gespannt wann solche Lösungen angeboten werden.

Ihm
2010-03-27, 15:33:29
GTX480 = mir sind alle Mängel egal, ich will nur die beste Single-GPU-Leistung.
GTX470 = ich will eine Alternative zur HD5870, damit ich PhysX und besseres AF bekomme.

Jetzt würde ich aber noch gerne ein paar GPGPU-Vergleiche sehen.
Wahrscheinlich jedoch Mangels sinnvoller Software nicht machbar.

Mein Fazit:
GTX480...Leistungskrone durch ca. 150W mehr Stromverbrauch und 9dB höhere Lautstärke im Lastbetrieb als bei der HD5870? Nein Danke. Nur damit das mal klar wird: 10dB Unterschied = ca. doppelte Lautstärke.
Mehr Leistung, gerne. Aber nicht um jeden Preis, nur damit man am Ende den grösseren Schwanz hat.
Egal ob Intel, AMD/ATI oder Nvidia. Jeder von denen wäre in der Lage einen Chip zu konstruieren, der den Wettbewerber hinter sich lässt. Aber zu welchem Preis? Nvidia scheint das bei der GTX480 offensichtlich egal gewesen zu sein. Glückwunsch. Setzen Sechs.

Ich glaube, dass die GTX480 in die Sparte "damals nannte man sowas bei Nvidia Ultra" fällt -> wenig Exemplare. Ich kann nur hoffen, dass Nvidia die GTX470 als eigentliche Geldmaschine fokussiert hat.
Ableger der GTX480 in Tesla-Systemen sind bei entsprechender Mehrleistung hingegen sinnvoll.

Wenn die GTX470 ein paar Tage im Handel verbracht hat, halte ich sie für eine sehr attraktive Alternative.

Gast
2010-03-27, 15:37:44
GTX480...Leistungskrone durch ca. 150W mehr Stromverbrauch und 9dB höhere Lautstärke im Lastbetrieb als bei der HD5870?
Die Leistungsangabe hast du dir gerade selbst erdacht.

Außerdem kann man 480 gleich mit der 470 vergleichen, es kann doch nicht so schwer sein nicht Rot vs Grün zu sehen.

Jake Dunn
2010-03-27, 15:41:38
...und 9dB höhere Lautstärke im Lastbetrieb als bei der HD5870? Nein Danke. Nur damit das mal klar wird: 10dB Unterschied = ca. doppelte Lautstärke.


Passendes Video :D

http://www.youtube.com/watch?v=lWuSKXo98kE

pest
2010-03-27, 15:50:06
Ich weiß keinen interessierts, aber mich schon :)
ich habe mir nun verschiedene DX11 Werte in 19x12 4xAA/16xAF rausgesucht

angegeben ist wieviel schneller die GTX480 im Vergleich zur HD5870 ist

Dirt2 (Daten aus 11 Reviews)
Min: 1,32%
Max: 45,45%
Median: 22,59%

StalkerCOP (Daten aus 5 Reviews)
Min: 0,00%
Max: 22,67%
Median: 11,45%

Metro 2033 (Daten aus 8 Reviews)
Min: 13,38%
Max: 610%
Median: 38,94%

Battleforge (Daten aus 4 Reviews)
Min: 25,34%
Max: 45,12%
Median: 31,27%

Battlefield BC (Daten aus 8 Reviews)
Min: -16,96%
Max: 29,79%
Median: 4,72%

Fazit: Vergleiche mit einzelnen Review-Seiten sind für den Popo

Gast
2010-03-27, 15:51:58
Passendes Video :D

http://www.youtube.com/watch?v=lWuSKXo98kE
Dadurch das sie leiser als eine ledigliche Performance 4890 ist, verstehe ich den Sinn dieses Links nicht.

Dural
2010-03-27, 15:53:45
Nein, das ist so nicht gesagt. Aber das zu widerlegen hat ja schon ein anderer Gast dankenswerterweise für mich übernommen. :D
Außerdem hast du überlesen, dass ich etwas von Effizienzsteigerungen schrieb. Das schließt auch Performance/Watt mit ein.
Gegen einen hohen Verbrauch ist nichts einzuwenden,
sofern am Ende der Output stimmt.
Mit einem aufgebohrten G200b hätte dies gelingen können.
Ich sage es nochmal: Das Ding hat(te) ernorme Reserven!

ja klar deswegen wurden GT212 und GT214 gestrichen, alles klar...

Der 40nm Prozess ist schlicht nicht gut genug für so ein Teil, oder wenn du willst und es dir dann besser geht: NV hat sich mit 40nm verschätzt! Aber so was ein zu planen bei einer GPU die locker 3-4jahre in der Entwicklung war ist halt auch schwirig...

Die folge dürft klar sein, nur noch irgend welche keline ramsch Chips... wenn es euch damit besser geht OK... das IST ein Rückschritt

Die Leistung von GF100 ist beachtenswert, das steht ausser frage! die Herstellung hat aber ganz klar einen strich durch die rechnung gemacht, schade!

Der GF100 zieht den RV870 in sachen Theoretische Peak Werte und AVG FPS gerade zu ins lächerliche...

Jake Dunn
2010-03-27, 15:59:22
Der 40nm Prozess ist schlicht nicht gut genug für so ein Teil...

Oder umgekehrt ^^


Dadurch das sie leiser als eine ledigliche Performance 4890 ist, verstehe ich den Sinn dieses Links nicht.

Buckelw ?

Botcruscher
2010-03-27, 16:01:13
GTX480...Leistungskrone durch ca. 150W mehr Stromverbrauch und 9dB höhere Lautstärke im Lastbetrieb als bei der HD5870? Nur damit das mal klar wird: 10dB Unterschied = ca. doppelte Lautstärke.


Öhm nö. 3dB Verdopplung, 10dB Verzehnfachung.

Gast
2010-03-27, 16:01:37
^^Wann wir sich der "angebliche" 3dcenter nvidia-insider bei "char-lie" entschuldigen, vorallem nach den krassen Attacken, nachzulesen im spekulationen-forum.
der charlie hat ganz sicher insider infos gehabt, im gegenteil zum "AIL-LIE"
AIL-LIE eine offiziele entschuldigung wäre angebracht.

gruß

Dural
2010-03-27, 16:02:00
charli lag bei allem falsch... weder TDP noch leistung stimmte irgend was von ihm...

Oder umgekehrt ^^


nö... der RV870 beweist das gegenteil da in grunde genommen die selben sachen auch da ersichtlich sind.

AMD hat da auch einen gewaltigen Vorteil mit ihrer Architektur




übrigens ich habe 80% + von GTX280 gewettet, wo sind jetzt die AMD Fan Boys???

Laut Computerbase sind es ca. 78% hahaha

keiner hat Fermi so gut eingeschätzt wie ich, ausser beim Verbrauch... obwohl meine Vermutete TDP mit 250Watt auf das Watt genau war hehe hätte nicht damit gerechnet das 40nm wirklich noch so Probleme macht... und ich denke nicht das wir so bald eine lösung sehen werden...

derguru
2010-03-27, 16:03:29
und dural 3 föhns bestellt?:biggrin:

Frank1974
2010-03-27, 16:05:51
Oder umgekehrt ^^




Ich würde sagen, es ist beides, keiner hat wirklich Schuld, der Chip war ca. 4 Jahre in Entwicklung, der 40nm Prozess ist aber erst seid 2009 bereit und hat jetzt sogar noch Probleme, ich würde sagen es ist einfach Pech für NV, man kann nicht 4 Jahre in die Zukunft schauen, ob alles andere gut läuft.

Nvidia hätte sich aber für den Fall einen Plan B einfallen lassen können.

mfg
Frank

Botcruscher
2010-03-27, 16:06:05
charli lag bei allem falsch... weder TDP noch leistung stimmte irgend was von ihm...


Er hat ja was von 300W geblubbert und die TDP ist, nun ja, selbst für Spiele optimistisch.

seltener Gast
2010-03-27, 16:09:21
Ich hab's zumindest drei Mal bis jetzt von Dir lesen muessen und ich denke dass es auch der letzte Depp in der Zwischenzeit verstanden hat. Es ist zwar absoluter Bloedsinn aber ich hab momentan keinen Bock darueber zu diskuttieren. Bei der naechsten Wiederholung wird der Post aber geloescht.

Hier wird ja ein netter Umgangston gepflegt, Kompliment.
Nein, ich bin nicht Amboss!

"Gib jemanden Macht und du erkennst seinen Charakter!"

Zum Thema: Für reine Daddelmaschinen, wo alles andere egal ist, gibt es sicher auch für die 480 einen Markt.
Für alle andere hat die Karte, meiner Meinung nach, zuviele Schwächen. Leistung ist eben nicht alles.

Spasstiger
2010-03-27, 16:09:55
Öhm nö. 3dB Verdopplung, 10dB Verzehnfachung.
Schalldruckpegel ist keine Energiegröße, ergo entsprechen 6 dB mehr einer Verdoppelung des Schalldruckpegels. Lautstärke im physiologischen Sinne ist wieder ein anderes Thema, diese vergleicht man besser anhand der Sonewerte.

Dural
2010-03-27, 16:11:28
und dural 3 föhns bestellt?:biggrin:

nö was will ich mit solchen heizungen....

wird eine zum bischen testen mehr nicht! scheint auch eine nett OC Karte zu sein, lustig auch genau das hab ich vorhergesagt hehe ;)

Jake Dunn
2010-03-27, 16:12:46
übrigens ich habe 80% + von GTX280 gewettet..

Laut Computerbase sind es ca. 78% hahaha

keiner hat Fermi so gut eingeschätzt wie ich, ausser beim Verbrauch...

Tjo beim Verbrauch haben alle kräftig daneben gelegen ^^

Ich sah anfang des Jahres die 480er um 30% vor der 5870er, war auch gut geschätzt ;) (der Rückgang bei den SPs von 512>480 und die paar Treiberanpassungen bei ATI haben das Bild leicht verändert).


Ich würde sagen, es ist beides, keiner hat wirklich Schuld, der Chip war ca. 4 Jahre in Entwicklung, der 40nm Prozess ist aber erst seid 2009 bereit und hat jetzt sogar noch Probleme, ich würde sagen es ist einfach Pech für NV, man kann nicht 4 Jahre in die Zukunft schauen, ob alles andere gut läuft.

Nvidia hätte sich aber für den Fall einen Plan B einfallen lassen können.

mfg
Frank

Hmmm bei 55nm sah es ja auch noch ganz o.k. aus :confused:

Frank1974
2010-03-27, 16:16:29
Hmmm bei 55nm sah es ja auch noch ganz o.k. aus :confused:

Das war auch noch die gleiche alte Architektur, GT400 ist aber komplett neu, so wie ich das verstanden habe und wenn man auf was neues setzt, kann es nach hinten los gehen, die Leistung stimmt zwar, aber der Stromverbrauch ist wirklich zu hoch für Single GPU.

mfg
Frank

Gast
2010-03-27, 16:17:29
scheint auch eine nett OC Karte zu sein, lustig auch genau das hab ich vorhergesagt hehe ;)

Wie kommst du auf das schmale Brett? Die Fertigungsschwierigkeiten sprechen Bände, ein Grossteil der Chips läuft vermutlich @stock schon am Limit... Da ist nicht viel Spielraum.

Gast
2010-03-27, 16:18:34
Buckelw ?
Wie meinen?

Dural
2010-03-27, 16:21:14
ne nicht hellseher, erfahrung ;)

Wie kommst du auf das schmale Brett? Die Fertigungsschwierigkeiten sprechen Bände, ein Grossteil der Chips läuft vermutlich @stock schon am Limit... Da ist nicht viel Spielraum.

unter LN2 sind 1.0-1.2GHz Core Clock möglich

Gast
2010-03-27, 16:22:05
GTX480 = Fail da gibt es für mich garnichts zu diskutieren und die GTX470 geht gerade noch so, aber Temps, Leistungsaufnahme also insgesamt Effizienz auch viel zu schlecht.

fizzo
2010-03-27, 16:22:14
Wie kommst du auf das schmale Brett? Die Fertigungsschwierigkeiten sprechen Bände, ein Grossteil der Chips läuft vermutlich @stock schon am Limit... Da ist nicht viel Spielraum.

Im Telefonbriefing erklärten uns die NVIDIA-Sprecher, dass die GeForce GTX 480 durchaus Übertaktungspotential habe. Wir haben in unseren Tests davon wenig bemerkt. Wir erreichten unser Limit bei 747 MHz GPU-, 1495 MHz Shader- und 1010 MHz Speichertakt. Damit liegt der Speicher weit unter seiner Spezifikation von 1250 MHz zurück und auch die GPU-Übertaktung liegt noch deutlich unter 10 Prozent.

link (http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index17.php)

ja, leider :(

Gast
2010-03-27, 16:23:46
unter LN2 sind 1.0-1.2GHz Core Clock möglich

Erstens sehr praxisgerecht, zweitens sehr gewagt von einem Exemplar gleich zu verallgemeinern.

Dural
2010-03-27, 16:24:46
ein Exemplar? kenne schon 3 LN2 Werte von drei GTX480...


und wenn interessieren schon LuKü OC werte?!? obwohl da auch schon über 800MHz erreicht wurden...

erst mit WaKü und sogar LN2 wird es interessant ;)

AnarchX
2010-03-27, 16:25:59
link (http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index17.php)

ja, leider :(
PCGH erreichte 825/1650/1150MHz: http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=16

Wobei EVGAs wassergekühlte FTW-Version mit nur 750/1500/950MHz schon eher auf ein generell nicht so hohes OC-Potential hindeutet.

Vielleicht gibt es irgendwann später noch ein Custom-Design mit 2x 8Pin + 1x 6Pin. :D

Sascha1971
2010-03-27, 16:28:15
Vielleicht gibt es irgendwann später noch ein Custom-Design mit 2x 8Pin + 1x 6Pin. :D

Ich hoffe da ist als Beilage ein 1500w Netzteil bei und ein Gutschein für meinen Stromanbieter :freak:

Gast
2010-03-27, 16:28:40
LN2 OC Potenzial?

Guck mal in HWBOT wo deine Karten mit LN2 liegen, hat noch keine 1Ghz geschafft.

Gast
2010-03-27, 16:29:14
Wann sollen die Karten denn verfügbar sein? Oder ist es ein Paperlaunch?

Gast
2010-03-27, 16:30:12
PCGH erreichte 825/1650/1150MHz:

Auf die von nV ausgewählten und versandten "Reviewexemplare" würde ich persönlich keine OC Erwartungen bauen, es wäre keine wirkliche Überraschung wenn Serienkarten "aus dem Laden" im Schnitt deutlich schlechter abschneiden...

Was natürlich nicht heisst dass man Glück haben kann und einen Glückschip erwischt. Nur die Wahrscheinlichkeit dafür dürfte gering sein.

Gast
2010-03-27, 16:30:25
Wann sollen die Karten denn verfügbar sein? Oder ist es ein Paperlaunch?

Quasi ja.
Am 12.April sollen sie verfügbar sein.

(del)
2010-03-27, 16:31:47
Das war auch noch die gleiche alte Architektur, GT400 ist aber komplett neuWarum ist GT400 "komplett neu"? Im Bezug auf was? Es hat da seine Stärken wo NV immer gepunktet hat und tut sich da nicht besonders hervor wo es auch vorherige Generationen taten. Das Leistungsdesign ändert sich bei NV erstmal schon lange nicht mehr. Ohne das jetzt negativ auslegen zu wollen. Bei ATI sieht es genauso aus.


Wie meint ihr das mit den 40nm eigentlich? Sollen die aktuell erreichbaren Taktraten und der Verbrauch (NV) an TSMC liegen? :| Was hat man in der Planungsphase davon erwartet? Etwa 1/3 kleinere Leckströme? Durch was denn?

Wenn ich etwas über Probleme mit dem Prozess bei TMSC lese, dann geht es dabei nur um die Ausbeute pro Waffer
http://www.computerbase.de/news/hardware/grafikkarten/2010/januar/tsmc_40-nm-probleme/

Sascha1971
2010-03-27, 16:32:09
Unglaublich wie hier die üblichen Verdächtigen auch noch mit aller Macht versuchen NV diese Frechheit durchgehen zu lassen und zu entschuldigen.

Ich sage ja, bei manchen Leuten braucht sich NV auch überhaupt keine Mühe mit einem Produkt zu geben, denn egal was sie abliefern es wird sowieso schöngeredet und gekauft.

NV hatte sich nur zu lange ausgeruht bei der letzten Generation. Und wurde übelst überannt, als ATI mit der 5870er raus kam.
Damals sagte NV ja darauf hin das sie sich erstmal aus dem High End Segment zurück ziehen würden. Das ist für mich ein Zeichen, das die damit niemals gerechnet hätten. Darum auch die enorme Verspätung der 480er. Ich denke mal die wollten die 480er eigentlich wesentlich langsamer raus bringen. (Vermutung von mir)

mapel110
2010-03-27, 16:32:14
Quasi ja.
Am 12.April sollen sie verfügbar sein.
Und erst Ende April größere Mengen, hab ich gelesen.

Puh, 40 Seiten durchgeblättert. Es hat offenbar immer noch keiner unter die Haube geguckt, wie viele mm² der Chip nun hat?!
Warum ist GT400 "komplett neu"? Im Bezug auf was? Es hat da seine Stärken wo NV immer gepunktet hat und tut sich da nicht besonders hervor wo es auch vorherige Generationen taten. Das Leistungsdesign ändert sich bei NV erstmal schon lange nicht mehr. Ohne das jetzt negativ auslegen zu wollen. Bei ATI sieht es genauso aus.


Das Leistungsverhalten hat sich recht massiv geändert. Weg von einer AF-Stärke und AA-Schwäche hin zu einer AF-Schwäche und AA-Stärke. Ganz andere Charakteristik als so ziemlich alles, was es zuvor von nvidia gab.

Damals sagte NV ja darauf hin das sie sich erstmal aus dem High End Segment zurück ziehen würden.
Haben sie NIE gesagt. Das war eine Interpretation von ATI-Fanboys, die die knappen Bestände von GTX200-Karten sahen Ende letzten Jahres.

Dural
2010-03-27, 16:32:53
LN2 OC Potenzial?

Guck mal in HWBOT wo deine Karten mit LN2 liegen, hat noch keine 1Ghz geschafft.


clown du, in hwbot ist eine drin mit stock Spannung (0,99Volt) die 900MHz macht...

Gestrandet
2010-03-27, 16:33:26
Der 40nm Prozess ist schlicht nicht gut genug für so ein Teil
Wie geil ... wie blind kann Anhängerschaft sein?!?? ;D
Danke dass du uns erleuchtet hast, jetzt wissen wir es endlich: Der Fermi ist einfach zu gut für diese Welt.
Du bist echt ein noch krasserer Schönredner als Lovesuckz.
AMD hat BTW ne eigene Abteilung die sich um die Herstellbarkeit der Designs kümmert. nvidia offenbar nicht. Wird aber Zeit.

Dural
2010-03-27, 16:35:08
wo rede ich was schön???? es ist schlich fakt nicht mehr und nicht weniger...

und es werden natürlich nur die bestimmten sätze von mir raus zitirt, wie arm muss man sein...

ja klar deswegen wurden GT212 und GT214 gestrichen, alles klar...

Der 40nm Prozess ist schlicht nicht gut genug für so ein Teil, oder wenn du willst und es dir dann besser geht: NV hat sich mit 40nm verschätzt! Aber so was ein zu planen bei einer GPU die locker 3-4jahre in der Entwicklung war ist halt auch schwirig...
Die folge dürft klar sein, nur noch irgend welche kleine ramsch Chips... wenn es euch damit besser geht OK... das IST ein Rückschritt

Die Leistung von GF100 ist beachtenswert, das steht ausser frage! die Herstellung hat aber ganz klar einen strich durch die rechnung gemacht, schade!

Der GF100 zieht den RV870 in sachen Theoretische Peak Werte und AVG FPS gerade zu ins lächerliche...

lächerlich manche hier...

RoNsOn Xs
2010-03-27, 16:41:39
mit 16xAF verliert die Karte nun ja das doppelte an Leistung, als noch Gtx280. Darauf ist auch noch niemand eingegangen? Klar weniger Tmus, aber keine Effiziensverbesserungen?

dllfreak2001
2010-03-27, 16:42:18
Mein Kommentar:

Nach dem Motto Viel hilft viel.
Interessant ist ja jetzt, dass AF nicht mehr ganz so kostenlos wie früher ist. Das könnte bei den kleineren Ablegern durchaus zu lustigen Situationen führen.
Der Stromverbrauch, die Lautstärke und die Effizienz der beiden Highend-Grafikkarten sind natürlich eine totale Katastrophe.
Es ist nicht die schlechteste Grafikkarte die NV da herausgebracht hat, denn immerhin ist sie schneller als die Konkurenz. Aber die Umsetzung ist wirklich keine Kunst gewesen, da hat AMD ein deutlich besseres Design vorgelegt.
Denke auch mal, dass man einen Refresh abwarten sollte, bevor man sich so ein unpraktikables Monster in den Rechner steckt.

Außer der Rechenleistung (die sehr gut ist) ist das die Geforce FX 2.

Gast
2010-03-27, 16:45:33
mit 16xAF verliert die Karte nun ja das doppelte an Leistung, als noch Gtx280. Darauf ist auch noch niemand eingegangen? Klar weniger Tmus, aber keine Effiziensverbesserungen?

Sie skaliert jetzt beim 16xAF in etwa auf dem Niveau einer AMD-Karte.
Tatsächlich ein unschönes Detail. Denke nicht, dass sich da groß was bei der Effizienz getan hat.

RoNsOn Xs
2010-03-27, 16:48:30
Sie skaliert jetzt beim 16xAF in etwa auf dem Niveau einer AMD-Karte.
Tatsächlich ein unschönes Detail. Denke nicht, dass sich da groß was bei der Effizienz getan hat.
http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_nvidia_geforce_gtx_480/5/
da ist die ati eher ein stück näher an dem gt200 dran.

(del)
2010-03-27, 16:50:31
Das Leistungsverhalten hat sich recht massiv geändert. Weg von einer AF-Stärke und AA-Schwäche hin zu einer AF-Schwäche und AA-Stärke. Ganz andere Charakteristik als so ziemlich alles, was es zuvor von nvidia gab.Da warte ich erstmal noch paar Treiberversionen ab.

@Dural
wo rede ich was schön???? es ist schlich fakt nicht mehr und nicht weniger...Warum ist das ein Fakt? Warst du der Protokollschreiber auf irgendeiner Krisensitzung bei NV oder wie kommst du darauf deine Theorie einfach so als "Fakt" zu bezeichnen? #1226? :|

Trotzdem, recht kreativ. Auf die Idee, daß die 90nm einfach zu schlecht dafür sind, kamen die Intelboys damals noch nicht, als Presskot über 3 Ghz gehen sollte. Da stand und fiel alles noch mit dem Design. Naja damals war das einfacher. Wie gut oder schlecht Intels Prozesse sind hat man schnell mit der Leistung/Mhz eines P-M in 130nm herausgefunden. Später mit der eines 90nm P-M.

Nochmal also: Was soll denn, außer 2009 nur der Ausbeute, für NV unerwartet schlecht an den 40nm von TSMC sein?

Popeljoe
2010-03-27, 16:54:14
Und erst Ende April größere Mengen, hab ich gelesen.

Puh, 40 Seiten durchgeblättert. Es hat offenbar immer noch keiner unter die Haube geguckt, wie viele mm² der Chip nun hat?!
Leo schon! ;)
http://www.3dcenter.org/artikel/zum-launch-von-geforce-gtx-470-480
ca. 529mm² Die-Fläche bri der 480 gegen 334mm² Die-Fläche bei der 5870.

Gast
2010-03-27, 16:55:43
http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_nvidia_geforce_gtx_480/5/
da ist die ati eher ein stück näher an dem gt200 dran.
Das AMD scheinbar besser dasteht liegt an der schlechteren Filterung.

Gast
2010-03-27, 16:56:05
Wer zuletzt lacht...

http://img651.imageshack.us/img651/592/32zhpc95228571.jpg

Nach dem ganzen Bashing der NV-Fraktion hört man jetzt nicht mehr viel von ihnen.

Spasstiger
2010-03-27, 17:00:57
Leo schon! ;)
http://www.3dcenter.org/artikel/zum-launch-von-geforce-gtx-470-480
ca. 529mm² Die-Fläche bri der 480 gegen 334mm² Die-Fläche bei der 5870.
Die 529 mm² sind nur Gerüchte, Leo hat keinen GF100 zur Hand. Es wurde mal anhand von Bildvergleichen ermittelt, dass die Kantenlänge ca. 23 mm beträgt und der Chip quadratisch ist. 23 mm *23 mm = 529 mm². Der exakte Wert wird davon sicherlich abweichen.
Wenn die Kantenlänge z.B. 22,9 mm beträgt, wäre die Fläche 524 mm², bei 23,1 mm² Kantenlänge sinds 534 mm².

Ronny145
2010-03-27, 17:04:06
Ich weiß keinen interessierts, aber mich schon :)
ich habe mir nun verschiedene DX11 Werte in 19x12 4xAA/16xAF rausgesucht

angegeben ist wieviel schneller die GTX480 im Vergleich zur HD5870 ist

Dirt2 (Daten aus 11 Reviews)
Min: 1,32%
Max: 45,45%
Median: 22,59%

StalkerCOP (Daten aus 5 Reviews)
Min: 0,00%
Max: 22,67%
Median: 11,45%

Metro 2033 (Daten aus 8 Reviews)
Min: 13,38%
Max: 610%
Median: 38,94%

Battleforge (Daten aus 4 Reviews)
Min: 25,34%
Max: 45,12%
Median: 31,27%

Battlefield BC (Daten aus 8 Reviews)
Min: -16,96%
Max: 29,79%
Median: 4,72%

Fazit: Vergleiche mit einzelnen Review-Seiten sind für den Popo


Sind das alles Seiten die mit Cat 10.3 getestet haben? Es wäre ja nicht verwunderlich wenn manch einer mit 10.2 testet und demzufolge auf größere Abstände kommt.

Blaire
2010-03-27, 17:05:32
Na das bedarf einer Erklärung.
Kann es sein, dass CSAA und Oblivion sich nicht vertragen?

Gut erkannt, es liegt sicher an den AA Bits. 32xCSAA schlechter als 16xQ? Never...

Gast
2010-03-27, 17:06:56
Bis zu dem Launch wurde ein gewisser "Charlie" von einigen, sehr aktiven Postern hier als Lügner, etc. abgestempelt. "Man würde ja sehen, was nach dem Launch von seinen Lügen, etc. übrigbleiben würde" und ähnliche Äußerungen wurden zu jeder Meldung von Ihm hier verbreitet.

So nun haben wir den Launch und das einzige was klar ist, ist für was die Hauptprotagonisten dieses Forums wirklich stehen. Ich würde es eher für unlauteren Wettbewerb ohne Faktenwissen bezeichnen. Sollte Wissen vorhanden sein, dann wird es nicht geäußert, sondern verschwiegen. Davon hab ich aber als Leser nichts.

Insofern haben sich viele aktive Schreiben, auch seitens einer Zeitschrift hier für, wahrscheinlich nicht nur mich, diskreditiert. In Zukunft werden echte Neuigkeiten eher nach dem Motto ermittelt "Desto stärker hier gegen verschiedene Vermutungen angegangen wird, desto eher werden sie stimmen".

Alles in allem sehr enttäuschend.

seltener Gast
2010-03-27, 17:08:21
Mit nem SLI System hats Tombi nun schön warm aufm Klo. :ugly:

Das meine ich jetzt todernst. Bei 'nem SLI-System plus einem 22-cm-Gehäuselüfter und diversen anderen Krachmachern im Gehäuse, hätte ich bedenken, ob nicht Mitbewohner oder Nachbarn gestört werden, wenn man mal nach Mitternacht zockt.
Gut, hängt halt auch von den Wohnverhältnissen ab. Mitbewohner gibt es bei mir nicht. Aber hier im Haus wird auf Ruhe zum Beispiel großer Wert gelegt.

san.salvador
2010-03-27, 17:09:57
Das meine ich jetzt todernst. Bei 'nem SLI-System plus einem 22-cm-Gehäuselüfter und diversen anderen Krachmachern im Gehäuse, hätte ich bedenken, ob nicht Mitbewohner oder Nachbarn gestört werden, wenn man mal nach Mitternacht zockt.
Gut, hängt halt auch von den Wohnverhältnissen ab. Mitbewohner gibt es bei mir nicht. Aber hier im Haus wird auf Ruhe zum Beispiel großer Wert gelegt.
Solange das Haus Wände hat, sollte das kein Problem geben.

Mark3Dfx
2010-03-27, 17:13:25
Hat Tombi schon vier 480iger bestellt? X-D

Gast
2010-03-27, 17:13:29
Die Wärmeentwicklung ist auch übel. SLI-System, 600W alleine von den GraKas, dazu 250W Restsystem, macht 850W ohne NT-Verluste. Das ist schon eine recht brauchbare Heizung im Winter, im Sommer sollte man zu diesem System wohl besser noch eine Klimaanlage rechnen, damit man es im Zimmer überhaupt aushält.

deekey777
2010-03-27, 17:16:28
Gut erkannt, es liegt sicher an den AA Bits. 32xCSAA schlechter als 16xQ? Never...
32xCSAA und 16xQ sind beide schlechter als 8xQ. Ob das die Bits sind, ist eigentlich egal.

Schade, dass CB die CoP-Bilder aus dem falschen Blinkwinkel gemacht hat. Eigentlich sieht man die fehlerhafte Kantenglättung in CoP auch mit diesen Screenshots, aus der rechten Ecke mit Blick auf den Händler würde man deutlich sehen, dass in CoP die Kantenglättung in den meisten Fällen nicht greift.

Popeljoe
2010-03-27, 17:17:38
Bis zu dem Launch wurde ein gewisser "Charlie" von einigen, sehr aktiven Postern hier als Lügner, etc. abgestempelt. "Man würde ja sehen, was nach dem Launch von seinen Lügen, etc. übrigbleiben würde" und ähnliche Äußerungen wurden zu jeder Meldung von Ihm hier verbreitet.

So nun haben wir den Launch und das einzige was klar ist, ist für was die Hauptprotagonisten dieses Forums wirklich stehen. Ich würde es eher für unlauteren Wettbewerb ohne Faktenwissen bezeichnen. Sollte Wissen vorhanden sein, dann wird es nicht geäußert, sondern verschwiegen. Davon hab ich aber als Leser nichts.

Insofern haben sich viele aktive Schreiben, auch seitens einer Zeitschrift hier für, wahrscheinlich nicht nur mich, diskreditiert. In Zukunft werden echte Neuigkeiten eher nach dem Motto ermittelt "Desto stärker hier gegen verschiedene Vermutungen angegangen wird, desto eher werden sie stimmen".

Alles in allem sehr enttäuschend.
Du weißt doch "hinten kackt die Ente!" ;)
Nebenbei: es wurden satte 49(!!!) Seiten Spam entfernt und in einem Extra Thread geparkt.
Dafür meinen allerhöchsten Respekt vor der Arbeit der hier stark beteiligten Moderatoren!
Viele Infos, sowohl negative, als auch positive, haben sich bewahrheitet.
Als relativ kleine Seite im Web gegen die geballte Macht der Werbeabteilung von Nvidia anzustinken, ist nicht grade leicht.
Außerdem hat unsere Kristallkugel einen ziemlichen Riß und wie soll man dann noch den geneigten Leser mit "der Wahrheit" versorgen? ;)
Ich hoffe, dass dich der gigantische Hype und der Ausgang der Sache misstrauisch gemacht hat gegen alle Aktionen die derartig massiv gepusht werden!
Da stimmt dann nämlich oft Einiges nicht.

Gast
2010-03-27, 17:22:25
Nebenbei: es wurden satte 49(!!!) Seiten Spam entfernt und in einem Extra Thread geparkt.


Ja, schön wärs. Vieles davon war durchaus produktiv. Es wurden mit der Holzhammermethode einfach mehrere Seiten einfach entfernt. Eine Rücksicht auf hochwertige Posts wurde nicht genommen.