PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 480 und 470: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28

AnarchX
2010-03-30, 15:48:30
Fake³
schau die dir 285 und 295 an...
Und was soll man dort sehen, außer das Demirug und sein Team beim D3D11-Pfad ganze Arbeit geleistet haben und GF100 eine deutlich verbesserte 8xMSAA Performance hat?
Battleforge ist in den meisten Tests erheblich schneller, wenn auch nicht so wie in dieser Szene hier.

Bei HWLuxx hat man wohl ein ähnliches Szenario gefunden:
http://www.hardwareluxx.de/images/stories/galleries/reviews/GTX480/Battle_6.jpg
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=23

Frank1974
2010-03-30, 15:51:20
Fake³
schau die dir 285 und 295 an... dann hätteste dir das posten erspaaren können...

Farbenblind?

Einige Farben sind sehr ähnlich, genau hinschauen;)

GTX285 von 40,8 auf 22,6
GTX295 von 53,6 auf 29,3

mfg
Frank

deekey777
2010-03-30, 15:57:06
Battleforge ohne Screen Space Ambient Occlusion:
http://benchmarkreviews.com/images/reviews/video_cards/GeForce_GTX480/BattleForge_No-SSAO_Benchmark.jpg

Und mit:
http://benchmarkreviews.com/images/reviews/video_cards/GeForce_GTX480/BattleForge_DX11_Benchmark.jpg
http://benchmarkreviews.com/index.php?option=com_content&task=view&id=480&Itemid=72&limit=1&limitstart=7

Was macht GF100 in Battleforge eigentlich so schnell?
Irgendwie stehen die Werte nicht im Einklang mit denen von Computerbase:
http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_nvidia_geforce_gtx_480/14/#abschnitt_battleforge
Oder übersehe ich da was?
Hier HT4U:
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index29.php

AnarchX
2010-03-30, 16:13:04
Gegenüber CB/HT4u scheint hier nur die 480 etwas zu schnell zu sein. Vielleicht hat man die 480 nur mit 8xCSAA statt 8xMSAA getestet?

Ronny145
2010-03-30, 16:21:47
Die Performance der GTX295 wäre unter DX9/10 im Performancerating immer noch vor einer HD5870, Computerbase weigert sich nur bei der GTX295 Treiber zu nehmen wo Dirt2 und World in Conflict auch mit SLI läuft, bei mir läuft jedenfalls SLI, man sollte nur Tests machen, wenn man etwas davon versteht.



Das macht ein Vergleich unter den Karten bei CB so schwierig. Der 195.62, der für die GTX295 genommen wurde, stammt vom November. Selbst die Ergebnisse der HD5850 wuren bei CB nur recycelt.

Sascha1971
2010-03-30, 16:48:01
Hier noch ein par News bzw neue Kühlsysteme

http://www.pcgameshardware.de/aid,702358/Thermaltake-Element-V-Nvidia-Edition-fuer-Geforce-GTX470/480-im-April/Gehaeuse/News/

http://www.pcgameshardware.de/aid,743902/Thermalright-VGA-Kuehler-werden-kompatibel-zur-Geforce-GTX-480/470/Grafikkarte/News/

http://www.pcgameshardware.de/aid,743892/Geforce-GTX-470-Nicht-Referenz-Design-von-Inno3D/Grafikkarte/News/

anddill
2010-03-30, 17:06:14
beides im Luxx gesehen:

techPowerUp! News :: XFX Abandons GeForce GTX 400 Series (http://www.techpowerup.com/118821/XFX_Abandons_GeForce_GTX_400_Series.html)



Wenn das nicht nach Ärger riecht...

Geschichten aus der Nvidia Mafiosi Familie (http://hi-tech.at/wordpress/2010/03/geschichten-aus-der-nvidia-mafiosi-familie/)


ohne Worte.....

Nachdem ich die Techpowerup-Meldung gelesen habe, ging mir auch gleich durch den Kopf, daß die evtl. mit ihrer Garantie Probleme bekommen könnten, weil die Fermis gar nicht so lange halten. Und da bin ich wohl nicht der einzige, der in die Richtung spekuliert, wenn ich dort die Kommentare lese.

Noebbie
2010-03-30, 17:12:23
Mir ist schon klar dass eine High-End Karte durch die enormen Belastungen recht früh verschleißen kann. Aber wie lange soll denn so ein Fermi halten? Wie lang ist denn da die übliche Garantie? Wenn ich mir eine Karte kaufe, egal ob High-End, ob Fermi ja oder nein, soll das Ding aber dennoch auch in 5 Jahren noch funktionieren. Meine GoldenSample 4600Ti lebt heute noch, aber ist ja auch kein Fermi?

Grindcore
2010-03-30, 17:13:45
Leistungstechnisch kann man absolut nicht meckern, da enttäuscht die 4xx Reihe nicht, gerade bei DX11 Geschichten und aktuell eher exotischen 3D-Features. In punkto Hitzeentwicklung und Lautstärke ist das Design allerdings ganz schön grenzwertig. Da hat ATi tatsächlich das überzeugendere Produkt (Wird auch mal wieder Zeit, hrhr). Allerdings denke ich auch, dass aus der Architektur mit zukünftigen Refreshes ne ganze Menge herauszuholen ist. Da wird sich noch ordentlich was tun, kein Zweifel.

anddill
2010-03-30, 17:14:29
Wobei es ja auch Meldungen gibt die besagen, daß XFX keine Fermis bekommt, weil sie zu sehr mit ATI gekuschelt haben. Dann wäre die oben zitierte Meldung XFX´s Art, sich dafür zu "bedanken"

Mir ist schon klar dass eine High-End Karte durch die enormen Belastungen recht früh verschleißen kann. Aber wie lange soll denn so ein Fermi halten? Wie lang ist denn da die übliche Garantie? Wenn ich mir eine Karte kaufe, egal ob High-End, ob Fermi ja oder nein, soll das Ding aber dennoch auch in 5 Jahren noch funktionieren. Meine GoldenSample 4600Ti lebt heute noch, aber ist ja auch kein Fermi?

Wie ich ein paar Seiten vorher schon bemerkt habe, bin ich bei der enormen Stromdichte auf einer Fermi skeptisch, daß die lange hält. Temperaturschwankungen knacken die Chipverbindungen, und Elektromigration lagert die Innereien Atom für Atom um. Gegen die Wärmedehnung kann man entsprechende Materialien verwenden, die möglichst gleiche Ausdehnungskoeffizienten haben oder elastisch genug sind, aber das wird mit steigender Chipgröße immer schwieriger. Und die Stromdichte kann man nur verringern, indem man den Strom außerhalb des Chips verteilt und gezielt mit genügend Bumps an die entsprechenden Stellen mit dem größten Bedarf bringt. Klappt aber nicht immer so ideal.

Gast
2010-03-30, 17:16:52
XFX wirds mit Ati nicht schlecht gehen,
da brauchen die keine Bedenken haben

Iruwen
2010-03-30, 17:18:17
http://www.pcgameshardware.de/aid,743902/Thermalright-VGA-Kuehler-werden-kompatibel-zur-Geforce-GTX-480/470/Grafikkarte/News/

Wirft der auch vorm Kernbruch die Untertassensektion ab? :biggrin:

Megamember
2010-03-30, 17:52:12
Keine Ahnung obs schon genannt wurde aber kann man die Karten wie die Vorgänger auch undervolten? Oder sind die 1V schon das untere Limit? Bei der 280GTX hat das ja gewaltige Verbrauchsvorteile gebracht.

LovesuckZ
2010-03-30, 17:56:49
Keine Ahnung obs schon genannt wurde aber kann man die Karten wie die Vorgänger auch undervolten? Oder sind die 1V schon das untere Limit? Bei der 280GTX hat das ja gewaltige Verbrauchsvorteile gebracht.

Die Möglichkeit, die Spannung anzupassen, besteht. Der Rest wird die Zukunft zeigen.

Megamember
2010-03-30, 17:59:38
Könnte die PCGH ja mal testen.

Gast
2010-03-30, 18:06:30
Wobei es ja auch Meldungen gibt die besagen, daß XFX keine Fermis bekommt, weil sie zu sehr mit ATI gekuschelt haben. Dann wäre die oben zitierte Meldung XFX´s Art, sich dafür zu "bedanken"



Wie ich ein paar Seiten vorher schon bemerkt habe, bin ich bei der enormen Stromdichte auf einer Fermi skeptisch, daß die lange hält. Temperaturschwankungen knacken die Chipverbindungen, und Elektromigration lagert die Innereien Atom für Atom um. Gegen die Wärmedehnung kann man entsprechende Materialien verwenden, die möglichst gleiche Ausdehnungskoeffizienten haben oder elastisch genug sind, aber das wird mit steigender Chipgröße immer schwieriger. Und die Stromdichte kann man nur verringern, indem man den Strom außerhalb des Chips verteilt und gezielt mit genügend Bumps an die entsprechenden Stellen mit dem größten Bedarf bringt. Klappt aber nicht immer so ideal.

Wozu sollte nVidia die Garantie auch sonst auf 1 Jahr begrenzt haben?

Gast
2010-03-30, 18:16:01
Was hat nV mit der Garantie für den Endkunden zu tun? Garantie gibt der "Hersteller" (eher wohl Labeler in dem Fall) der Karten, also z.B. Zotac oder Gainward oder Asus etc.. Und diese Firmen entscheiden selbst wie lange oder (ob überhaupt) sie eine Herstellergarantie an den Kunden geben. Da hat nV garnichts damit zu tun. Unberührt davon ist dann natürlich noch die gesetzliche Gewährleistung von 2 Jahren, die der gewerbliche Verkäufer dem privaten Endkunden gegenüber gewähren muss, mit der bekannten Beweislastumkehr nach 6 Monaten.

Amboss
2010-03-30, 18:27:56
Was hat nV mit der Garantie für den Endkunden zu tun?

Ganz einfach: Die Hersteller begeben sich auf dünnes Eis, sofern sie die Garantie von sich aus auf mehrere Jahre verlängern. Der Fermi wird meiner Meinung nach nicht durch Haltbarkeit und Zuverlässigkeit glänzen. Eine freiwillige, verlängerte Garantie könnte einen kleinen bis mittleren Grafikkartenhersteller mittelfristig in den Ruin treiben. Alles nicht ganz koscher was da läuft..

LovesuckZ
2010-03-30, 18:28:54
Na, ganz koscher ist es nicht, weil es nVidia ist. Ist in Ordnung. Aber jetzt lassen wir das wieder und begnügen uns mit der Garantie der einzelnen Hersteller. :)

BlackBirdSR
2010-03-30, 18:34:23
Na, ganz koscher ist es nicht, weil es nVidia ist. Ist in Ordnung. Aber jetzt lassen wir das wieder und begnügen uns mit der Garantie der einzelnen Hersteller. :)


Naja es ist doch ein ganz normaler Gedanke.
Mir persönlich sind auch schon 2 Grafikkarte gestorben und bei solchen Temperaturen und Stromdichten macht man sich automatisch Gedanken über die Lebensdauer.

Ich bin z.B. jemand, der seine Grafikkarte aus finanziellen Gründen sehr lange behält. Für mich hat dies also eine größere Bedeutung als für jemanden, der beim 4xx Refresh gleich wieder umsteigt.

Ich bin mir sicher, dass die Chips jetzt nicht reihenweise ausfallen, aber man hat ja auch bei den Notebooks gesehen, dass manchmal einfach zu knapp kalkuliert wird. Das trifft ja uns. Insofern ist Konkurrenz wieder was schlechtes.

Optimal wäre es, wenn eine Seite die Karte mal 24/h/d in Furmark laufen lassen könnte. Aber es darf ja kaum einer die Karten behalten und zerstören will sie auch keiner. Würde ich auch nicht.

Gast
2010-03-30, 18:35:59
Ganz einfach: Die Hersteller begeben sich auf dünnes Eis, sofern sie die Garantie von sich aus auf mehrere Jahre verlängern. Der Fermi wird meiner Meinung nach nicht durch Haltbarkeit und Zuverlässigkeit glänzen. Eine freiwillige, verlängerte Garantie könnte einen kleinen bis mittleren Grafikkartenhersteller mittelfristig in den Ruin treiben. Alles nicht ganz koscher was da läuft..

Nein, da wird nichts verlängert, nV hat garnichts mit irgendeiner Garantie gegenüber dem Endkunden zu tun. Nichts. Ansprechpartner des Kunden ist erstmal der Händler, bei dem er die Karte erworben hat, Stichwort "Gewährleistung".

Eine Garantie ist eine freiwillige Leistung und kann an nahezu alle möglichen Bedingungen geknüpft sein, solange sie nicht gegen die "guten Sitten" verstossen. Solche Herstellergarantien müssen nicht gewährt werden, sind, wie gesagt, freiwillig. Wenn sie gewährt werden dann von den Herstellern, also ASUS, Zotac etc.. NICHT von nVidia. Die haben damit gegenüber dem Endkunden absolut NULL zu tun.

Es ist also alleinige Entscheidung des "Herstellers" der Karte wie lange er eine Garantie gewährt, ob garkeine, 1 Jahr oder 2 Jahre oder 10 Jahre, das ist sein alleiniges Risiko.

LovesuckZ
2010-03-30, 18:36:29
Naja es ist doch ein ganz normaler Gedanke.
Mir persönlich sind auch schon 2 Grafikkarte gestorben und bei solchen Temperaturen und Stromdichten macht man sich automatisch Gedanken über die Lebensdauer.

Ich bin z.B. jemand, der seine Grafikkarte aus finanziellen Gründen sehr lange behält. Für mich hat dies also eine größere Bedeutung als für jemanden, der beim 4xx Refresh gleich wieder umsteigt.

Ich bin mir sicher, dass die Chips jetzt nicht reihenweise ausfallen, aber man hat ja auch bei den Notebooks gesehen, dass manchmal einfach zu knapp kalkuliert wird. Das trifft ja uns. Insofern ist Konkurrenz wieder was schlechtes.

Dann kaufe das Produkt von einer Firma, die eine kostenlose Garantieverlängerung anbietet. Z.B. Zotac oder EVGA. Dann hast du das Problem nicht.

cR@b
2010-03-30, 18:38:28
Das Review taugt mir mit den speziellen Einstellungen der Benchmarks genial. Ne 280 GTX ist mit ner 275 GTX zu vergleichen oder? Unter Last ist der Lüfter angeblich hier gleich laut wie meine 280 GTX und die empfinde ich als noch im gelben Bereich.

http://www.tweakpc.de/hardware/tests/grafikkarten/nvidia_geforce_gtx_480/s01.php

Tesseract
2010-03-30, 18:46:15
Dann kaufe das Produkt von einer Firma, die eine kostenlose Garantieverlängerung anbietet. Z.B. Zotac oder EVGA. Dann hast du das Problem nicht.

vorrausgesetzt sie bescheißen dich dabei nicht so wie es bei mir mit EVGA nach 3 der 5 jahren garantie mit meinem G80 der fall war.
toller verein... nicht.

moBi
2010-03-30, 18:57:15
Hat irgendeine Seite auch mal Shattered Horizon gebencht?

Iruwen
2010-03-30, 18:58:33
Kann es nicht auch sein dass XFX auf ATI Seite als High-End Anbieter größere Margen sieht? Immerhin teilen die sich bei NV das Feld mindestens mit EVGA und BFG falls ich nicht noch einen vergessen hab.

Gast
2010-03-30, 19:02:02
@Vermummter

BFG =

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/14890-bfg-zeiht-sich-aus-dem-grafikkartenmarkt-zurueck.html

Gast
2010-03-30, 19:04:01
Unter Last ist der Lüfter angeblich hier gleich laut wie meine 280 GTX und die empfinde ich als noch im gelben Bereich.

http://www.tweakpc.de/hardware/tests/grafikkarten/nvidia_geforce_gtx_480/s01.php
Unter Last gleich laut wie eine 280?
Wie haben die getestet und vor allem wie lange unter Last - 30 Sekunden?
Also alles was ich bis jetzt auf Videos gehört habe, war lauter. Und das war bei knapp 80 % Lüfterregelung. Im geschlossenen Case geht die, wie einige Reviews zeigen, auf 100 % und selbst das reicht nicht immer, um Throtteln zu verhindern.
480 mit Alternativkühler oder Wasserkühlung. Alles andere ist keine Option.

][immy
2010-03-30, 19:19:04
Kann es nicht auch sein dass XFX auf ATI Seite als High-End Anbieter größere Margen sieht? Immerhin teilen die sich bei NV das Feld mindestens mit EVGA und BFG falls ich nicht noch einen vergessen hab.

ich könnte mir durchaus auch vorstellen das nvidia einige board-partner vor den kopf gestoßen hat, ganz einfach aus dem grund, das sie nicht so viele chips haben, die man ausliefern könnte.

bei all den herstellern, und wenn es mit den etwa 10k &20k chips stimmt, dann dürfte es schwierig werden, die so aufzuteilen, das sich es für einen hersteller auch lohnt die überhaupt mit in das sortiment aufzunehmen

dildo4u
2010-03-30, 19:22:19
Das Review taugt mir mit den speziellen Einstellungen der Benchmarks genial. Ne 280 GTX ist mit ner 275 GTX zu vergleichen oder? Unter Last ist der Lüfter angeblich hier gleich laut wie meine 280 GTX und die empfinde ich als noch im gelben Bereich.

http://www.tweakpc.de/hardware/tests/grafikkarten/nvidia_geforce_gtx_480/s01.php
Heftig wie die GTX480 die ATI's in den DX11 Benches putzt.

derguru
2010-03-30, 19:30:29
jo heftig vorallem in den spielen wie metro 2033,
http://www.abload.de/img/metroim5d.jpg

Chris2CB
2010-03-30, 19:33:02
Heftig wie die GTX480 die ATI's in den DX11 Benches putzt.


NVIDIA GeForce GTX 480
700 MHz GPU 924 MHz MEM 1536 MB 480
99.0 [100%] [0,21/€]
ATI Radeon HD 5870

850 MHz GPU 1200 MHz MEM 1GB 320(5D)
85.6 [86%] [0,26/€]

Performance Durchschnitt DX11 - 2560x1600 4AAx16AF


Wenn die Auflösung niedriger ist, sind es nur noch 76% für den ATI Beschleuniger.

Aber bei dem Verbauch MUSS eine GTX 480 durchweg min. 60% schneller sein egal welche Auflösung.

Dimon
2010-03-30, 19:37:06
jo heftig vorallem in den spielen wie metro 2033,
http://www.abload.de/img/metroim5d.jpg

Du hast 4xAA vergessen :rolleyes:

LovesuckZ
2010-03-30, 19:38:08
Aber bei dem Verbauch MUSS eine GTX 480 durchweg min. 60% schneller sein egal welche Auflösung.

Je niedriger die Auflösung, umso schneller GF100. Das neue Front-End hilft dabei, dass die Geometrie-Last deutlich schneller abgearbeitet wird. Bei allen anderen Karten sollte es in niedrigen Auflösungen stärker limitieren.
Also Leute: Schmeißt eure 2560x1200 Monitore weg, wenn ihr GF100 kauft. :D

Gast
2010-03-30, 19:39:51
Alles eine Frage dessen welches Review man heranzieht. Das von Hardocp ist top und da ist selten was von überlegener Performance zu sehen. Es wurden nur DX11 Games getestet.

http://www.hardocp.com/article/2010/03/26/nvidia_fermi_gtx_470_480_sli_review

Schlammsau
2010-03-30, 19:39:57
Aber bei dem Verbauch MUSS eine GTX 480 durchweg min. 60% schneller sein egal welche Auflösung.
eher 80% schneller als eine 5870, ihr verbrauch leigt rund 80%! höher.

Je länger ich darüber nachdenke, desto schlechter wird mir. :freak:

Dimon
2010-03-30, 19:40:00
Je niedriger die Auflösung, umso schneller GF100. Das neue Front-End hilft dabei, dass die Geometrie-Last deutlich schneller abgearbeitet wird. Bei allen anderen Karten sollte es in niedrigen Auflösungen stärker limitieren.
Also Leute: Schmeißt eure 2560x1200 Monitore weg, wenn ihr GF100 kauft. :D

Awa, ein neuer treiber sollte das ganze glattbügeln :biggrin:

Raff
2010-03-30, 19:43:42
eher 80% schneller als eine 5870, ihr verbrauch leigt rund 80%! höher.

Wenn ihr hier schon solch eigenartige Haarspalterei betreibt, dann beachtet, dass die GeForce im Zweifelsfall das bessere AF berechnet. Oder auf Wunsch PhysX-Berechnungen stemmt. Das gibt's nicht kostenlos.

Leistung = verrichtete Arbeit in einer bestimmten Zeit
Leistung != die meisten Fps, egal, wie scheiße die aussehen

MfG,
Raff

derguru
2010-03-30, 19:45:18
Du hast 4xAA vergessen :rolleyes:

nö hab ich nicht vergessen,ram-nachteile zählen nicht.

ich finde die 480gtx von der leistung und vom preis her sogar besser als atis 5870 aber verbrauch und noch wichtiger lautstärke vernichten wieder meine interesse komplett.

Dimon
2010-03-30, 19:48:05
Alles eine Frage dessen welches Review man heranzieht. Das von Hardocp ist top und da ist selten was von überlegener Performance zu sehen. Es wurden nur DX11 Games getestet.

http://www.hardocp.com/article/2010/03/26/nvidia_fermi_gtx_470_480_sli_review

Deswegen verbraucht auch eine GTX480 im idle weniger als eine HD5870 :eek:

Gast
2010-03-30, 19:48:58
Immer dieser Metro 2033 Quatsch. Ich weiß garnicht wie oft ich es in den letzten Tagen gesagt habe, aber nochmal für alle. Das Game muss mit der gewählten Auflösung auch noch spielbar sein, denn sonst nützen mir auch 80% mehr Speed einen Sch....

Mal ganz davon abgesehen, dass Metro 2033 ein stinknormaler Schlauchlevel-Shooter ist und nur 6-8 Stunden Single-Player bietet (kein MP). Darum finde ich z.B. BF:BC2 wesentlich interessanter und da nehmen sich die Karten überhaupt nichts bzw. habe ich sogar mehr Reviews gesehen in denen die HD5870 die GTX480 und die HD5850 die GTX470 schlägt.

Schlammsau
2010-03-30, 19:49:33
[immy;7939025']ich könnte mir durchaus auch vorstellen das nvidia einige board-partner vor den kopf gestoßen hat, ganz einfach aus dem grund, das sie nicht so viele chips haben, die man ausliefern könnte.

bei all den herstellern, und wenn es mit den etwa 10k &20k chips stimmt, dann dürfte es schwierig werden, die so aufzuteilen, das sich es für einen hersteller auch lohnt die überhaupt mit in das sortiment aufzunehmen
Wenn ihr hier schon solch eigenartige Haarspalterei betreibt, dann beachtet, dass die GeForce im Zweifelsfall das bessere AF berechnet. Oder auf Wunsch PhysX-Berechnungen stemmt. Das gibt's nicht kostenlos.

Leistung = verrichtete Arbeit in einer bestimmten Zeit
Leistung != die meisten Fps, egal, wie scheiße die aussehen

MfG,
Raff

Jetzt red du nicht auch noch dieses Monster gut.
Auch wenn Fermi das AF ein wenig besser darstellt, und das unnütze PhysX beherscht, rechtfertigt das nicht diesen exorbitanten Verbrauch!
Und um mich gleich mal wieder aus der Schusslinie zu begeben, eine 5970 verbraucht auch zuviel Strom, für die erbrachte Leistung.

Dimon
2010-03-30, 19:50:11
ich finde die 480gtx von der leistung und vom preis her sogar besser als atis 5870 aber verbrauch und noch wichtiger lautstärke vernichten wieder meine interesse komplett.

Meine leider auch :biggrin:

Aber die GTX470 wäre im allgemeinen besser :)

LovesuckZ
2010-03-30, 19:51:15
Mal ganz davon abgesehen, dass Metro 2033 ein stinknormaler Schlauchlevel-Shooter ist und nur 6-8 Stunden Single-Player bietet (kein MP). Darum finde ich z.B. BF:BC2 wesentlich interessanter und da nehmen sich die Karten überhaupt nichts bzw. habe ich sogar mehr Reviews gesehen in denen die HD5870 die GTX480 und die HD5850 die GTX470 schlägt.

Hm, kein Problem. Nehmen wir WoW: http://www.pcgameshardware.de/aid,743499/Geforce-GTX-470-und-480-im-Benchmark-Test-mit-World-of-Warcraft/Crosspromo-PCG/Test/

Sollte dann der ultimate Standard sein: Unendliche Spieldauer, fast komplette Freiheit.

Blaire
2010-03-30, 19:51:57
Wenn ihr hier schon solch eigenartige Haarspalterei betreibt, dann beachtet, dass die GeForce im Zweifelsfall das bessere AF berechnet.

Gibt es eigentlich schon eine Stellungnahme von Ati warum die Bildqualität in Crysis Warhead verschlechtert wurde?

Gast
2010-03-30, 19:53:04
Aber sie bietet keinen Performancevorteil laut Hardocp noch nicht einmal gegenüber HD5850. Bitte macht euch einmal klar, dass nur reale Games zählen alles andere ist reine Theorie.

derguru
2010-03-30, 19:53:11
Aber die GTX470 wäre im allgemeinen besser :)

die ist mir zu schwach auf der brust und wenn ich overclocken müsste wird der verbrauch nicht viel weniger als bei der 480 und sogar noch wärmer und noch lauter weil der kühlblock schlechter ist als vom großem.

Bioshock
2010-03-30, 19:53:15
Jetzt red du nicht auch noch dieses Monster gut.
Auch wenn Fermi das AF ein wenig besser darstellt, und das unnütze PhysXbeherscht, rechtfertigt das nicht diesen exorbitanten Verbrauch!
Und um mich gleich mal wieder aus der Schusslinie zu begeben, eine 5970 verbraucht auch zuviel Strom, für die erbrachte Leistung.


LOL? unnütze Physx. Das einzige was immer unnütz ist sind deine Troll Beiträge!

LovesuckZ
2010-03-30, 19:54:19
die ist mir zu schwach auf der brust und wenn ich overclocken müsste wird der verbrauch nicht viel weniger als bei der 480 und sogar noch wärmer und noch lauter weil der kühlblock schlechter ist als vom großem.

Die Leistungsaufnahme steigt bei einer Takterhöhung nicht. Das haben schon einige Reviews gezeigt.

mapel110
2010-03-30, 19:54:39
Leistung = verrichtete Arbeit in einer bestimmten Zeit
Leistung != die meisten Fps, egal, wie scheiße die aussehen

Das scheint fast Niemand zu begreifen und die Radeons, egal ob 4xxx oder 5xxx, haben das bessere Preisleistungsverhältnis.
Dank der tollen Blume seit 5xxx wirds auch in den meisten "Fachforen" so runter gebetet. Selbst auf 3DCenter steht es missverständlich im Geforce-480-Artikel.
Liest sich so, als ob die Radeons das bessere Standard-AF hätten.

PHuV
2010-03-30, 19:55:10
Alles eine Frage dessen welches Review man heranzieht. Das von Hardocp ist top und da ist selten was von überlegener Performance zu sehen. Es wurden nur DX11 Games getestet.

http://www.hardocp.com/article/2010/03/26/nvidia_fermi_gtx_470_480_sli_review

Hm, wie bekommen die den unter DX11 bei der 5970 unter 2560x1600 36,6 FPS? :confused: Sobald ich bei Metro DX11 einschalte, habe ich nur noch Standgrafik mit 5-8 FPS! Und das mit einem 790i Chipsatz und einem QX9770 3,2 Ghz@4 GHz mit aktuellem Treiber Catalyst 10.3! Diese Werte kann ich nicht nachvollziehen!

derguru
2010-03-30, 19:57:37
Hm, wie bekommen die den unter DX11 bei der 5970 unter 2560x1600 36,6 FPS? :confused: Sobald ich bei Metro DX11 einschalte, habe ich nur noch Standgrafik mit 5-8 FPS! Und das mit einem 790i Chipsatz und einem QX9770 3,2 Ghz@4 GHz mit aktuellem Treiber Catalyst 10.3!

in dem man 4xmsaa auschaltet.:wink:

LovesuckZ
2010-03-30, 19:57:47
Das scheint fast Niemand zu begreifen und die Radeons, egal ob 4xxx oder 5xxx, haben das bessere Preisleistungsverhältnis.
Dank der tollen Blume seit 5xxx wirds auch in den meisten "Fachforen" so runter gebetet. Selbst auf 3DCenter steht es missverständlich im Geforce-480-Artikel.
Liest sich so, als ob die Radeons das bessere Standard-AF hätten.

Was ist denn der Unterschied zwischen "vollkommen winkelunabhängig" und "winkelunabhängig"?
Schade, wenn man weiß, wo 3DCenter.de mal war, ist der Abstieg sehr bedauerlich.

Raff
2010-03-30, 19:58:22
Gibt es eigentlich schon eine Stellungnahme von Ati warum die Bildqualität in Crysis Warhead verschlechtert wurde?

Ich weiß von nichts. ;)

Jetzt red du nicht auch noch dieses Monster gut.
Auch wenn Fermi das AF ein wenig besser darstellt, und das unnütze PhysX beherscht, rechtfertigt das nicht diesen exorbitanten Verbrauch!
Und um mich gleich mal wieder aus der Schusslinie zu begeben, eine 5970 verbraucht auch zuviel Strom, für die erbrachte Leistung.

Ich rede das Monster nicht gut, ich weise auf die zweifelsfrei vorhandenen Vorteile des Monsters hin.

Die Referenzkarte ist vor allem zu laut unter Last. Und sie braucht zu viel Strom im Leerlauf. Die Last-Lautstärke kommt von der hohen Verlustleistung. Würde die Karte "nur" mit 2-3 Sone vor sich hinrauschen, wären die meisten Kritiker still. Das sehe ich in Form von Custom-Designs auf uns zukommen (oder 0 Sone bereits im April, WaKü ahoi). Dass die Karte jedoch 50 Watt fürs Nichtstun saugt, ist inakzeptabel – und angesichts der guten 30 Watt einer GTX 470 unverständlich. Mich persönlich würden 250 Watt unter Last wenig jucken, wenn ich die Karte dabei nicht höre (und sie fett BQ und Fps raushaut). Die 50 Watt, welche mindestens jeden Tag von ~18 bis ~22 Uhr verblasen werden, wiegen viel, viel mehr als das deutlich kürzere Gezocke.

Eine overvoltete HD 5870, beispielsweise mit 1,35 Volt für 1.050 MHz GPU-Takt, kickt ihr gutes Fps-Watt-Verhältnis übrigens auch mit Füßen. Man kann sich über 20 Prozent mehr Fps freuen, die Leistungsaufnahme liegt aber gut 30 bis 40 Prozent höher als im Normalzustand und das Zirpen unter Last geht los. Das muss ich mal genauer messen ...

MfG,
Raff

PHuV
2010-03-30, 20:02:03
in dem man 4xmsaa auschaltet.:wink:

Und wie schaltet man es aus? Bei mir sind diese Einstellungen immer gedimmt, und ich kann hier nix umstellen!

Gast
2010-03-30, 20:03:43
Hm, kein Problem. Nehmen wir WoW: http://www.pcgameshardware.de/aid,743499/Geforce-GTX-470-und-480-im-Benchmark-Test-mit-World-of-Warcraft/Crosspromo-PCG/Test/

Sollte dann der ultimate Standard sein: Unendliche Spieldauer, fast komplette Freiheit.


Natürlich nicht, aber Metro ist nunmal nicht der Standard auch nicht bei DX11 Games. Wie sich der Spiele-Markt in den nächsten sagen wir mal 12 Monaten entwickelt und wie viele Games vom Schlage Metro 2033 kommen werden, weiß kein Mensch.

Bis sehr starke Tesselation-Leistung entscheidend wird (wenn überhaupt jemals) sind sowieso neue Gens/Refreshes von beiden Herstellern da. Die Tesselation-Leistung der HD5er ist momentan einfach ausreichend und bei Metro 2033 ist trotz GTX480 eigentlich ein SLI nötig. Ich sage ja nicht, dass NV da nicht evt. einen Trumpf in der Hand hat für die Zukunft, aber zurzeit (und das wird dieses Jahr auch so bleiben) ist die Tesselation-Performance einfacht nicht nötig. Also finde ich ein Top-Game wie es BF:BC2 ist viel wichtiger als Metro 2033. Ich habe Metro schon durchgespielt und es ist ein gutes Game keine Frage, aber es ist halt auch so ein Game das ich mit hoher Wahrscheinlichkeit nicht noch einmal zocken werde, da es keinen Wiederspielwert hat.

Frank1974
2010-03-30, 20:04:16
LOL? unnütze Physx. Das einzige was immer unnütz ist sind deine Troll Beiträge!

Da erkennst du die richtigen Fanboys, die entscheiden was gut ist und was nicht.

Er sollte mit seiner HD5850 glücklich sein und nicht ständig in NV-Threads die Karten schlecht reden.

Die GTX480 hat eigentlich nur einen Nachteil, zuviel Stromverbrauch, das sie dadurch heiß wird und sehr laut, ist für mich alles nur auf den Stromverbrauch zu führen, also nur ein Punkt.

Ich habe mir die Videos von der Lautstärke auch angeschaut, meine GTX295 ist bei 80% auch schon so laut, bei 100% ist sie vielleicht sogar lauter und meine Karte wird in Furmark nach 15 Minuten ca. 100° heiß, je nach Game 85-90° und ich spiele/benche(8-10h am Wochenende und ca. 1-2h in der Woche) schon ziemlich viel und nach über 14 Monaten in Gebrauch macht sie bis jetzt keine Probleme, beten das es so bleibt bis ich eine GTX480 habe;D

edit
Ich bin für jedes Feature Dankbar.
Für G200 hätte ich gerne DX10.1 gehabt
Für GT400 hätte ich gerne das SGSSAA von ATI und auch den Stromverbrauch, dafür hat man wohl einen größeren Vorteil unter DX11 bei GTX470/480 und man hat PhysX, mir wäre lieber es gäbe das alles auf einer Karte, aber so ist es nun mal nicht.

mfg
Frank

derguru
2010-03-30, 20:05:06
Die Leistungsaufnahme steigt bei einer Takterhöhung nicht. Das haben schon einige Reviews gezeigt.
das schaue ich mir noch an und vorallem die temps.
Und wie schaltet man es aus? Bei mir sind diese Einstellungen immer gedimmt, und ich kann hier nix umstellen!
häh:confused:,bei mir kann ich zwischen AAA und 4xMSAA switchen.

Gast
2010-03-30, 20:09:47
Dass die Karte jedoch 50 Watt fürs Nichtstun saugt, ist inakzeptabel – und angesichts der guten 30 Watt einer GTX 470 unverständlich. Mich persönlich würden 250 Watt unter Last wenig jucken, wenn ich die Karte dabei nicht höre. Die 50 Watt, welche mindestens jeden Tag von ~18 bis ~22 Uhr verblasen werden, wiegen viel, viel mehr als das deutlich kürzere Gezocke.
MfG,
Raff
Ob 30 Watt oder 50 Watt machen den Bock auch nicht fett. Das sind bei extremen 8 Stunden Leerlauf am Tag über das ganze Jahr bei 20 cent/kWh knapp 11 Euro zusätzlich - absolut zu vernachlässigen bei den ganzen anderen Vorzügen der Karte.
Zudem ist die Karte immer noch sparsamer als eine 8800 GTX.

Yesman
2010-03-30, 20:12:13
Die 50 Watt finde ich nichtmal so argh, perverser finde ich den Idle Verbrauch unter Multimonitoring und da bekleckern sich beide IHVs nicht mit Ruhm.

Da ist man sogar besser dran sich eine günstige Zweitkarte zuholen um dort dann den zweiten Monitor anzuschliessen.

Da heisst es dann ich hab ne zweite Karte drinnen um Strom zu sparen:freak:

Zatoichi
2010-03-30, 20:12:35
Wenns hier falsch ist, bitte nicht hauen; Welche Netzteil Klasse wäre für
470er SLI angedacht ?

Als größten Nachteil empfinde ich immer noch die hohe Lautstärke. Nicht jeder will eine Wakü haben.

mapel110
2010-03-30, 20:13:47
Wenns hier flasch ist, bitte nicht hauen; Welche Netzteil Klasse wäre für
470er SLI angedacht ?
750 Watt würde ich da als Minimum ansehen.

Shaft
2010-03-30, 20:18:32
Hat irgendeine Seite auch mal Shattered Horizon gebencht?

Bench zu SH würden mich auch interessieren, aber da gibts wohl nüscht.

Gerade hier macht ein Test Sinn, PC Exklusiv, DX10, grafische Oberklasse und GPU fordernd.


Immer dieser Metro 2033 Quatsch. Ich weiß garnicht wie oft ich es in den letzten Tagen gesagt habe, aber nochmal für alle. Das Game muss mit der gewählten Auflösung auch noch spielbar sein, denn sonst nützen mir auch 80% mehr Speed einen Sch....

Mal ganz davon abgesehen, dass Metro 2033 ein stinknormaler Schlauchlevel-Shooter ist und nur 6-8 Stunden Single-Player bietet (kein MP). Darum finde ich z.B. BF:BC2 wesentlich interessanter und da nehmen sich die Karten überhaupt nichts bzw. habe ich sogar mehr Reviews gesehen in denen die HD5870 die GTX480 und die HD5850 die GTX470 schlägt.


DX11 ist nunmal der nächste Schritt für die Zukunft wie Tesselation und hier trumpft der GF100 nunmal. Daher ist es nicht verwunderlich das Metro in Zusammenhang mit GF100 so oft genannt wird.

Gast
2010-03-30, 20:20:49
750 Watt würde ich da als Minimum ansehen.

Aber auch nur wenn man nicht übertakten will.

Gast
2010-03-30, 20:25:53
BTW, ich hab jetzt schon mehrmals gelesen dass der Kühler der 470 schlechter sein soll als der des grossen Bruders? Was ist denn genau anders an dem Ding?

Gast
2010-03-30, 20:25:56
Was ist denn der Unterschied zwischen "vollkommen winkelunabhängig" und "winkelunabhängig"?


GTX480: winkelabhängig
http://images.anandtech.com/reviews/video/NVIDIA/GTX480/480AF.png


HD5870: winkelunabhängig
http://images.anandtech.com/reviews/video/ATI/5870/5870.png

GTX480_Käufer
2010-03-30, 20:26:31
Gibt es eigentlich schon eine Stellungnahme von Ati warum die Bildqualität in Crysis Warhead verschlechtert wurde?

Waren das nicht gleich mehrere Games in denen sie neuerdings schummeln und einfach mit der halben Genauigkeit rechnen weils der Enduser "ja eh nicht sieht"?

LovesuckZ
2010-03-30, 20:29:01
das schaue ich mir noch an und vorallem die temps.


Lautstärke: http://www.tweaktown.com/articles/3204/nvidia_geforce_gtx_470_video_card_overclocked/index16.html

Leistungsaufnahme: http://www.tweaktown.com/articles/3204/nvidia_geforce_gtx_470_video_card_overclocked/index17.html

Gast
2010-03-30, 20:29:57
GTX480: winkelabhängig
http://images.anandtech.com/reviews/video/NVIDIA/GTX480/480AF.png


HD5870: winkelunabhängig
http://images.anandtech.com/reviews/video/ATI/5870/5870.png


Das sieht ja gruselig aus bei GTX480.

GTX480_Käufer
2010-03-30, 20:30:06
GTX480: winkelabhängig
http://images.anandtech.com/reviews/video/NVIDIA/GTX480/480AF.png


HD5870: winkelunabhängig
http://images.anandtech.com/reviews/video/ATI/5870/5870.png

Der Blume nach müsste die ATI ja eine super AF Qualität haben. Auf den Screenshots sieht man bei der ATI aber grässliche Bugwellen. Wahrscheinlich auch ein Treibercheat indem sie bei der AF Blume bessere AF Qualität fahren als schlussendlich bei den Games. (Oder mehrere Redaktionen sind zu dumm die ATI richtig einzustellen in Games) ;)

Gast
2010-03-30, 20:31:57
Der Blume nach müsste die ATI ja eine super AF Qualität haben. Auf den Screenshots sieht man bei der ATI aber grässliche Bugwellen. Wahrscheinlich auch ein Treibercheat indem sie bei der AF Blume bessere AF Qualität fahren als schlussendlich bei den Games. (Oder mehrere Redaktionen sind zu dumm die ATI richtig einzustellen in Games) ;)

Ja genau und wahrscheinlich hat ATI auch noch die Mondlandung gefälscht.

Botcruscher
2010-03-30, 20:32:04
Lautstärke: http://www.tweaktown.com/articles/3204/nvidia_geforce_gtx_470_video_card_overclocked/index16.html

Leistungsaufnahme: http://www.tweaktown.com/articles/3204/nvidia_geforce_gtx_470_video_card_overclocked/index17.html


Interessant. Runtertakten führt zu mehr verbrauch. :confused:

Gast
2010-03-30, 20:34:15
Lautstärke: http://www.tweaktown.com/articles/3204/nvidia_geforce_gtx_470_video_card_overclocked/index16.html

Leistungsaufnahme: http://www.tweaktown.com/articles/3204/nvidia_geforce_gtx_470_video_card_overclocked/index17.html

Genau im das raussuchen das am besten zur Weltanschauung passt. Da müssen sich dann ja sämtlich seriösen Redaktionen geirrt haben.

Raff
2010-03-30, 20:34:26
BTW, ich hab jetzt schon mehrmals gelesen dass der Kühler der 470 schlechter sein soll als der des grossen Bruders? Was ist denn genau anders an dem Ding?

Guckst du Text und Bild0rs: http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=2

Die GTX 470 hat eine Heatpipe weniger und 'ne kleinere Kühlfläche, etc.

MfG,
Raff

LovesuckZ
2010-03-30, 20:35:10
Interessant. Runtertakten führt zu mehr verbrauch. :confused:

Das sind Messungenauigkeiten. Der Stromverbrauch liegt bei 14% höhrerer Taktung exakt auf dem selben Niveau.

GTX480_Käufer
2010-03-30, 20:39:55
Ja genau und wahrscheinlich hat ATI auch noch die Mondlandung gefälscht.

Danke für diesen höchst Konstruktiven Post.

Für alle anderen:
HD5870 AI Standard: http://www.pcgameshardware.de/screenshots/original/2010/03/Cypress_DX10_A.I._Standard.png

GTX 480 Quality + Tri-Opt: http://www.pcgameshardware.de/screenshots/original/2010/03/GF100_DX10_Q.png

Also meiner Meinung nach sieht das Bild der GTX480 um Welten besser aus, die Bugwellen bei der HD5870 sind grässlich.
Wer auf dem Bild der ATI keine Bugwellen sieht mit dem brauche ich garnicht weiterdiskutieren.

Gast
2010-03-30, 20:40:37
Das sind Messungenauigkeiten. Der Stromverbrauch liegt bei 14% höhrerer Taktung exakt auf dem selben Niveau.
Aber warum? Kann das jemand erklären?

Gast
2010-03-30, 20:41:13
XFX Jumps Off GTX 480 / GTX 470 Ship

http://www.hardwarecanucks.com/news/video/xfx-jumps-gtx-480-gtx-470-ship/


Vermutung: Nach den Launch-Karten ist Fini mit Termi-Fermi

OC_Burner
2010-03-30, 20:47:25
Dass die Karte jedoch 50 Watt fürs Nichtstun saugt, ist inakzeptabel – und angesichts der guten 30 Watt einer GTX 470 unverständlich.

Die 20W kommen vielleicht nur von der größeren Speichermenge. Wenn ja dann will ich mir nicht ausmalen wie groß der Verbrauch bei einem eventuellem Refresh samt 3GB VRAM sein wird;(


Wie sind denn die IDLE Taktraten und Spannungen bei einer GTX470?


Wenn ich mir die Spannungen bei der GTX480 GPU so ansehe gibt es keine "2D-Spannungen". Laut der Tabelle von ht4u.net (http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index10.php) weißt die GTX480 zwischen 3D und 2D gerade mal 7mV Unterschied auf! Das kann mann locker als Messtoleranz bezeichnen. Eine GTX280 hat zum Vergleich dagegen ganze 150mV Unterschied vorzuweisen.

Frank1974
2010-03-30, 20:58:16
XFX Jumps Off GTX 480 / GTX 470 Ship

http://www.hardwarecanucks.com/news/video/xfx-jumps-gtx-480-gtx-470-ship/


Vermutung: Nach den Launch-Karten ist Fini mit Termi-Fermi

Ich hoffe Nvidia nimmt die Firmen die jetzt abspringen nie wieder auf, wenn Nvidia wieder etwas hat, was unschlagbar ist, wie G80 zb.
So etwas kann sich schnell rächen.

Man sollte auch in schlechteren Zeiten zu beiden Firmen(ATI/Nvidia) halten.


mfg
Frank

Raff
2010-03-30, 21:01:12
Bei Firmen geht's – im Gegensatz zu vielen Käufern ;) – nicht um Sympathien, sondern um Geld. Oder noch besser: um Gewinn. Die werden nicht aus Spaß zweigleisig oder ignorieren eine Produktlinie. Das tun die nur, wenn es sich irgendwie positiv auf die Bilanz auswirkt. Da konnte man sich wohl nicht einig werden. Und bei Xfx war eine Abkehr von Nvidia bereits mit der Aufnahme von Radeons ins Programm eindeutig erkennbar.

Die 20W kommen vielleicht nur von der größeren Speichermenge. Wenn ja dann will ich mir nicht ausmalen wie groß der Verbrauch bei einem eventuellem Refresh samt 3GB VRAM sein wird;(

20 Watt für popelige 256 MiB? Da muss noch etwas anderes kaputt sein. Vermutlich addieren sich diverse Kleinigkeiten (Phasen, VRAM, Spannungen) zusammen.

MfG,
Raff

Gast
2010-03-30, 21:01:49
Ich hoffe Nvidia nimmt die Firmen die jetzt abspringen nie wieder auf, wenn Nvidia wieder etwas hat, was unschlagbar ist, wie G80 zb.
So etwas kann sich schnell rächen.

Man sollte auch in schlechteren Zeiten zu beiden Firmen(ATI/Nvidia) halten.


mfg
Frank

Und das um jeden Preis?

Gast
2010-03-30, 21:07:47
XFX wurde ausgeschlossen weil die jetzt auch ATI im Sortiment haben. Deswegen kein Fermi für XFX.

http://www.techspot.com/news/38408-xfx-will-not-offer-fermibased-graphics-cards-at-launch.html

"Speculation is that Nvidia is punishing this highly successful brand by cutting them off from the initial batch of GeForce GTX 480 and 470 cards as a result of their decision last year to start selling ATI. According to Legit Reviews".

Gast
2010-03-30, 21:08:52
@Raff

Auch wenn mein Beitrag wieder einmal gelöscht wurde, frage ich dich halt direkt. Was soll sowas:

"Die Benchmarks belegen deutlich, dass die Geforce GTX 480 und die Geforce GTX 470 das Maß der Dinge sind. Die Karten von AMD reichen leistungsmäßig nicht an Nvidias neue Genration heran."

Anhand eines Benchmarks solche Aussagen zu machen ist mehr als unglücklich.

"Unter Last ist die ähnlich flotte HD 5870 etwas sparsamer."

Bezogen auf die GTX470 ist diese Aussage auch merkwürdig.

Raff
2010-03-30, 21:10:44
Ich habe zwar keine Lust auf eigenartige Diskussionen, aber die Aussage bezieht sich ja wohl eindeutig auf WoW, denn was du zitierst ist ein WoW-Artikel für WoW-Fans. Alles andere ist im Haupt-Test zu lesen.

MfG,
Raff

Schlammsau
2010-03-30, 21:13:04
XFX wurde ausgeschlossen weil die jetzt auch ATI im Sortiment haben. Deswegen kein Fermi für XFX.

http://www.techspot.com/news/38408-xfx-will-not-offer-fermibased-graphics-cards-at-launch.html

"Speculation is that Nvidia is punishing this highly successful brand by cutting them off from the initial batch of GeForce GTX 480 and 470 cards as a result of their decision last year to start selling ATI. According to Legit Reviews".

:confused:

Sie haben doch schon seit der HD4xxx Serie Radeons im Angebot!

Warum sollten sie gerade jetzt, deswegen rausfliegen?

y33H@
2010-03-30, 21:16:07
Weil jetzt Fermi da ist?

Gast
2010-03-30, 21:16:58
:confused:
Sie haben doch schon seit der HD4xxx Serie Radeons im Angebot!

Warum sollten sie gerade jetzt, deswegen rausfliegen?

Ich denke mal NV war sauer weil XFX Exklusivpartner von NV ist. Ich kenne die Verträge nicht, keine AHnung ob XFX Verträge gebrochen hat.

Ich gebe auch nur wieder was ist den News steht;)

IVN
2010-03-30, 21:18:47
@Raff

Auch wenn mein Beitrag wieder einmal gelöscht wurde, frage ich dich halt direkt. Was soll sowas:

"Die Benchmarks belegen deutlich, dass die Geforce GTX 480 und die Geforce GTX 470 das Maß der Dinge sind. Die Karten von AMD reichen leistungsmäßig nicht an Nvidias neue Genration heran."

Anhand eines Benchmarks solche Aussagen zu machen ist mehr als unglücklich.

"Unter Last ist die ähnlich flotte HD 5870 etwas sparsamer."

Bezogen auf die GTX470 ist diese Aussage auch merkwürdig.

Ich sags dir. Das nennt sich Diplomatie. Weil PCGH-Leute am kürzeren Hebel sitzen (i.V. zu den Herstellern), müssen sie auf die Wortwahl genau aufpassen. Andernfalls bekommen sie beim nächsten Release keine Karten, und können nach so Paar vermasselten Releases die Bude zumachen.

Aber was für ne Wortwahl hättest du denn gerne?

"Die neueste Nv-Generation deklassiert die Radeons zu Kinderspielzeug"?

oder

"Die neuen Geforces verbrauchen mordsmässig viel Strom...in unseren Benchmarkräumen herrscht seit dem Eintreffen der Karten El Nino"?

:rolleyes:

Schlammsau
2010-03-30, 21:20:36
Weil jetzt Fermi da ist?

Was hat das mit Fermi zu tun?

War doch zu HD4000er und GTX2xx Zeiten auch nicht anders.

Ich denke die Margen sind XfX bei Fermi zu gering bzw knebelt nVidia zu sehr.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7938242#post7938242

Raff
2010-03-30, 21:20:36
Die Hersteller sind überhaupt kein Problem. Das Problem sind selektiv lesende Nutzer, die jeden grenzwertig formulierten Satz zu einem "Bias" umformen, Flammen speien und damit Rufmord betreiben. :rolleyes:

MfG,
Raff

Gast
2010-03-30, 21:24:23
Ich sehe auch nix schlimmes am WoW Artikel. Man kanns auch übertreiben;)

WoW liegt Fermi halt besser.

Gast
2010-03-30, 21:27:48
Warum fallt ihr den immer wieder durch solche "unglücklichen" Formulierungen auf? Da muss man kein AMD-Fanboy sein, sondern ich kenne auch einige die keinen der beiden Hersteller bevorzugen und denen ich das auch abnehmen und die sehen das teilweise genauso.

Und das euch das immer wieder (speziell euch) vorgeworfen wird, kommt einfach nicht von ungefähr.

Raff
2010-03-30, 21:29:36
Wer mit Inbrunst suchet, der findet schon irgendwas. Und wenn doch kein geeigneter Satz dabei ist, dann reißt man ihn einfach wie oben aus dem Artikel-Kontext und fasst ihn als allgemeingültiges Fazit auf. :ulol: Zurück zu Thema, bitte.

MfG,
Raff

Gast
2010-03-30, 21:33:29
Richtig, btt. Ich warte jetzt nur auf Alernativlösungen für die 470. Die hab ich im Auge. Hoffe MSI zieht da noch nach, so eine 470 im Stile der 5870 lightning würde gefallen:)

pXe
2010-03-30, 21:35:40
Ich sehe auch nix schlimmes am WoW Artikel. Man kanns auch übertreiben;)

WoW liegt Fermi halt besser.


Benchmark mit SSAA wären interessant gewesen.


pXe

Chris2CB
2010-03-30, 21:36:38
Was ist denn der Unterschied zwischen "vollkommen winkelunabhängig" und "winkelunabhängig"?
Schade, wenn man weiß, wo 3DCenter.de mal war, ist der Abstieg sehr bedauerlich.


Muss man nochmal aufmerksam drauf machen wo nun die Unterschiede sind. Es gibt hier im Forum genug Probleme mit der Kommunikation.

Entweder ist es Winkelabhängig oder Winkelunabhängig.

y33H@
2010-03-30, 21:49:14
@ Schlammsau

XFX hatte schon GTX200 im Angebot, bevor sie die HD4k aufgenommen haben. Und nun zieht NV mit der neuen Generation eventuell einen Strich drunter. Und XFX muss sich ohne NV, dafür aber als Neuling bei AMD behaupten.

downforze
2010-03-30, 21:56:40
Bei 100W Mehrverbrauch auf Last zur 5870 ist die 480 für mich uninteressant geworden. Strom wird sicher nicht preiswerter, das macht die Karte noch teurer.

Gast
2010-03-30, 21:56:42
Ich habe die Story mit XFX aber auch schon andersherum gelesen, nämlich das XFX keinen Bock auf Fermi hatte, weil man wohl nicht glaubt damit ein einträgliches Geschäft zu machen. Wie die Gerüchte über die Verfügbarkeit aussehen brauche ich wohl nicht erwähnen.

Gast
2010-03-30, 21:57:08
@ Schlammsau

XFX hatte schon GTX200 im Angebot, bevor sie die HD4k aufgenommen haben. Und nun zieht NV mit der neuen Generation eventuell einen Strich drunter. Und XFX muss sich ohne NV, dafür aber als Neuling bei AMD behaupten.

XFX hat selbst gesagt das sie kleinere NV-Modelle schon bringen werden, von daher ergibt das keinen Sinn.

Gast
2010-03-30, 22:02:24
Fermi hat einen Nachteil (Die große im speziellen). Das ist halt der Stromverbrauch der einhergeht mit der Lautstärke. Über Performance im Speziellen DX11 zu nennen, gibts ja wohl nix zu mäkeln. Aber wer 500 Euro für Fermi ausgibt wird auch Geld für ne Wakü über haben. Das ist halt wie bei den Ultra Karten früher, ein Premiumprodukt.

Mir kommt es teilweise so vor, als ob sich einige Fermi nicht leisten können und deshalb die Ausrede Stromverbrach suchen. Ja, ist ein Makel, aber die Karte bringt dafür die beste DX11 Leistung. Ich bin auf zukünftige Spiele gespannt, da wird sich Fermi noch mehr abheben.

Black-Scorpion
2010-03-30, 22:06:27
Was hat das mit leisten können zu tun?
Wenn ich in Office was schreibe brauche ich und andere ganz sicher keine Heizplatte im Rechner.
Es geht hauptsächlich um den Idle Verbrauch.

Gast
2010-03-30, 22:09:10
50? Watt vs. 25-30? im Idle. Was meinst du mit Herdplatte im idle? Kann ich mir nicht vorstellen. Waren glaub ich 45 Grad bei der 470. 480 wird auch in dem Bereich sein. Und du redest von Herdplatte?

Gast
2010-03-30, 22:11:06
@Black-Scorpion

Ja, Fermi ist ne Herdplatte unter Last. Abhilfe wie und warum hab ich über deinem Beitrag geschrieben;)

Gast
2010-03-30, 22:12:55
Mir kommt es teilweise so vor, als ob sich einige Fermi nicht leisten können

komm jetzt nicht mit der Apple Sozialneid-Keule an

ich könnt mir locker 3 480er leisten, hab aber eine 5870 drinn und bin
glücklich

Sascha1971
2010-03-30, 22:13:56
Kann man schon irgendwo die 480er mit nicht standart Kühler vorbestellen ?
(z.B. die Pallit)

AYAlf_2
2010-03-30, 22:16:17
LOL? unnütze Physx. Das einzige was immer unnütz ist sind deine Troll Beiträge!
physix ist unnuetz .. war es auch schon mit ageia... dx11 regelt!
hat nix mit nvidia zu tun. :rolleyes:

y33H@
2010-03-30, 22:19:35
PhysiX gibt es nicht, ergo kann es nicht unnütz sein ...

Gast
2010-03-30, 22:20:28
Zum Thema PhysX. Ageia wurde von NV geschluckt. NV wirbt jetzt in jedem Blockbuster mit PhysX (Pumpt schwer Geld da rein). Und hier reden einige Hardcorefans PhysX Tod. Amüsant.

AYAlf_2
2010-03-30, 22:21:05
PhysiX gibt es nicht, ergo kann es nicht unnütz sein ...
fangen wir jetzt mit haarspaltereien an?:freak:

LovesuckZ
2010-03-30, 22:24:50
Soso, DX11 regelt. Aber auch nur, wenn man PhysX bashen kann, ha?

Gast
2010-03-30, 22:25:32
NV wertet die ganzen Konsolenports wenigstens optisch auf. ATI-Besitzer bekommen optische Konsolenkost. Nur weil man eine ATI im Rechner hat muss man nicht so über PhysX herziehen. Ich bin froh das NV wenigstens was für seine Käuferschicht macht. Für mich sehr wohl ein Kaufgrund und alles andere als Tod.

AYAlf_2
2010-03-30, 22:29:31
Soso, DX11 regelt. Aber auch nur, wenn man PhysX bashen kann, ha?
dein statement blick ich nicht .. sorry.

NV wertet die ganzen Konsolenports wenigstens optisch auf. ATI-Besitzer bekommen optische Konsolenkost. Nur weil man eine ATI im Rechner hat muss man nicht so über PhysX herziehen. Ich bin froh das NV wenigstens was für seine Käuferschicht macht. Für mich sehr wohl ein Kaufgrund und alles andere als Tod.
leider ist physx nicht gestorben. noch ein feature was die welt nicht braucht, das es auch anders geht .. wir wir ja alle wissen ;).

Gast
2010-03-30, 22:29:53
wenn es stimmt, dass die fermis von nv nur mit bundles der alten chips verkauft werden, kann ich mir gut vorstellen wenn da der ein oder andere partner ziemlich angepisst ist. über unmut bei den partnern hat heise ja auch schon berichtet. seit monaten nichts konkurenzfähiges zu den hd5k karten, hat nv seine partner am ausgestreckten arm verhungern lassen. ich könnte mir vorstellen, dass das finanzielle kosequenzen für die partner hatte. und das der fermi jetzt nicht der erhoffte überflieger ist, macht es nur noch schlimmer für sie. bei der presse ist er ja insgesamt gesehen nicht besonders gut weggekommen. das macht die karten relativ schwer verkäuflich. wenn das mit der garantie so stimmt und wenn man jetzt hört, dass die partner schon eigene boarddesigns machen dürfen, könnte man denken, dass nv nicht viel vertrauen in die langzeitqualität der ersten generation setzt. bei den rückläufern aus eigener herstellung hat man wohl keine wahl, aber wenn die partner eigene boards mit (gezwungenermaßen) besserer = teureren kühlung bauen, kann man das risiko bei defekten ja auf sie abwälzen. ne, ne, so was kaufe ich garantiert nicht...da bin ich nicht bescheuert genung für.

Schlammsau
2010-03-30, 22:32:57
NV wertet die ganzen Konsolenports wenigstens optisch auf. ATI-Besitzer bekommen optische Konsolenkost. Nur weil man eine ATI im Rechner hat muss man nicht so über PhysX herziehen. Ich bin froh das NV wenigstens was für seine Käuferschicht macht. Für mich sehr wohl ein Kaufgrund und alles andere als Tod.

Dummerweise ist PhysX keine wirkliche Aufwertung.

Games mit PhysX sehen anders aus ja....aber ob besser aussieht ist reine Geschmackssache. Einzig allein bei Mirrors Edge sieht man eine Bildqualitätssteigerung. Alle anderen Titel übertreiben es masslos mit den Effekten. Meine Meinung!

Gast
2010-03-30, 22:35:45
Just Cause 2 wird klar aufgewertet. Da würde ich schonmal als Tester mehr Prozente bei der Grafik mit 260/280/285 Karte geben. Und wie wir wissen ist das ein typischer Konsolenport.;)

Gast
2010-03-30, 22:38:42
Mafia 2 steht auch schon fast vor der Tür und was ich gesehen habe im PhysX Trailer hat mir persönlich auch gefallen. Auch hier wird NV vorne liegen.

y33H@
2010-03-30, 22:39:46
Der "Bokeh"-Filter (klingt wie ein japanischer Kampfruf :ulol: "Bokeh! Bokeh! Bokeh!") ist imo fürn Ar***, das CUDA-Wasser aber rockt.

Dafür ertrinken die Fps ;D

LovesuckZ
2010-03-30, 22:41:30
Der "Bokeh"-Filter (klingt wie ein japanischer Kampfruf :ulol: "Bokeh! Bokeh! Bokeh!") ist imo fürn Ar***, das CUDA-Wasser aber rockt.

Dafür ertrinken die Fps ;D

Wie siehts mit der GTX480 aus? Deutliche Leistungssteigerung gegenüber der GTX285?

Gast
2010-03-30, 22:43:32
Und damit es nicht mehr ruckelt gibts ja jetzt die GTX470/480. Ich würde da gerne benches sehen.

IVN
2010-03-30, 22:45:48
Der "Bokeh"-Filter (klingt wie ein japanischer Kampfruf :ulol: "Bokeh! Bokeh! Bokeh!") ist imo fürn Ar***, das CUDA-Wasser aber rockt.

Dafür ertrinken die Fps ;D
Wahrscheinlich deswegen, weil es Japanisch ist. ;)

Raff
2010-03-30, 22:47:07
Wahrscheinlich deswegen, weil es Japanisch ist. ;)

Hehe, ich zitiere mal den da (http://www.andreashurni.ch/equipment/bokeh.htm):

Apparently there was an English-born Canadian, who while vacationing in Japan was shown some pictures of the English Royal Family. In the background, quite out of focus, was Prince Phillip. The Canadian pointed to Prince Phillip and said to his Japanese host, "Now there's a great bloke, eh?"

MfG,
Raff

y33H@
2010-03-30, 22:47:19
@ IVN

Running Gag versaut :tongue:

IVN
2010-03-30, 22:48:29
Hehe, ich zitiere mal den da (http://www.andreashurni.ch/equipment/bokeh.htm):

Apparently there was an English-born Canadian, who while vacationing in Japan was shown some pictures of the English Royal Family. In the background, quite out of focus, was Prince Phillip. The Canadian pointed to Prince Phillip and said to his Japanese host, "Now there's a great bloke, eh?"

MfG,
Raff
Hahaha, köstlich!

y33H@
2010-03-30, 22:50:19
@ LZ

Ich tippe mal grob auf +60% von GTX285 auf GTX480.

Don Vito
2010-03-30, 22:56:56
@ LZ

Ich tippe mal grob auf +60% von GTX285 auf GTX480.


Also kurz um: im Schnitt vergleichbar mit 2x 285gtx in SLI zu einer gtx 480

AnarchX
2010-03-30, 22:57:24
Bei Guru3D hat man Just Cause 2 mit und ohne CUDA-Effekte getestet:
http://www.guru3d.com/article/geforce-gtx-470-480-review/25

Gast
2010-03-30, 23:00:30
hoho. Heftig wie hier die 5870 von einer 470 abgezogen wird:)

mictasm
2010-03-30, 23:03:32
Also kurz um: im Schnitt vergleichbar mit 2x 285gtx in SLI zu einer gtx 480
Ich ... darf ... nicht ... schwach werden...

Ich würde ja gerne mal Ergebnisse sehen von 285GTX 2GB SLI zur GTX 480. Aber das dauert wahrscheinlich noch bis zur Verfügbarkeit.

Gast
2010-03-30, 23:03:39
Also kann man mit eyecandy Just Cause 2 auf einer 470 flüssig spielen. Gut zu wissen.

Gast
2010-03-30, 23:05:41
zu nv´s heldenhafter unterstützung der hersteller:

nachdem die hersteller jetzt erkannt haben, dass es durch nv´s twimtbp etwas zu holen gibt, wird das natürlich ausgenutzt. was manchmal dabei rauskommt haben wir ja schon bei games wie assasins creed und batman gesehen. so zwingt man den zweiten großen grafikchiphersteller dazu es dem ersten gleich zu tun um nicht benachteiligt zu werden.

eine beunruhigende entwicklung finde ich.

was kommt denn als nächstes ? muss bald auch creative, logitech, realtek, amd und intel und ein paar andere sich auf ähnliches gefasst machen wenn die keine manpower oder kohle rüberwachsen lassen ? was machen die dann überhaupt noch selbst ? nur abkassieren ?

Gast
2010-03-30, 23:07:52
Aber die 480 geht ja in Just Cause 2 sowas von ab. Das ist schon pervers.

AYAlf_2
2010-03-30, 23:14:46
zu nv´s heldenhafter unterstützung der hersteller:

nachdem die hersteller jetzt erkannt haben, dass es durch nv´s twimtbp etwas zu holen gibt, wird das natürlich ausgenutzt. was manchmal dabei rauskommt haben wir ja schon bei games wie assasins creed und batman gesehen. so zwingt man den zweiten großen grafikchiphersteller dazu es dem ersten gleich zu tun um nicht benachteiligt zu werden.

eine beunruhigende entwicklung finde ich.

was kommt denn als nächstes ? muss bald auch creative, logitech, realtek, amd und intel und ein paar andere sich auf ähnliches gefasst machen wenn die keine manpower oder kohle rüberwachsen lassen ? was machen die dann überhaupt noch selbst ? nur abkassieren ?

das ist was ich schon die ganze zeit sage .. abgesehen von den leistungen die nvidia erbracht hat .. zerstoeren sie das komplett pc geschaeft. raffen hier aber nur wenige.
wenn ati auch damit anfangen wuerde .. waere in spaetestens 5 jahren, 2 lager von grundverschiedener hardware und spielen gegeben. das will nvidia... warum weiss ich nicht?!

Gast
2010-03-30, 23:17:29
Gehört hier zwar nicht hin, aber das muss ich mal schreiben. Ich hoffe für alle ATI`ler das sich ATI auch mal so stark in die Entwicklung mit einbringt. Und anstatt hier über NV zu motzen, motzt doch im ATI-Forum! Das bringt mehr, vielleicht wachen die mal auf.:)

Gast
2010-03-30, 23:26:09
das ist was ich schon die ganze zeit sage .. abgesehen von den leistungen die nvidia erbracht hat .. zerstoeren sie das komplett pc geschaeft. raffen hier aber nur wenige.
wenn ati auch damit anfangen wuerde .. waere in spaetestens 5 jahren, 2 lager von grundverschiedener hardware und spielen gegeben. das will nvidia... warum weiss ich nicht?!
Stimm, voll scheisse.
Ich finde AA Unterstützung gehört nicht ein modernes Spiel. Deshalb sollten wir AMD unterstützen, die durch nichtstun diesen Fortschritt gewähren lassen.

LovesuckZ
2010-03-30, 23:34:39
Ich wundere mich ja schon seit einiger Zeit, wieso eigentlich immer alles von nVidia unwichtig ist, aber das exakte Gegenbild von AMD gelobt wird. Da pusht nVidia GPU-Physik seit bald 2 Jahren und wird kritisiert. Aber die selben Leute freuen sich, dass AMD GPU-Physik ebenfalls pusht. Verstehe einer die Welt.

Gast
2010-03-30, 23:38:39
AMD geht halt nach dem Motto sell, sell, sell. Und danach die Sintflut. Kommt mir so vor. Keinerlei Investition oder Innovation. Was erwarten die? Das die Entwickler umsonst auf ATI-Hardware programmieren? Das geht heutzutage nicht mehr.

AYAlf_2
2010-03-30, 23:43:45
so ein schmarn .. das gibt es ueberhaupt nicht .. wie kann man nur so pro nvidia sein. nvidia hat fuer physx gar nix getan .. hat gewartet bis es auf den markt kam .. gestorben ist .. und hat es dann aufgekauft .. nueschts hat nvidia investiert ..

mhh kommt mir irgendwie bekannt vor.... :freak:

Gast
2010-03-30, 23:45:58
Ja genau, NV hat nix investiert. Immer mehr suspekte ATI Menschen hier. Warum spielt ihr nicht anstatt hier zu trollen?

tb
2010-03-30, 23:50:04
Naja es ist doch ein ganz normaler Gedanke.
Mir persönlich sind auch schon 2 Grafikkarte gestorben und bei solchen Temperaturen und Stromdichten macht man sich automatisch Gedanken über die Lebensdauer.

Ich bin z.B. jemand, der seine Grafikkarte aus finanziellen Gründen sehr lange behält. Für mich hat dies also eine größere Bedeutung als für jemanden, der beim 4xx Refresh gleich wieder umsteigt.

Ich bin mir sicher, dass die Chips jetzt nicht reihenweise ausfallen, aber man hat ja auch bei den Notebooks gesehen, dass manchmal einfach zu knapp kalkuliert wird. Das trifft ja uns. Insofern ist Konkurrenz wieder was schlechtes.

Optimal wäre es, wenn eine Seite die Karte mal 24/h/d in Furmark laufen lassen könnte. Aber es darf ja kaum einer die Karten behalten und zerstören will sie auch keiner. Würde ich auch nicht.

Bisher hab ich noch keine verbünftigen Tests zum Thema Lebensdauer von Grafikkarten gesehen. Dazu müssten mehrere Karte in normalen Systemen (kein offenes Mainboard auf nem Tisch mit nem Monsterlüfter) über Monate im Einsatz sein, nicht im Dauereinsatz, denn dann fehlt ja der Kühlzyklus.

Gerade bei Laptops ist die Anfälligkeit durch normalen Staub recht hörbar, ab einem Jahr sind die Lüfter deutlich aktiver als kurz nach dem kauf, so gings mir bei den letzten 3 Laptops (HP, Toshiba, Acer).

Thomas

LovesuckZ
2010-03-30, 23:50:17
Wieso, er hat doch recht. Ageia's 8800GTX war eine exellente Grafikkarte. Aber dann wurden sie von nVidia aufgekauft. Seitdem ist nVidia auch im Geschäft mit Grafikkarten. Die können echt nichts selbst entwickeln. :mad:

tb
2010-03-30, 23:51:58
Battleforge ohne Screen Space Ambient Occlusion:
http://benchmarkreviews.com/images/reviews/video_cards/GeForce_GTX480/BattleForge_No-SSAO_Benchmark.jpg

Und mit:
http://benchmarkreviews.com/images/reviews/video_cards/GeForce_GTX480/BattleForge_DX11_Benchmark.jpg
http://benchmarkreviews.com/index.php?option=com_content&task=view&id=480&Itemid=72&limit=1&limitstart=7

Was macht GF100 in Battleforge eigentlich so schnell?

Frag mal Demirug, der kennt den Code.

tb
2010-03-30, 23:58:57
Ok, FanATIker- hier ein Geschenk für euch: 370 Watt (Furmark) :ulol:

http://benchmarkreviews.com/index.php?option=com_content&task=view&id=480&Itemid=72&limit=1&limitstart=14

NV scheint also schon jetzt auf die PCI-e Spec zu pissen :lol:

p.s.: vorrausgesetzt deren Meßmethode ist korrekt, was ich bezweifle, denn der Rest des PCs arbeitet bei Last der Gpu auch stärker :|

"To be fair, our GeForce GTX 480 was an engineering sample, and although several other reviewers I've discussed this with have experienced the same high power consumption, it's unclear if retail parts will be built from the same yield. "

Seriöse Benchmarks und gerade Verbrauchsmessung mit "engineering samples" zu machen halte ich für unsinnig.

Thomas

Nazar
2010-03-31, 00:43:58
Wer mit Inbrunst suchet, der findet schon irgendwas. Und wenn doch kein geeigneter Satz dabei ist, dann reißt man ihn einfach wie oben aus dem Artikel-Kontext und fasst ihn als allgemeingültiges Fazit auf. :ulol: Zurück zu Thema, bitte.

MfG,
Raff

Man muss da gar nichts suchen, man muss nur zwischen den zeilen lesen können.
Bei Euch ist es nun mal ersichtlich an der Tatsache, dass ihr nicht müde werdet bei Fehlern von nV unnötige Vergleiche mit ATI zu machen. O-Ton: klar ist AA bei nV nicht so toll, dafür muss sich ATI aber gefallen lassen, das ihr AF viel stärker unter AI Standard zum Flimmern neigt, als nV bei Q.
Wenn es aber in einem Artikel z. bei ATI um das super gute 8*AA geht, wird nicht etwa auf die Schwäche bei nV in diesem Bereich verwiesen, sondern auf das "super schlechte" Flimmer AF bei ATI.

Das sind eigentlich nur "Kleinigkeiten" ABER Eure Art zeigt dem aufmerksamen Leser (auch ohne Inbrünstige Suche), dass ihr es tunlichst unterlasst nVs Schwächen deutlich zu machen und wenn es mal gar nicht anders geht, nicht müde werdet gleich auf Schwächen AMDs zu verweisen aber nicht umgekehrt (s.o.).

Dadurch werden zwar Eure Aussagen nicht falsch, doch ist ein Trend in fast jedem Artikel unterschwellig erkennbar und der ist nicht neutral AMD.

Man muss schon sehr voreingenommen sein, um das nicht zu bemerken.

Chris2CB
2010-03-31, 07:24:14
Man muss da gar nichts suchen, man muss nur zwischen den zeilen lesen können.
.

Problem: ihr könnt das nicht, dein Text beiweist dies auch Eindrucksvoll.

Gast
2010-03-31, 07:59:00
Niemand ist neutral, wie sollte man auch...! Deswegen sollte man sich aufgrund einer Aussage auch niemals eine Meinung bilden! Und selbst wenn man sich dann mehrer Aussagen angehört hat um sich dann eine Meinung zu bilden wird man festellen (wenn man neutral wäre) das man nicht neutral sein kann ;-)

Mr. Lolman
2010-03-31, 08:25:27
Gibt es eigentlich schon eine Stellungnahme von Ati warum die Bildqualität in Crysis Warhead verschlechtert wurde?

Gibts eine Stellungnahme von Nvidia warum die Bildqualität in Fracry2 verschlechtert wurde?* ;)

Außerdem zeigen ATi Karten in Crysis Warhead iirc immernoch die schöneren Schatten an.



*Was soll diese nona-Frage, außer dass man im Thread wieder daraufhinweist, dass nicht alles so rot-grün ist, wies uns die IHVs verkaufen wollen...


Dass die Karte jedoch 50 Watt fürs Nichtstun saugt, ist inakzeptabel

Viel schlimmer ist, dass sie sich gleich nochmal zusätzliche 50W genehmigt, sobald man zB eine Webseit im Browser öffnet....

Gast
2010-03-31, 08:37:33
Die Makro-Spielverderber sind bei MGPU aber nicht alles. Erst kürzlich probierte ich wieder ein paar Spiele mit 16x SGSSAA aus (HD 5870 mal zwei). Wenn es mal geht, schaut es sehr geil aus (beispielsweise in HL2). Aber nicht geiler als 8x SGSS + ED-Filter (was deuuuutlich schneller läuft). Hinzu kommt die Eingabeverzögerung – die ist prinzipbedingt immer da.[Kurzer Zwischruf]
Hmm, komische Formulierung. Klingt zuerst danach, als gäbe es Inputlag und MR auch bei den MGPU-AA-Modis, was natürlich nicht stimmen würde. Inputlag kommt durchs AFR, wenn die GPUs also an unterschiedlichen Bildern arbeiten. Bei SLI-AA oder ATIs Crossfire-16x rechnen sie aber gemeinsam am gleichen Bild, ergo kein AFR, daher auch kein AFR-Inputlag.
Natürlich wolltest du auf die generelle Problematik von MGPU durch AFR anspielen, es liest sich nur anders.
[/Kurzer Zwischenruf]

b2t:
Schon neue SLI-AA-Modi aufgetaucht? Wenn die Abtastmuster jetzt voll programmierbar sind sollten die wesentlich besser ausfallen können als die doch recht besch...eidenen SLI-AA-Modi auf Prä-GF100-GFs. Vielleicht bekommen auch die alten SLI-AA-Modi endlich mal brauchbare Abtastmuster?

Gast
2010-03-31, 09:05:10
Gibts eine Stellungnahme von Nvidia warum die Bildqualität in Fracry2 verschlechtert wurde?* ;)

Außerdem zeigen ATi Karten in Crysis Warhead iirc immernoch die schöneren Schatten an.


Quelle (mit Screens) für beide Behauptungen?

Mr. Lolman
2010-03-31, 09:19:26
Quelle (mit Screens) für beide Behauptungen?

gibts bei PCGH. Müsst ich mal raussuchen. Oder du machst es selbst. Crysis war beim Artikel über Catalyst 9.3 (iirc), Farcry2 bei irgendeinem NV Treiberreview (afaik). Die PCGH-Leut sollten aber eh wissen wovon ich rede.

Iruwen
2010-03-31, 09:24:47
Unter Last gleich laut wie eine 280?
Also alles was ich bis jetzt auf Videos gehört habe, war lauter.

99% der Videos sind ja auch BS und im Idle schon schreiend laut.
http://www.guru3d.com/news/geforce-gtx-480-noise-levels-debunked/

Exxtreme
2010-03-31, 09:37:15
Seriöse Benchmarks und gerade Verbrauchsmessung mit "engineering samples" zu machen halte ich für unsinnig.

Thomas
Wenn man nix anderes zur Hand hat muss man darauf zurückgreifen. =)

Ausserdem ist jetzt die Frage ob alle getesteten Grafikkarten ES waren.

Gast
2010-03-31, 09:44:07
Man muss da gar nichts suchen, man muss nur zwischen den zeilen lesen können.
Bei Euch ist es nun mal ersichtlich an der Tatsache, dass ihr nicht müde werdet bei Fehlern von nV unnötige Vergleiche mit ATI zu machen. O-Ton: klar ist AA bei nV nicht so toll, dafür muss sich ATI aber gefallen lassen, das ihr AF viel stärker unter AI Standard zum Flimmern neigt, als nV bei Q.
Wenn es aber in einem Artikel z. bei ATI um das super gute 8*AA geht, wird nicht etwa auf die Schwäche bei nV in diesem Bereich verwiesen, sondern auf das "super schlechte" Flimmer AF bei ATI.

Das sind eigentlich nur "Kleinigkeiten" ABER Eure Art zeigt dem aufmerksamen Leser (auch ohne Inbrünstige Suche), dass ihr es tunlichst unterlasst nVs Schwächen deutlich zu machen und wenn es mal gar nicht anders geht, nicht müde werdet gleich auf Schwächen AMDs zu verweisen aber nicht umgekehrt (s.o.).


Korrekt, genau das ist mir auch schon öfters aufgefallen (als NV-Nutzer). Bei ATI werden die Stärken aufgezählt, dann aber mit einem Nebensatz immer wieder entschärft bzw. relativiert. Das gibt's in der Form bei NV nicht.
Das ist nun mal der Eindruck, den die PCGH bei mir hinterlässt. Offenbar sehen das aber auch (erstaunlich viele) andere Leute so. Natürlich wird man mir gleich Befangenheit oder selektive Wahrnehmung vorwerfen, aber Probleme löst man bekanntlich nicht, indem man sie ignoriert oder immer wieder versucht, es als Einbildung einiger Leser abzustempeln. Ich lese das Heft ja trotzdem, zwar nicht regelmäßig, aber von den 12 Heften kaufe ich ca. 9. Einzig bei Grafikkartentests greife ich mittlerweile lieber auf andere Quellen zurück.

Gast
2010-03-31, 09:56:43
Wieso, er hat doch recht. Ageia's 8800GTX war eine exellente Grafikkarte. Aber dann wurden sie von nVidia aufgekauft. Seitdem ist nVidia auch im Geschäft mit Grafikkarten. Die können echt nichts selbst entwickeln. :mad:

NV hat sich ins gemachte Nest gesetzt und hätte Ageia wahrscheinlich niemals gekauft, wenn nicht Epic mit der UE3 mit PhysX angefangen hätte.
Uns PhysX als reine NV-Eigenentwicklung zu verkaufen entspricht nicht den Tatsachen und der CPU-Support ist von damals.

Zudem ist es eine der schlechtesten und unflexibelsten Physik-Engines die ich je gesehen habe. Man kann damit nur Partikeleffekte darstellen und im Multi-Threaded-Modus wird dann auch noch eine GT275 platt gemacht, lächerlich!

IVN
2010-03-31, 10:06:21
PhysX, wie es heute ist, ist eine eigene Nv-Entwicklung. Ageia hatte keinen GPU-Support, der wurde erst entwickelt, nachdem Nv Ageia aufgekauft hat.


Und wäre PhysX so schlecht, wie du es behauptest, würden es nicht so viele Soft-Schmieden verwenden.

Gast
2010-03-31, 10:10:20
Was heißt bei dir denn viele. GPU-PhysX ist immernoch schlecht verbreitet bei der CPU-Version sieht das deutlich besser aus, aber stimmt schon die Menge an GPU-PhysX-Toptiteln ist wirklich unüberschaubar.

AYAlf_2
2010-03-31, 10:11:55
PhysX, wie es heute ist, ist eine eigene Nv-Entwicklung. Ageia hatte keinen GPU-Support, der wurde erst entwickelt, nachdem Nv Ageia aufgekauft hat.


Und wäre PhysX so schlecht, wie du es behauptest, würden es nicht so viele Soft-Schmieden verwenden.

das ist falsch .. sie verwenden es nur, weil sie von nvidia dafuer bezahlt werden... damit das spiel was nvidia exclusives bekommt... spielerisch hatte physx noch nie einen mehrwert gehabt. (bis auf eine demo und die war von ageia).

IVN
2010-03-31, 10:16:52
das ist falsch .. sie verwenden es nur, weil sie von nvidia dafuer bezahlt werden... damit das spiel was nvidia exclusives bekommt... spielerisch hatte physx noch nie einen mehrwert gehabt. (bis auf eine demo und die war von ageia).

Wie heisst das doch schön? "Wenn man keine Ahnung hat..."

Mal für dich, zum mitschreiben, PhysX war - seitdem es zu Nv gehört - nie als "Gameplay-erweiternde Physik-Engine" am Markt positioniert. Was Nv damit vorhat, und was du dir vorstellst sind 2 völlig verschiedene Dinge. Nv ist nicht daran schuld, das du dir Sachen herbeifantasierst...

Was heißt bei dir denn viele. GPU-PhysX ist immernoch schlecht verbreitet bei der CPU-Version sieht das deutlich besser aus, aber stimmt schon die Menge an GPU-PhysX-Toptiteln ist wirklich unüberschaubar.

Tja, das muss man relativ sehen. In einer Zeit, wo gefühlt 90% der Spiele Konsolenports sind, ist die Verbreitung von PhysX-Titeln mehr als gut.

Exxtreme
2010-03-31, 10:21:31
Die PhysX -Diskussion bitte hier:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=422487

weiterführen.

DrumDub
2010-03-31, 10:33:57
na, dann bin ich mal gespannt bezüglich der verfügbarkeit: Still, Nvidia's Nick Stam told us last week that the firm is "building tens of thousands of units for initial availability." Whether that many cards will truly be available in mid-April—and whether that supply will be sufficient to meet demand—is anyone's guess. We'll just have to wait and see. http://www.techreport.com/articles.x/18682/2


hier der ganze test von tech-report (mit einer 5870 2GB im gepäck): Nvidia's GeForce GTX 480 and 470 graphics processors (http://www.techreport.com/articles.x/18682/1)

interessant sind die metro-ergebnisse mit tessellation. selbst mit der gtx480 unspielbar bei 1920x1080:
http://www.techreport.com/r.x/geforce-gtx-480/metro2033.gif

mironicus
2010-03-31, 10:51:11
Eine Crossfire 5870 (>60 fps) ist unter Metro schneller als eine GTX 480 SLI? War die 480 nicht stets überlegen und schneller bei diesem Spiel? ^^

DrumDub
2010-03-31, 10:57:20
Eine Crossfire 5870 (>60 fps) ist unter Metro schneller als eine GTX 480 SLI? War die 480 nicht stets überlegen und schneller bei diesem Spiel? ^^ mit tessellation sind zwei gtx 480 ja auch schneller (40 vs. 33 fps). ;)

tombman
2010-03-31, 11:07:27
Eine Crossfire 5870 (>60 fps) ist unter Metro schneller als eine GTX 480 SLI? War die 480 nicht stets überlegen und schneller bei diesem Spiel? ^^
Die Skalierung von SLI ist bei der GTX4 Serie in vielen Fällen noch schlecht- früher Treiber!
Einzeln ist die GTX480 schneller und auch bei SLI, wenn du alles reinhaust, was geht: 40fps vs 33fps
Selbst wenn man 10% höhere Auflösung nimmt, nämlich statt 1920x1080 -> 1920x1200 bleibt GTX480 SLI immer noch spielbar,
während HD5870 CF schon an der 30fps Grenze angekommen ist ;)

Gast
2010-03-31, 11:27:51
Wenn man nix anderes zur Hand hat muss man darauf zurückgreifen. =)

Ausserdem ist jetzt die Frage ob alle getesteten Grafikkarten ES waren.
Ein kleiner Anhaltspunkt:
Unsere kaputte GTX480 'verbrauchte' auch wesentlich mehr Strom als das heile Exemplar, welches gleichzeitig z.T. deutlich flinker unterwegs war. Möchte nicht wissen, wieviel Reviews das mangels zweiter Karte oder GTX470-Vergleich eventuell nicht bemerkt haben.

-Carsten

AnarchX
2010-03-31, 11:28:58
Das war wohl die 480, welche 266W unter Grid benötigt hat?

LovesuckZ
2010-03-31, 11:33:07
Ein kleiner Anhaltspunkt:
Unsere kaputte GTX480 'verbrauchte' auch wesentlich mehr Strom als das heile Exemplar, welches gleichzeitig z.T. deutlich flinker unterwegs war. Möchte nicht wissen, wieviel Reviews das mangels zweiter Karte oder GTX470-Vergleich eventuell nicht bemerkt haben.

-Carsten

Kaputt? Kannst du das erklären oder gibt es ein Special auf eurer Seite?

tombman
2010-03-31, 11:33:08
Hmm, ich krieg Bock auf 3x GTX480 :|

Gast
2010-03-31, 11:34:06
na, dann bin ich mal gespannt bezüglich der verfügbarkeit:
Zitat:Still, Nvidia's Nick Stam told us last week that the firm is "building tens of thousands of units for initial availability." Whether that many cards will truly be available in mid-April—and whether that supply will be sufficient to meet demand—is anyone's guess. We'll just have to wait and see.

http://www.techreport.com/articles.x/18682/2http://www.techreport.com/articles.x/18682/2

Hmmm, Dazu fällt mir ein Hinweis von tombman auf benchmarkreviews.com ein:
To be fair, our GeForce GTX 480 was an engineering sample, and although several other reviewers I've discussed this with have experienced the same high power consumption, it's unclear if retail parts will be built from the same yield.
http://benchmarkreviews.com/index.php?option=com_content&task=view&id=480&Itemid=72&limit=1&limitstart=14
Wieviele Reviewer haben das eigentlich erwähnt?
Das läßt beinahe vermuten, daß Nvidia nch garkeine Revision hat(te) und quasi händeringend Zeit schindet, bis die eigentliche Produktion überhaupt erst anlaufen kann...
Haltet ihr das für möglich?

MorPheuZ
2010-03-31, 11:35:33
Ein kleiner Anhaltspunkt:
Unsere kaputte GTX480 'verbrauchte' auch wesentlich mehr Strom als das heile Exemplar, welches gleichzeitig z.T. deutlich flinker unterwegs war. Möchte nicht wissen, wieviel Reviews das mangels zweiter Karte oder GTX470-Vergleich eventuell nicht bemerkt haben.

-Carsten


Wie soll man das jetz bitte verstehen?

LovesuckZ
2010-03-31, 11:36:34
Hmmm, Dazu fällt mir ein Hinweis von tombman auf benchmarkreviews.com ein:

http://benchmarkreviews.com/index.php?option=com_content&task=view&id=480&Itemid=72&limit=1&limitstart=14
Wieviele Reviewer haben das eigentlich erwähnt?
Das läßt beinahe vermuten, daß Nvidia nch garkeine Revision hat(te) und quasi händeringend Zeit schindet, bis die eigentliche Produktion überhaupt erst anlaufen kann...
Haltet ihr das für möglich?

ES Samples kommen aus den Hot Lots. Also Chips von den Testwafern. Die Produktion läuft dann zeitverzögert ein paar Wochen später ein. Das ist nichts ungewöhnliches. Die 5870 Karten waren auch alle ES Samples.

Es sollte normalerweise keine Unterschiede zwischen ES und Retailprodukt geben.

Don Vito
2010-03-31, 11:41:30
So oder so, werden es ja sehen wenn die Karten ausgeliefert werden.
Dann kann man eher vergleichen mit anderen Usern und den offiziellen Reviews.


@ PCGH Mitarbeiter, was war an der Karte nun eigtl defekt?:confused:

Mr. Lolman
2010-03-31, 11:50:35
Die Skalierung von SLI ist bei der GTX4 Serie in vielen Fällen noch schlecht- früher Treiber!

Mag sein. Andererseits ist sie Zb. bei Dirt2 schon großartig:
http://www.abload.de/img/dirt2-dx11-2560y70b.gif (http://www.abload.de/image.php?img=dirt2-dx11-2560y70b.gif)

mironicus
2010-03-31, 11:56:43
Ob die thermischen Eigenschaften der 470/480 wohl auch der Grund sind, warum XFX die Karten gar nicht verkaufen will? Ich meine das Risiko das die Karten innerhalb der Garantiezeit kaputt gehen und bei den ganzen OC-Versuchen der Enthusiasten dürfte das Risiko doch enorm sein.

Cpl. Dwayne Hicks
2010-03-31, 11:56:57
na, dann bin ich mal gespannt bezüglich der verfügbarkeit: http://www.techreport.com/articles.x/18682/2


hier der ganze test von tech-report (mit einer 5870 2GB im gepäck): Nvidia's GeForce GTX 480 and 470 graphics processors (http://www.techreport.com/articles.x/18682/1)

interessant sind die metro-ergebnisse mit tessellation. selbst mit der gtx480 unspielbar bei 1920x1080:
http://www.techreport.com/r.x/geforce-gtx-480/metro2033.gif

hmmm soviel toller ist die GTX480 ja garnicht mit D3D11 mit Tessellation... hätte gedacht dass die mehr reisst.
Hiess es nicht immer dass die GTX die HD5870 in Metro "total killen wird"?

Ein neuer Treiber wird da sicher noch was rausholen, aber vielleicht auch bei der HD58xx :wink:

AnarchX
2010-03-31, 11:58:57
Mag sein. Andererseits ist sie Zb. bei Dirt2 schon großartig:
http://www.abload.de/img/dirt2-dx11-2560y70b.gif (http://www.abload.de/image.php?img=dirt2-dx11-2560y70b.gif)
Zumal Nvidia auch selbst mit einem "linear scaling" wirbt:
http://www.elitebastards.com/hanners/nvidia/gtx400/gtx400-08.jpg
http://www.elitebastards.com/index.php?option=com_content&view=article&id=1388&catid=17%3Apreviews&Itemid=31&limitstart=1

Gast
2010-03-31, 11:59:09
XFX Jumps Off GTX 480 / GTX 470 Ship (http://www.hardwarecanucks.com/news/video/xfx-jumps-gtx-480-gtx-470-ship)

Exxtreme
2010-03-31, 11:59:19
Ob die thermischen Eigenschaften der 470/480 wohl auch der Grund sind, warum XFX die Karten gar nicht verkaufen will? Ich meine das Risiko das die Karten innerhalb der Garantiezeit kaputt gehen und bei den ganzen OC-Versuchen der Enthusiasten dürfte das Risiko doch enorm sein.
Die Frage stellt sich hier: wollen die nicht verkaufen oder dürfen sie nicht verkaufen? ;)

Diese beiden Gerüchte stehen jetzt im Raum.

LovesuckZ
2010-03-31, 12:00:49
Zumal Nvidia auch selbst mit einem "linear scaling" wirbt:
http://www.elitebastards.com/hanners/nvidia/gtx400/gtx400-08.jpg
http://www.elitebastards.com/index.php?option=com_content&view=article&id=1388&catid=17%3Apreviews&Itemid=31&limitstart=1

Ist das eigentlich eine DX11 Sache, dass SLI so gut skaliert? Oder benötigt man auch Hardwarenapassungen? Klar, der größere Framebuffer hilft, aber ansonsten?

mironicus
2010-03-31, 12:04:47
Hat XFX bisher nicht auch immer mit Lifetime-Garantie geworben und war dafür auch ein wenig teurer?

Zu einer 480 müsste der Hersteller allerdings dann auch auf den Abschluss einer Police gegen Hausbrand bestehen, was den Preis der Karte aber wohl zu sehr in die Höhe treiben würde. ;D

Gast
2010-03-31, 12:31:04
hier der ganze test von tech-report (mit einer 5870 2GB im gepäck): Nvidia's GeForce GTX 480 and 470 graphics processors (http://www.techreport.com/articles.x/18682/1)

interessant sind die metro-ergebnisse mit tessellation. selbst mit der gtx480 unspielbar bei 1920x1080:
http://www.techreport.com/r.x/geforce-gtx-480/metro2033.gif

Da haben die wohl das ganze Game durchgebencht, bis sie einen Abschnitt gefunden haben, bei dem die Ati-Karten gut skalieren und bloß nicht den Char bewegen :). Ist halt schon komisch, dass die HD5870 in der von PCGH getesteten Kampfscene gerade mal auf 3Fps Avg. kommt bei Tesselation (leider in 1920x1200 da für 1920x1080 kein Vergleichwert existiert).

Gast
2010-03-31, 12:37:10
Da haben die wohl das ganze Game durchgebencht, bis sie einen Abschnitt gefunden haben, bei dem die Ati-Karten gut skalieren und bloß nicht den Char bewegen :). Ist halt schon komisch, dass die HD5870 in der von PCGH getesteten Kampfscene gerade mal auf 3Fps Avg. kommt bei Tesselation (leider in 1920x1200 da für 1920x1080 kein Vergleichwert existiert).

Weil da PhysiX nicht an ist?

Gast
2010-03-31, 12:40:40
Mag sein. Andererseits ist sie Zb. bei Dirt2 schon großartig:

Kann es zufällig sein, dass die bei Metro AA und AF abgeschaltet haben? Das sollte dann wohl erklären, warum die Ati-Karten schneller sind als erwartet. Mit AA und AF dürften die mind. 3 mal stärker einbrechen als die NV-Karten.

Gast
2010-03-31, 12:42:20
Weil da PhysiX nicht an ist?

Nein war bei beiden Tests aus.

LovesuckZ
2010-03-31, 12:56:37
Hardware.fr hat ihr GTX480 Review mit der GTX470 ergänzt. Interessant ist das Ergebnis beim IDLE-Verbrauch während der Videodekodierung:
http://www.hardware.fr/medias/photos_news/00/28/IMG0028380.gif
http://www.hardware.fr/articles/787-4/dossier-nvidia-geforce-gtx-480-470.html

AnarchX
2010-03-31, 13:10:04
Das sind wohl die P8-Werte, bei Multi-Monitor und bei manchen Bluray-Messungen wurde aber wohl auch P3 aktiviert:
http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_nvidia_geforce_gtx_480/2/#abschnitt_technische_daten_und_details

Gast
2010-03-31, 13:13:17
Interessant ist auch wie heis die 470 wird da fehlt nich viel zu 480.
Da muss sich jeder der keine grüne Brille auf hat fragen wie man sowas den leuten andrehen kann.
Wie will man so eine Fehlkonstruktion im Sommer kühlen können. Ohne das Brandgefahr besteht.

Spasstiger
2010-03-31, 13:14:18
Der Lüfter hat doch noch Reserven, im Sommer werden die Karten halt noch lauter als jetzt.

AnarchX
2010-03-31, 13:16:29
HW.fr misst ja jetzt schon bei 26°C Raumtemperatur.

Gast
2010-03-31, 13:18:25
Eier braten.
http://www.legitreviews.com/article/1264/1/

mironicus
2010-03-31, 13:20:17
26 Grad sind ja schon mal eine realistische Raumtemperatur im Sommer. Die 58xx-Karten bleiben dabei noch recht kühl, eine 470 dürfte auch einen Sommer lang gut überleben.

Gast
2010-03-31, 13:21:12
Hardware.fr hat ihr GTX480 Review mit der GTX470 ergänzt. Interessant ist das Ergebnis beim IDLE-Verbrauch während der Videodekodierung:
http://www.hardware.fr/medias/photos_news/00/28/IMG0028380.gif
http://www.hardware.fr/articles/787-4/dossier-nvidia-geforce-gtx-480-470.html

Wieso Interessant? Ist doch nur ne Frage der Zeit gewesen, bist du in einen der zwei dutzend Tests mal einen Verbrauch niedriger der ansonsten 80 bis über 100 Watt vorfindest.

Da haben die wohl das ganze Game durchgebencht, bis sie einen Abschnitt gefunden haben, bei dem die Ati-Karten gut skalieren und bloß nicht den Char bewegen :). Ist halt schon komisch, dass die HD5870 in der von PCGH getesteten Kampfscene gerade mal auf 3Fps Avg. kommt bei Tesselation (leider in 1920x1200 da für 1920x1080 kein Vergleichwert existiert).

Nein, sie haben ne 5870 2GB mit gebencht. Und wenn du mal genauer hinschaust, siehst du das sie die einzige ist, mit einer Wertung unter DX11 w/ Tessellation - also geht den anderen Karten dort wohl der VRAM aus, wie bei PCGH mit den 3FPS.
Aber eigentlich gar nicht so wichtig, denn Unspielbar sind diese Settings auf allen Karten.

Weil da PhysiX nicht an ist?
Bei dem Spiel sollte man die PhysX Effekte wohl eh auf der CPU Berechnen lassen, sofern der Prozessor schnell genug ist.

Megamember
2010-03-31, 13:25:17
Eier braten.
http://www.legitreviews.com/article/1264/1/

Ging aber nicht.

mironicus
2010-03-31, 13:25:38
Jesus Christus! (Temperatur beim Anschluss von 2 Monitoren bei einer GTX 480)

but when we fired up the system from a cold boot and opened just MSI AfterBurner, we found the GPU to be idling at around 84C, which is again a tad too hot for our tastes.

DrumDub
2010-03-31, 13:30:17
Eier braten.
http://www.legitreviews.com/article/1264/1/ :ulol: hat aber nicht geklaptt. ;(

derguru
2010-03-31, 13:35:23
26 Grad sind ja schon mal eine realistische Raumtemperatur im Sommer. Die 58xx-Karten bleiben dabei noch recht kühl, eine 470 dürfte auch einen Sommer lang gut überleben.
im sommer?kannst du aber mit sicherheit 10°C dazu rechnen.

LovesuckZ
2010-03-31, 13:40:05
Wieso Interessant? Ist doch nur ne Frage der Zeit gewesen, bist du in einen der zwei dutzend Tests mal einen Verbrauch niedriger der ansonsten 80 bis über 100 Watt vorfindest.


Ach reunion. Musst nicht traurig sein, dass jemand mal den Wert der GTX470 beim Abspielen einer Blu-Ray zeigt. Denn es war die erste Seite, die dies getan hat. ;D

Jesus Christus! (Temperatur beim Anschluss von 2 Monitoren bei einer GTX 480)

Die GTX480 verbraucht ca. 120 Watt beim MM-Betrieb. Das die Karte so warm wird, liegt an der Lüftersteuerung, die erst bei ca. 93°C einkickt.
Das soll mit einem zukünftigen Treiber - wie auch immer - gelöst werden, laut dem nZone.com Forum.

IVN
2010-03-31, 13:40:11
im sommer?kannst du aber mit sicherheit 10°C dazu rechnen.
Ja, in Ägypten...

In Dland hat man solche Temps in Häusern und Wohnungen gar nicht. Ausser vll. du magst deinen Rechner auf den Balkon stellen, wo er dann in der Mittagssonne brutzeln kann. :freak:

_DrillSarge]I[
2010-03-31, 13:42:00
Jesus Christus! (Temperatur beim Anschluss von 2 Monitoren bei einer GTX 480)
idle temp ist relativ uninteressant, wenn der lüfter dabei langsamer dreht (was er macht) und dabei leise ist (was er nicht ist :freak:). machen andere karten genau so (sind dabei aber leise :D). schlimmer siehts mit load-temps bei geschlossenenm gehäuse aus. und sli kann man da ohne wakü sowieso vergessen.

derguru
2010-03-31, 13:42:30
Ja, in Ägypten...

In Dland hat man solche Temps in Häusern und Wohnungen gar nicht. Ausser vll. du magst deinen Rechner auf den Balkon stellen, wo er dann in der Mittagssonne brutzeln kann. :freak:

red doch kein unsinn vielleicht bei euch in den bergen aber hier in germany kriegt man schneller als man denkt 35°C wenns mal knallt draußen vorallem in dachgeschoss-wohnungen wie bei mir.ich messe dann extra für dich;)

pXe
2010-03-31, 13:57:12
Bis das Argument kommt "Richtige Highend User haben eh eine Klimaanlage" kanns ja nicht lange dauern.


pXe

Don Vito
2010-03-31, 14:00:00
red doch kein unsinn vielleicht bei euch in den bergen aber hier in germany kriegt man schneller als man denkt 35°C wenns mal knallt draußen vorallem in dachgeschoss-wohnungen wie bei mir.ich messe dann extra für dich;)


Naja ich schaffe auch min 30°C+ in meiner bude, direkt unter dem Dach:d

Gast
2010-03-31, 14:00:32
Also 35° hatte ich hier auch noch nicht, aber gut an die 30 ran ist kein so großes Problem. Andererseits:
Einfach tagsüber mal rausgehen (Freibad), oder pennen, und nachts bei offenem Fenster zocken, wenns kühler ist. Was tut man nicht alles für den FPS-King ;-)

Cherry

Gast
2010-03-31, 14:01:12
Eins hat NV mit dem Fermi mit sicherheit erreicht.
Bessere grümde auf ATIs northern Island Chip zu warten gibts eigentlich nicht als diese Heizbirne.

Exxtreme
2010-03-31, 14:04:35
Eins hat NV mit dem Fermi mit sicherheit erreicht.
Bessere grümde auf ATIs northern Island Chip zu warten gibts eigentlich nicht als diese Heizbirne.
Naja, eigentlich kannst du dann ewig warten. Kann nämlich sein, daß der nächste Chip von AMD den Fermi-Stromverbrauch toppt. =)

mapel110
2010-03-31, 14:06:53
Naja, eigentlich kannst du dann ewig warten. Kann nämlich sein, daß der nächste Chip von AMD den Fermi-Stromverbrauch toppt. =)
Wird die PCIe-Spec geändert/erweitert? :ugly:

Der Verbrauch der 470er sieht richtig human aus im hardware.fr-Review.

Gast
2010-03-31, 14:11:05
Naja, eigentlich kannst du dann ewig warten. Kann nämlich sein, daß der nächste Chip von AMD den Fermi-Stromverbrauch toppt. =)

Stromverbrauch toppen wohl kaum leistung ziemlich sicher.
http://www.hartware.de/news_48870.html

Henroldus
2010-03-31, 14:14:22
Naja, eigentlich kannst du dann ewig warten. Kann nämlich sein, daß der nächste Chip von AMD den Fermi-Stromverbrauch toppt. =)
Glaub ich nicht, ATI konnte ja nun sehen was dabei herauskommt wenn man(Nvidia) mit der Brechstange an die Performancekrone will.
Sie sind noch immer gut über das gesamte Spektrum aufgestellt, können die Nachfrage nicht bedienen und verdienen ob der hohen Preise gutes Geld.
Eine höher getaktete/leicht optimierte HD5890(2GB) auf dem Verbrauchsniveau eine GTX470(nur Last!) mit der Leistung einer GTX480 würde für den rest des jahres reichen um dann 2011 mit der neuen Architektur in 28nm gegen Nvidias GTX480-Refresh anzutreten :D

DrumDub
2010-03-31, 14:17:21
Der Verbrauch der 470er sieht richtig human aus im hardware.fr-Review. ist eigentlich ziemlich identisch mit dem verbrauch der gtx 285 (siehe auch techreport.com).

Gast
2010-03-31, 14:21:17
ist eigentlich ziemlich identisch mit dem verbrauch der gtx 285 (siehe auch techreport.com).

Die 470 ist aber langsamer als ne 5870 und verbrät wesentlich mehr.
Daran sieht mans schön welchr ffizienskrüppl der Fermi ist. Im vergleich zu Cypress.

MorPheuZ
2010-03-31, 14:26:11
Wobei ATI auch langsam breiter werden muss und warscheinlich auch wird. Dir theoretische Pixel-Dampf kommt einfach nicht an auf dem monitor... Wobei der 28nm Aufbau da sicher von Vorteil sein wird.

Gast
2010-03-31, 14:26:24
Nein, sie haben ne 5870 2GB mit gebencht. Und wenn du mal genauer hinschaust, siehst du das sie die einzige ist, mit einer Wertung unter DX11 w/ Tessellation - also geht den anderen Karten dort wohl der VRAM aus, wie bei PCGH mit den 3FPS.
Aber eigentlich gar nicht so wichtig, denn Unspielbar sind diese Settings auf allen Karten.

Leider wieder falsch. Die HD5870 mit 2GB ist neben der GTX480 die einzige Karte, die mit Tesselation und ohne DoF getestet wurde. Aber alle DX11 Karten wurden mit Tesselation und DoF getestet. Wenn man hier die HD5870 mit 1 und 2Gb vergleicht, dann sieht man auch sehr schon, dass hier nicht der VRam aus geht (aber immer ne nette Ausrede für die schwache Ati-Architektur was? :) ). Hier war ganz klar irgendwas deaktiviert .. wahrscheinlich AA, AF oder beides, sonst wären die Ati-Karten alle deutlich unter 10Fps gerutscht. Nebenbei sind die Frameraten der GTX480 für single Player nicht so unspielbar, mit OC bekommt man das auf jeden Fall hin.

Gast
2010-03-31, 14:30:02
Die 470 ist aber langsamer als ne 5870 und verbrät wesentlich mehr.
Daran sieht mans schön welchr ffizienskrüppl der Fermi ist. Im vergleich zu Cypress.

Ich würde mal lieber den ersten Performancetreiber von NV abwarten, bevor ich so eine Aussage treffe.

Gast
2010-03-31, 14:30:20
Die 470 ist aber langsamer als ne 5870 und verbrät wesentlich mehr.
Daran sieht mans schön welchr ffizienskrüppl der Fermi ist. Im vergleich zu Cypress.
Die aktuellen ATI-Karten sind in Effizienz einfach verdammt gut.
Die 5750 Green Edition von PowerColor hält aktuell wohl die Performance/Watt-Krone.
http://www.techpowerup.com/reviews/Powercolor/HD_5750_Go_Green/29.html
nV war mal gut mit dem G92/G96. Die Konvertierung dieser in 40 nm ist aber fehlgeschlagen, wenn man sich die GTS 240 anguckt. Schade.

Gast
2010-03-31, 14:31:22
Der Verkaufspreis der 470 wird wohl auch über der 5870 liegen.
Wüsste keinen Grund mir diese effizienswunder. In den rechner zu bauen.
http://www.pcking.de/eshop.php?action=article_detail&s_supplier_aid=1585286&rid=geizhals

Gast
2010-03-31, 14:35:27
Der Verkaufspreis der 470 wird wohl auch über der 5870 liegen.
Wüsste keinen Grund mir diese effizienswunder. In den rechner zu bauen.
http://www.pcking.de/eshop.php?action=article_detail&s_supplier_aid=1585286&rid=geizhals

Die GTX470 bekommst du bei Alternate für 349€ und die billigste HD5870 kostet da 399€ und noch mal deutlich mehr wenn sie lieferbar sein soll.

IVN
2010-03-31, 14:36:26
red doch kein unsinn vielleicht bei euch in den bergen aber hier in germany kriegt man schneller als man denkt 35°C wenns mal knallt draußen vorallem in dachgeschoss-wohnungen wie bei mir.ich messe dann extra für dich;)

Ach so ist das also.

Lumpige Wohnung, mit nem Klima wie im Amazonasdschungel und dann sich noch über irgendetwas wundern...

Raff
2010-03-31, 14:43:02
Es ist IMO völlig normal, dass die Bude im Hochsommer um die 30 Grad Celsius erreicht, wenn's draußen 30 bis 35 Gräder hat. Warum die Aufregung? Es ist völlig klar, dass die Furbys von Juni bis September echte Probleme bekommen. Wobei, eigentlich nur deren Nutzer, welche beim Referenzdesign zugeschlagen haben ...

MfG,
Raff

Gast
2010-03-31, 14:44:01
Ach so ist das also.

Lumpige Wohnung, mit nem Klima wie im Amazonasdschungel und dann sich noch über irgendetwas wundern...

Das wärs noch wenn man wegen dem ner NV Grillforce Heizlüfter umziehen müsste.

derguru
2010-03-31, 14:44:16
Ach so ist das also.

Lumpige Wohnung, mit nem Klima wie im Amazonasdschungel und dann sich noch über irgendetwas wundern...
tja nicht jeder wohnt bei mama mit den sieben zwergen auf den bergen.
oder doch kellerkind,das macht sinn.:wink:

versuch nicht vergeblich nach ausreden zu suchen.

IVN
2010-03-31, 14:47:45
Es ist IMO völlig normal, dass die Bude im Hochsommer um die 30 Grad Celsius erreicht, wenn's draußen 30 bis 35 Gräder hat. Warum die Aufregung? Es ist völlig klar, dass die Furbys von Juni bis September echte Probleme bekommen. Wobei, eigentlich nur deren Nutzer, welche beim Referenzdesign zugeschlagen haben.

MfG,
Raff
Das ist keineswegs normal, wenn das Gebäude halbwegs aus neuern Materialien besteht. Das Gebäude in dem ich wohne ist aus den 70ern, und die Temp klettert nie über 27, 28. (ohne Klimaanlg.)

Das wärs noch wenn man wegen dem ner NV Grillforce Heizlüfter umziehen müsste.

Ne, man sollte eher wegen der eigenen Gesundheit umziehen. Denn 35 Grad über Monate hinweg sind sicherlich nicht gesund.

dildo4u
2010-03-31, 14:49:07
Es ist IMO völlig normal, dass die Bude im Hochsommer um die 30 Grad Celsius erreicht, wenn's draußen 30 bis 35 Gräder hat. Warum die Aufregung? Es ist völlig klar, dass die Furbys von Juni bis September echte Probleme bekommen. Wobei, eigentlich nur deren Nutzer, welche beim Referenzdesign zugeschlagen haben ...

MfG,
Raff
Ich denke nicht das die Karten Probleme bekommen der Lüfter dreht halt mher auf klar.Eine Seite hat doch Furmark auch gebencht,sah so aus als wenn im Gegensatz zu allen anderen Karten noch keine Drosselung im Treiber eingebaut ist(Viel mher fps mit 4XAA) Also Furmark ist zum verglich unter "Vollast" gegen alle anderen Karte eh schon mal Käse habt ihr ja auch gemacht.Die Drosselung kommt vieleicht mit dem 25x Treiber normale Games machen ja eh keine Probleme.

Bucklew
2010-03-31, 14:50:46
Sie sind noch immer gut über das gesamte Spektrum aufgestellt, können die Nachfrage nicht bedienen und verdienen ob der hohen Preise gutes Geld.
Daran das die Preise aktuell hoch sind verdienen vorallem die Händler, weniger ATI. ATI würde mehr verdienen, wenn die Karten im Handel 50-100$ weniger kosten würde, und man dafür die Nachfrage zu 100% decken könnte.

AYAlf_2
2010-03-31, 14:51:09
Das ist keineswegs normal, wenn das Gebäude halbwegs aus neuern Materialien besteht. Das Gebäude in dem ich wohne ist aus den 70ern, und die Temp klettert nie über 27, 28. (ohne Klimaanlg.)



Ne, man sollte eher wegen der eigenen Gesundheit umziehen. Denn 35 Grad über Monate hinweg sind sicherlich nicht gesund.
sag mal bekommst du geld fuer den quatsch den du hier erzaehlst .. bleib doch ein mal beim thema... :rolleyes:

Gast
2010-03-31, 14:53:08
Jedenfalls muß man wohl einen gehörigen NV-Fanboy Anteil Intus haben, um ein Hoch auf diese Karten auszusprechen.

MiamiNice
2010-03-31, 14:54:40
Ich denke auch das man eine 470er oder 480er nicht mit dem NV Referrenzkühler betreiben sollte. Was jetzt noch 92° sind , werden im Sommer sicher 110 - 120° sein. Dazu dann der Fön und schon habe ich keinen Bock an meinen PC was zu zoggern. WaKü oder ein anderer Kühler muss her. Die Temps sind mir latte, aber von meinem PC will ich beim zoggern nix hören, soviel steht mal fest.

Gast
2010-03-31, 14:57:52
Jedenfalls muß man wohl einen gehörigen NV-Fanboy Anteil Intus haben, um ein Hoch auf diese Karten auszusprechen.

Im Referencedesign ja, aber mit Wakü oder alternativen Luftkühlern sind die Karten schon die erste Wahl für jeden der Leistung will, solange einem die 20 bis 40€ Mehrkosten beim Strom nicht stören.

Gast
2010-03-31, 14:59:07
Ich denke auch das man eine 470er oder 480er nicht mit dem NV Referrenzkühler betreiben sollte. Was jetzt noch 92° sind , werden im Sommer sicher 110 - 120° sein. Dazu dann der Fön und schon habe ich keinen Bock an meinen PC was zu zoggern. WaKü oder ein anderer Kühler muss her. Die Temps sind mir latte, aber von meinem PC will ich beim zoggern nix hören, soviel steht mal fest.


ab 105°C throttled die gpu, soweit wird es also nicht kommen :ugly:

Raff
2010-03-31, 14:59:13
Ich denke auch das man eine 470er oder 480er nicht mit dem NV Referrenzkühler betreiben sollte. Was jetzt noch 92° sind , werden im Sommer sicher 110 - 120° sein. Dazu dann der Fön und schon habe ich keinen Bock an meinen PC was zu zoggern. WaKü oder ein anderer Kühler muss her. Die Temps sind mir latte, aber von meinem PC will ich beim zoggern nix hören, soviel steht mal fest.

Die GPU-Temperatur wird auch im Hochsommer nicht über 95 °C gehen, dafür sorgt die Lüftersteuerung. Die Karten bleiben also gleich heiß, werden aber deutlich lauter.

MfG,
Raff

IVN
2010-03-31, 15:01:45
sag mal bekommst du geld fuer den quatsch den du hier erzaehlst .. bleib doch ein mal beim thema... :rolleyes:

Natürlich! Man kann damit gutes Geld verdienen. Deswegen kann ich mir auch die g'scheite Wohnung leisten.

Aber wie ich sehe, ATI ist mal wieder geizig, und deswegen können sich die PR-Menschen dort nur ne heisse und schwüle Dachgeschoßwohnung leisten...


B2T:


Wenn einen das Ref-Design (samt Lüfter) stört, dann eben zu einer Custom-Karte greifen. So einfach ist das. :)

Gast
2010-03-31, 15:03:40
Fermi Verfügbarkeit zum totlachen langsam.
http://www.fudzilla.com/content/view/18295/1/

Sascha1971
2010-03-31, 15:04:33
Es ist IMO völlig normal, dass die Bude im Hochsommer um die 30 Grad Celsius erreicht, wenn's draußen 30 bis 35 Gräder hat. Warum die Aufregung? Es ist völlig klar, dass die Furbys von Juni bis September echte Probleme bekommen. Wobei, eigentlich nur deren Nutzer, welche beim Referenzdesign zugeschlagen haben ...

MfG,
Raff


Ich wünschte ich würde mal einen Händler finden, der die 480er im Programm hat die kein Referenzkühler hat. Ich verstehe auch nicht warum die Hersteller nicht gleich so eine Lösung wie Palit bei sich anbietet. Die kennen doch die Probleme mit der Hitze.

Raff
2010-03-31, 15:25:32
Die Partner wollen eben endlich mal wieder (irgend)etwas Neues verkaufen, daher springen sie auf den Referenzzug auf. Währenddessen tüfteln sie an eigenen Designs. Palit, als einer der größten Nvidia-Partner, ist eben schnell bei der Sache. Die HD 5000 ist ja auch erst seit wenigen Monaten wirklich bei jedem Hersteller "custom designed".

MfG,
Raff

derguru
2010-03-31, 15:26:18
wenn das auch so lange dauert wie bei ati dann herzlichen glückwunsch.(3-4 monate)
auch wenn man die palit jetzt schon zu gesicht bekommen hat mit neuer kühllösung heißt das nichts,ich glaub von der vapor -x war das bildchen auch recht zügig da.

moBi
2010-03-31, 15:34:22
Ist das für die GPU nicht relativ egal, ob die Außentemperatur 15°C oder 30°C hat? Die Reviews berichten ja, dass der Kühler an sich extrem heiß wird, sagen wir mal 60°C. Wärmeleitung funktioniert um so besser, je größer der Temperaturgradient ist. Der ändert sich ja nun nicht so krass. Was ich sagen will: Je heißer das Teil sowiso schon ist, desto weniger spielt die Außentemperatur eine Rolle.

Gast
2010-03-31, 15:38:22
Die kauf umfragen sehen überall gleich aus in allen Foren.
Diese Heizplatte dürfte der grösste Flopp in NVs geschichte werden.

http://www.xtremesystems.org/forums/showthread.php?t=248288&page=3

MorPheuZ
2010-03-31, 15:40:36
Ich würd ev. von 22° auf 32° Raumthemperatur höchstens 10% (2°-3°) höhere Chiptemperatur schätzen - wenn übehaupt. Auf so engem Raum wie der Chip kann ich mir auch nicht vorstellen dass das soviel ausmacht. Ist ja bei aktuellen Karten auch nicht anders, bei mir jedenfalls nicht.

Exxtreme
2010-03-31, 15:42:40
Die kauf umfragen sehen überall gleich aus in allen Foren.
Diese Heizplatte dürfte der grösste Flopp in NVs geschichte werden.

http://www.xtremesystems.org/forums/showthread.php?t=248288&page=3
Sehe ich nicht so. Denn dieser Umfrage nach müsste es AMD genauso "schlecht" gehen denn die sind in den Umfragen nicht sehr weit vorne.

Bucklew
2010-03-31, 15:43:16
Die kauf umfragen sehen überall gleich aus in allen Foren.
Diese Heizplatte dürfte der grösste Flopp in NVs geschichte werden.
Solche Aussagen können auch nur von jemandem mit maximal 12 Jahren Lebensalter und absolut keiner Ahnung in Sachen Grafikkarten-/PC-Historie kommen, alle anderen wissen, dass es schon deutlich größere Flops in der Geschichte des PCs gab :rolleyes:

MorPheuZ
2010-03-31, 15:44:04
Sehe ich nicht so. Denn dieser Umfrage nach müsste es AMD genauso "schlecht" gehen denn die sind in den Umfragen nicht sehr weit vorne.

Wiederspiegelt doch schön das Unding "High-End" und wer dafür das Geld ausgiebt.

Gast
2010-03-31, 15:56:20
Die kauf umfragen sehen überall gleich aus in allen Foren.
Diese Heizplatte dürfte der grösste Flopp in NVs geschichte werden.

http://www.xtremesystems.org/forums/showthread.php?t=248288&page=3

Davon lasse ich mich bestimmt nicht beeinflussen. Auf meiner Liste steht die 470 im Customdesign. ATI möchte ich nicht. Ich kann warten hab ne übertaktete 260 im Rechner:)

Dural
2010-03-31, 15:56:49
Die kauf umfragen sehen überall gleich aus in allen Foren.
Diese Heizplatte dürfte der grösste Flopp in NVs geschichte werden.

http://www.xtremesystems.org/forums/showthread.php?t=248288&page=3

was ist da ein Flop? da geben ca. 30% an einen/mehrere Fermi zu kaufen!

Ich finde die Zahl sogar mega erstaunlich bei dem Verbrauch...

Auch in diverse Hardware Shops scheint bestell laune zu herschen, obwohl noch nicht mal ein Liefertermin feststeht!

cR@b
2010-03-31, 15:57:21
Verfügbarkeit kannste knicken...

...weil ich vor ner Woche mal angefragt hatte. Wohne in der Nähe von evga und war damals schon meine 6800 Ultra abholen, als da noch Gainward drinnen saß ;)

Hallo Herr .......,

das Problem mit den GF-GTX480-Karten ist deren extrem schlechte Verfügbarkeit. Laut nVIDIA wird sich dieser Zustand zumindest im Verlauf des gesamten nächsten Monats auch nicht wesentlich verbessern. Ob sich die Lage im Mai entspannen könnte, ist allerdings auch nicht gesagt.

Solange die Karten derart schlecht (bis gar nicht) verfügbar sind, werden wir sie auch nicht im direkten Endkundenvertrieb anbieten. Die ohnehin schon geringen Stückzahlen sind seitens nVIDIA auch primär zur Belieferung der nVIDIA-Distributions- und -Einzelhandels-Partner vorgesehen. Sobald sich die Lage hinsichtlich der Verfügbarkeit verbessern wird und wir also genügend Produkte ausliefern können um die aufgelaufenen Bestellungen zu bedienen, werden wir die Karte wahrscheinlich auch im direkten Endkundenvertrieb anbieten können. Wann das genau der Fall sein wird, lässt sich aber derzeit leider noch nicht sagen.


Mit freundlichen Grüße
......

Außerdem wer kauft sich schon die Karte!?!? :D :rolleyes:

Gast
2010-03-31, 16:01:36
Natürlich! Man kann damit gutes Geld verdienen. Deswegen kann ich mir auch die g'scheite Wohnung leisten.

Aber wie ich sehe, ATI ist mal wieder geizig, und deswegen können sich die PR-Menschen dort nur ne heisse und schwüle Dachgeschoßwohnung leisten...


B2T:


Wenn einen das Ref-Design (samt Lüfter) stört, dann eben zu einer Custom-Karte greifen. So einfach ist das. :)

Wie kühl es in einem Raum ist hängt doch massgeblich davon ab wo sich dieser befindet, wieviele Fenster dieser Raum hat und wie gross dieser Raum ist. Zudem ist diese noch abhängig davon wieviele Personen sich in diesem Raum befinden und wieviele technischen Geräte sonst noch Wärme erzeugen. Was das mit "gescheiter Wohnung leisten" zu tun hat ist mir schleierhaft!? Eine dümmere Bemerkung als diese liest man wohl selten ...

Gast
2010-03-31, 16:03:23
... und nicht jeder hat seinen PC im Keller stehen, weil der ist noch kühler und den kann sich jeder leisten. -.-

Dural
2010-03-31, 16:03:54
Wie kühl es in einem Raum ist hängt doch massgeblich davon ab wo sich dieser befindet, wieviele Fenster dieser Raum hat und wie gross dieser Raum ist. Zudem ist diese noch abhängig davon wieviele Personen sich in diesem Raum befinden und wieviele technischen Geräte sonst noch Wärme erzeugen. Was das mit "gescheiter Wohnung leisten" zu tun hat ist mir schleierhaft!? Eine dümmere Bemerkung als diese liest man wohl selten ...


Eine gut isolierte Wohnung/Haus erreicht auch im Hochsommer keine 30°C sowas gibts es nur bei mangelter isolation/alt bau oder im Dachgeschoss.

IVN
2010-03-31, 16:07:13
Wie kühl es in einem Raum ist hängt doch massgeblich davon ab wo sich dieser befindet, wieviele Fenster dieser Raum hat und wie gross dieser Raum ist. Zudem ist diese noch abhängig davon wieviele Personen sich in diesem Raum befinden und wieviele technischen Geräte sonst noch Wärme erzeugen. Was das mit "gescheiter Wohnung leisten" zu tun hat ist mir schleierhaft!? Eine dümmere Bemerkung als diese liest man wohl selten ...
Klar hat das was mit der "G'scheitheit" der Wohnung zu tun. Wenn beim Bau des Gebäudes vernünftige Materialien verwendet wurden, die gut dämmen, und man auch gute Fenster hat, dann sollte es in der Wohnung angenehm sein. Und eben nicht 35 Grad.

Mr. Lolman
2010-03-31, 16:08:04
Die GPU-Temperatur wird auch im Hochsommer nicht über 95 °C gehen, dafür sorgt die Lüftersteuerung. Die Karten bleiben also gleich heiß, werden aber deutlich lauter.

MfG,
Raff

Naja bei offenem Aufbau. Hardware.fr hat im Gehäuse ja jetzt schon >100°C gehabt.

Gast
2010-03-31, 16:08:26
Solche Aussagen können auch nur von jemandem mit maximal 12 Jahren Lebensalter und absolut keiner Ahnung in Sachen Grafikkarten-/PC-Historie kommen, alle anderen wissen, dass es schon deutlich größere Flops in der Geschichte des PCs gab :rolleyes:

Hier fällt mir spontan die 2900XT ein. Das war lausige Leistung und Stromverbrauch jenseits von gut und böse.

Gast
2010-03-31, 16:10:54
Das mag so auch stimmen, nur wenn ich das Wohnzimmer auf der Südseite habe und dazu noch ein paar Fenster auf der dazugehörenden Westseite und im Sommer auch einmal Frischluft haben will, kann das Haus noch so toll isoliert sein. Die Warme Luft kommt bei geöffneter Terassentüre und geöffnten Fenstern dennoch herein. Das mögen dann zwar auch noch keine 30 Grad sein. Es kommt aber fast hin. Ich empfehle dir auch einmal den Aufenthalt im einem Grossraumbüro im Sommer, wo jeder eine PC und CRT stehen hat. Die 30 Grad schafft man bei entsprechner Außentemperatur locker. Kannst ja mal im Bekanntenkreis herumfragen. ;P