PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 480 und 470: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28

Gast
2010-03-29, 11:49:26
Eine GTX470 ist billiger als die 5870. :)


Link?

Schlammsau
2010-03-29, 11:51:30
Eine GTX470 ist billiger als die 5870. :)

Erstens, weisst du das noch gar nicht.....und zweitens wird sie durch den höheren Stromverbrauch unter Last auch nicht günstiger. ;)

Wie hoch sind die UVP der 5870 und der 470 und für wie viel werden sie verkauft?????

LovesuckZ
2010-03-29, 11:53:01
Link?

Du kannst die Karte für 349€ vorbestellen. Die billigste Vorbestellung der 5870 liegt bei 343€ (Lieferdatum: 30.06.2009...), die billigste sofort lieferbare bei 379€.

Schlammsau
2010-03-29, 11:54:56
Du kannst die Karte für 349€ vorbestellen. Die billigste Vorbestellung der 5870 liegt bei 343€ (Lieferdatum: 30.06.2009...), die billigste sofort lieferbare bei 379€.

Vorbestellen???? :lol:

Ob du die Karte auch zu dem Preis bekommst ist die andere Frage.

Schau doch mal im HD5800 Verfügbarkeitsthread vorbei.;)

Wenn die 470 auch nur annähernd so "gut" verfügbar ist, wie die 5870 momentan.....wirst du keine unter 400€ bekommen. Das versprech ich dir!

Es sein denn es wird sich keiner die Karte kaufen, was wohl eher eintritt, dann könnten die Preise fallen.

http://www.3dcenter.org/
http://www.abload.de/img/117bd0.jpg

Exxtreme
2010-03-29, 11:56:11
Du kannst die Karte für 349€ vorbestellen. Die billigste Vorbestellung der 5870 liegt bei 343€ (Lieferdatum: 30.06.2009...), die billigste sofort lieferbare bei 379€.
Naja, den Fermi musst du auch vorbestellen. Von daher ... ;)

LovesuckZ
2010-03-29, 11:58:21
Naja, den Fermi musst du auch vorbestellen. Von daher ... ;)

Ich weiß. Aber wenn selbst schon Alternate die Vorbestellung bei 349€ hat, dann wird es nicht teurer werden.
Aber wenn wir das ganze weiterspinnen: Entstehen ja heute auch noch keine Anschaffungspreise für die Karten. Also ist es auch kein Negativpunkt. ;D

Zockmaschine
2010-03-29, 12:06:04
Ich weiß. Aber wenn selbst schon Alternate die Vorbestellung bei 349€ hat, dann wird es nicht teurer werden.
Aber wenn wir das ganze weiterspinnen: Entstehen ja heute auch noch keine Anschaffungspreise für die Karten. Also ist es auch kein Negativpunkt. ;D

Ja genau, und weil wir alle ja wissen, das die Vorbestellungspreise bei der Markteinführung von Produkten *immer* den Lieferpreisen entsprechen...

Oops..nicht mehr lieferbar, aber wir hätten da das gleiche für nur ein paar (sprich 50+) Euro mehr...

:rolleyes:

Undertaker
2010-03-29, 12:08:14
Also wenn man mal die Alternate-Preise vergleicht, wird die 470 sicherlich günstiger werden als die HD5870 - was auch absolut dem Leistungsbild entspricht. Die restlichen Punkte heben sich imho weitestgehend auf, Leistungsaufnahme/SGSSAA pro ATI, Treiber/PhysX/AF/Hybridmodi pro Nvidia.

Botcruscher
2010-03-29, 12:17:17
Beim Preis wäre ich sehr vorsichtig. ATi hat zumindest die erste Kartenserie welche seit Verkaufsstart immer teurer wird. :freak:

Gast
2010-03-29, 12:20:07
Beim Preis wäre ich sehr vorsichtig. ATi hat zumindest die erste Kartenserie welche seit Verkaufsstart immer teurer wird. :freak:

Warum versteht eigentlich niemand dass das nur am EUR liegt? Zum Verkaufsstart lag der bei >1.5USD, heute 1.34 USD. In bin öfter in den USA und da wurde nichts teurer, ganz im Gegenteil, mit besserer Verfügbarkeit sank der Preis spürbar.

Exxtreme
2010-03-29, 12:22:45
Warum versteht eigentlich niemand dass das nur am EUR liegt? Zum Verkaufsstart lag der bei >1.5USD, heute 1.34 USD. In bin öfter in den USA und da wurde nichts teurer, ganz im Gegenteil, mit besserer Verfügbarkeit sank der Preis spürbar.
Liegt nicht am Euro sondern an Angebot und Nachfrage. AMD kann schon seit Monaten nicht richtig liefern.

Botcruscher
2010-03-29, 12:23:31
Bei einer Karte die gut und gerne 6 Monate erhältlich ist machen die etwa 10% Euroverlust normalerweise nicht das Kraut fett. Teilweise übersteigt die Teuerung diesen Betrag auch deutlich.

AnarchX
2010-03-29, 12:28:09
Bei Newegg liegen die Preise deutlich über den $379 vom September:
http://www.newegg.com/Product/ProductList.aspx?Submit=ENE&N=40000048&Description=5870&name=Desktop%20Graphics%20%2f%20Video%20Cards

http://forum.beyond3d.com/showpost.php?p=1338615&postcount=17

Gast23
2010-03-29, 12:31:57
Bei einer Karte die gut und gerne 6 Monate erhältlich ist machen die etwa 10% Euroverlust normalerweise nicht das Kraut fett. Teilweise übersteigt die Teuerung diesen Betrag auch deutlich.


Doch, es liegt hauptsächlich am Euro/Dollar-Kurs. Wie ich schon mehrfach geschrieben habe, hat der Euro in den letzte 4 Monaten ~14% verloren.

Bei den Grafikkartenpreisen darf man den Euro/Dollar-Kurs nicht vergessen. Der Euro ist in den letzten 4 Monaten um ~14% gefallen. Die Großhändler kaufen Grafikkaten (und andere Hardware) in großen Stückzahlen zumeist in Dollarpreisen ein, und verkaufen diese dann über einen Zeitraum von Wochen oder gar Monaten.
Ein 14%iger Euro/Dollar-Kurseinbruch würde bei den meisten Händlern die Gewinnmarge auf annähernd null reduzieren, einige würden sogar Verlust machen. Es ist verständlich dass Händler das Währungsrisiko an ihr Kunden weitergeben wollen/müssen und noch eine Sicherheitsmarge aufschlagen. Aus einem 14%igen Kursverfall, können dann schnell 20% - 30% Preisaufschlag werden.

Eggcake
2010-03-29, 12:35:11
Ganz so unrecht hat er nicht. In der Schweiz ist der Preis für eine HD5850 z.B. seit Anfang des Jahres gleich geblieben. Im Sept/Okt waren sie auch leicht billiger, aber seitdem ich sie im Dezember gekauft habe ist der Preis gleich geblieben, bei der HD5850 sogar gesunken

Liegt zudem evt. auch noch am z.Z. relativ starken Schweizer Franken.

Edit: Eine 5850 gibt's ja bei euch auch schon ab 250€, war doch vor einigen Monaten eher schlimmer...der grosse Anstieg kam im Dezember, seit da mehr oder weniger konstant mit einigen Peaks zwischendrin...

Gast
2010-03-29, 12:38:52
Liegt nicht am Euro sondern an Angebot und Nachfrage. AMD kann schon seit Monaten nicht richtig liefern.

Und zu beginn konnte AMD mehr liefern? Das Argument macht ja mal überhaupt keinen Sinn.

derguru
2010-03-29, 12:39:28
Leider wurde das Thema SSAA immer noch nicht aufgegriffen.
Deshalb hier von mir nochmal etwas aus dem PCGH Test (scheinbar auch der einzige wo SSAA getested wurde).

Ist dass die auch zu erwartende Performance der GTX470 in anderen Spielen mit SSAA? (also GTX285 Niveau)


pXe

das will ich auch wissen,hoffentlich kommt von pcgh noch was dazu.richtig absetzen ist jedenfalls was anderes.

Und zu beginn konnte AMD mehr liefern? Das Argument macht ja mal überhaupt keinen Sinn.

ich hatte gleich zu beginn 2*5870 karten für jeweils 317 euro ,das hat sich sogar rentiert.;)

Exxtreme
2010-03-29, 12:43:33
Und zu beginn konnte AMD mehr liefern? Das Argument macht ja mal überhaupt keinen Sinn.
Die ersten Wochen konnte man tatsächlich viele Karten ergattern. Mein Bruder wollte eine, hat sich aber entschieden zu warten und auf fallende Preise spekuliert ... und dann keine bekommen. :D

huligan
2010-03-29, 12:44:37
empfinde mich nach den reviews bestätigt mit meiner 5850. war eine gute wahl auch wenn der preis hoch war.

AnarchX
2010-03-29, 12:45:28
Und zu beginn konnte AMD mehr liefern? Das Argument macht ja mal überhaupt keinen Sinn.
Zum Lauch gab es noch eine GTX 285 für 260€ (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/28/#abschnitt_preisleistungverhaeltnis), dementsprechend setzte man die Preisempfehlung für das Launchkontigent auf attraktive $379/350€.
Da aber TSMC seine Versprechungen nicht einhalten konnte und Nvidias GTX 2xx Line-up EOL war, hob man MSRP wieder auf $399 an und die Händler/Distributoren konnten durch die schlechte Verfügbarkeit die Preise noch darüber hinaus anheben.
Der Dollarkurs ist hier nur von geringer Relevanz, wie man auch an den US-Preisen von >$400 sieht.

Raff
2010-03-29, 12:52:45
Leider wurde das Thema SSAA immer noch nicht aufgegriffen.
Deshalb hier von mir nochmal etwas aus dem PCGH Test (scheinbar auch der einzige wo SSAA getested wurde).

Ist dass die auch zu erwartende Performance der GTX470 in anderen Spielen mit SSAA? (also GTX285 Niveau)


pXe

das will ich auch wissen,hoffentlich kommt von pcgh noch was dazu.richtig absetzen ist jedenfalls was anderes.

Mit 32xS regelt der GF100 (endlich aufgebohrte und mehr ROPs):

http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=16

(Mitte)

Dieser Killermodus wird dadurch aber nicht viel sinnvoller. Immerhin läuft der nun schneller als 16x OGSSAA ... :biggrin:

Bei 16xS ist die GTX 470 wohl nur auf GTX-285-Niveau, ja, was sehr enttäuschend ist. Aber bei nur 34 GTex/s und 134 GB/s ist eben nicht mehr drin. Die ALUs allein reißen's nicht heraus.

MfG,
Raff

LovesuckZ
2010-03-29, 12:53:59
Es gab hier mal en Gast, der sich über die Tessellationgeschwindigkeit von GF100 ja aufgeregt hat:
http://www.hardware.info/nl-NL/productdb/ZGdnm2ZkyZpl/bGRkaJiZmJbK,bGRkaJiZmJfK,bGlkbZiTmJfKZMg,bGlkbJiamJbKZcg,bGlkbJiamJbKZMg,bGhkaJ iZmJHKZcg,bGRkapiamJLKZcg,bGhkZpiTmJjKZMg,bGVkaZiamJTKYcg,bGhkZpiTmJjKY8g,bGtkaJ iamJnKZcg,bGtkaJiZmJjKYMg,bGpkbZiVmJHKZMg,bGpkZpiXmJrKZsg,bGpkZpiUmJjKZMg,bGpkZZ iWmJPKZsg,bGpkZJiWmJfKYsg,bGpkapiXmJXKZcg,bGRkaJiXmJfK,bGNkapibmJbK,bGlkbZiTmJfK Zcg,bGNkZ5iamJfKYcg,bGlkbJiamJbKZsg,bGRkZJiUmJTKYMg,bGpkZpiSmJHKZMg,bGpkapiamJjK Zsg,bGhkZZiUmJLKYMg,bGdkapiVmJLKaMg,bGhkZ5iamJrKZcg,bGRkapiUmJHKYMg,bGdkapiXmJbK Ysg,bGdkapiVmJLKacg,bGtka5iWmJnKacg/FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0 000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,00FF00,00FF00,00FF00,00FF00,00FF00 ,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,0000FF/benchmark/
http://www.hardware.info/nl-NL/productdb/ZGdnm2ZkyZxl/bGRkaJiZmJbK,bGRkaJiZmJfK,bGlkbZiTmJfKZMg,bGlkbJiamJbKZcg,bGlkbJiamJbKZMg,bGhkaJ iZmJHKZcg,bGRkapiamJLKZcg,bGhkZpiTmJjKZMg,bGVkaZiamJTKYcg,bGhkZpiTmJjKY8g,bGtkaJ iamJnKZcg,bGtkaJiZmJjKYMg,bGpkbZiVmJHKZMg,bGpkZpiXmJrKZsg,bGpkZpiUmJjKZMg,bGpkZZ iWmJPKZsg,bGpkZJiWmJfKYsg,bGpkapiXmJXKZcg,bGRkaJiXmJfK,bGNkapibmJbK,bGlkbZiTmJfK Zcg,bGNkZ5iamJfKYcg,bGlkbJiamJbKZsg,bGRkZJiUmJTKYMg,bGpkZpiSmJHKZMg,bGpkapiamJjK Zsg,bGhkZZiUmJLKYMg,bGdkapiVmJLKaMg,bGhkZ5iamJrKZcg,bGRkapiUmJHKYMg,bGdkapiXmJbK Ysg,bGdkapiVmJLKacg,bGtka5iWmJnKacg/FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0 000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,00FF00,00FF00,00FF00,00FF00,00FF00 ,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,0000FF/benchmark/
http://www.hardware.info/nl-NL/articles/amdnaWpwZGSa/Test_nVidia_GeForce_GTX_480/20

Das ist Faktor 2 1,9.

Sascha1971
2010-03-29, 12:56:37
Bin ja mal auf die ersten Tests der Palit 480 gespannt.
http://www.computerbase.de/bildstrecke/28974/1/
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/maerz/palit_gtx_470_480_kuehler_displayport/
Wieviel sie leiser ist und wie die Temperaturen sind. (wegen Sommer und Dachgeschosswohnung).

Wenn sie anehmbar sind werde ich wohl bei der zuschlagen.

Gast
2010-03-29, 12:59:59
Mit 32xS regelt der GF100 (endlich aufgebohrte und mehr ROPs):

http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=16

(Mitte)

Dieser Killermodus wird dadurch aber nicht viel sinnvoller. Immerhin läuft der nun schneller als 16x OGSSAA ... :biggrin:

Bei 16xS ist die GTX 470 wohl nur auf GTX-285-Niveau, ja, was sehr enttäuschend ist. Aber bei nur 34 GTex/s und 134 GB/s ist eben nicht mehr drin. Die ALUs allein reißen's nicht heraus.

MfG,
Raff

Das erklärt dann auch warum NV kein SSAA anbietet. Aber war eh klar. Mit zunehmender Auflösung werden die Dreiecke immer aufwändiger und damit kann Cypress seine enorme Rohleistung immer besser ausspielen. Fermi erreicht zwar eine sehr hohe Auslastung, es fehlt aber eindeutig an Rohleistung.

Raff
2010-03-29, 13:00:11
Bin ja mal auf die ersten Tests der Palit 480 gespannt.
http://www.computerbase.de/bildstrecke/28974/1/
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/maerz/palit_gtx_470_480_kuehler_displayport/
Wieviel sie leiser ist und wie die Temperaturen sind. (wegen Sommer und Dachgeschosswohnung).

Wenn sie anehmbar sind werde ich wohl bei der zuschlagen.

Lauter kann das Design eigentlich gar nicht sein. ;) Die GTX-200-Designs von Palit/Gainward waren jedenfalls schön leise: GTX 285/2G mit ~1,0 Sone unter Last, ahoi.

MfG,
Raff

derguru
2010-03-29, 13:01:27
Mit 32xS regelt der GF100 (endlich aufgebohrte und mehr ROPs):

http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=16

(Mitte)

Dieser Killermodus wird dadurch aber nicht viel sinnvoller. Immerhin läuft der nun schneller als 16x OGSSAA ... :biggrin:

Bei 16xS ist die GTX 470 wohl nur auf GTX-285-Niveau, ja, was sehr enttäuschend ist. Aber bei nur 34 GTex/s und 134 GB/s ist eben nicht mehr drin. Die ALUs allein reißen's nicht heraus.

MfG,
Raff
aha thx,unter 32s geht sie doch gut ab dank der besseren 8aa performance.

Exxtreme
2010-03-29, 13:01:44
Das erklärt dann auch warum NV kein SSAA anbietet. Aber war eh klar. Mit zunehmender Auflösung werden die Dreiecke immer aufwändiger und damit kann Cypress seine enorme Rohleistung immer besser ausspielen. Fermi erreicht zwar eine sehr hohe Auslastung, es fehlt aber eindeutig an Rohleistung.
Soviel ich weiss bleiben die Dreiecke immer gleich aufwändig egal welche Auflösung.

Gast
2010-03-29, 13:04:17
Das ist Faktor 2 1,9.
Bzw faktor 1,14 zur 5970

Gast
2010-03-29, 13:05:35
Es gab hier mal en Gast, der sich über die Tessellationgeschwindigkeit von GF100 ja aufgeregt hat:
http://www.hardware.info/nl-NL/productdb/ZGdnm2ZkyZpl/bGRkaJiZmJbK,bGRkaJiZmJfK,bGlkbZiTmJfKZMg,bGlkbJiamJbKZcg,bGlkbJiamJbKZMg,bGhkaJ iZmJHKZcg,bGRkapiamJLKZcg,bGhkZpiTmJjKZMg,bGVkaZiamJTKYcg,bGhkZpiTmJjKY8g,bGtkaJ iamJnKZcg,bGtkaJiZmJjKYMg,bGpkbZiVmJHKZMg,bGpkZpiXmJrKZsg,bGpkZpiUmJjKZMg,bGpkZZ iWmJPKZsg,bGpkZJiWmJfKYsg,bGpkapiXmJXKZcg,bGRkaJiXmJfK,bGNkapibmJbK,bGlkbZiTmJfK Zcg,bGNkZ5iamJfKYcg,bGlkbJiamJbKZsg,bGRkZJiUmJTKYMg,bGpkZpiSmJHKZMg,bGpkapiamJjK Zsg,bGhkZZiUmJLKYMg,bGdkapiVmJLKaMg,bGhkZ5iamJrKZcg,bGRkapiUmJHKYMg,bGdkapiXmJbK Ysg,bGdkapiVmJLKacg,bGtka5iWmJnKacg/FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0 000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,00FF00,00FF00,00FF00,00FF00,00FF00 ,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,0000FF/benchmark/
http://www.hardware.info/nl-NL/productdb/ZGdnm2ZkyZxl/bGRkaJiZmJbK,bGRkaJiZmJfK,bGlkbZiTmJfKZMg,bGlkbJiamJbKZcg,bGlkbJiamJbKZMg,bGhkaJ iZmJHKZcg,bGRkapiamJLKZcg,bGhkZpiTmJjKZMg,bGVkaZiamJTKYcg,bGhkZpiTmJjKY8g,bGtkaJ iamJnKZcg,bGtkaJiZmJjKYMg,bGpkbZiVmJHKZMg,bGpkZpiXmJrKZsg,bGpkZpiUmJjKZMg,bGpkZZ iWmJPKZsg,bGpkZJiWmJfKYsg,bGpkapiXmJXKZcg,bGRkaJiXmJfK,bGNkapibmJbK,bGlkbZiTmJfK Zcg,bGNkZ5iamJfKYcg,bGlkbJiamJbKZsg,bGRkZJiUmJTKYMg,bGpkZpiSmJHKZMg,bGpkapiamJjK Zsg,bGhkZZiUmJLKYMg,bGdkapiVmJLKaMg,bGhkZ5iamJrKZcg,bGRkapiUmJHKYMg,bGdkapiXmJbK Ysg,bGdkapiVmJLKacg,bGtka5iWmJnKacg/FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0 000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,00FF00,00FF00,00FF00,00FF00,00FF00 ,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,0000FF/benchmark/
http://www.hardware.info/nl-NL/articles/amdnaWpwZGSa/Test_nVidia_GeForce_GTX_480/20

Das ist Faktor 2 1,9.


Glaubst du wenn du jede Seite ein paar Rosinen pickst dann kannst du noch ein paar Leute umstimmen oder was soll der Mist? Alle Reviews sind im Starposting verlinkt, jeder kann sich ein Bild machen, diese ständigen selektiven Posts verunstalten den ganzen Thread.

Gast23
2010-03-29, 13:07:32
Zum Lauch gab es noch eine GTX 285 für 260€ (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/28/#abschnitt_preisleistungverhaeltnis), dementsprechend setzte man die Preisempfehlung für das Launchkontigent auf attraktive $379/350€.
Da aber TSMC seine Versprechungen nicht einhalten konnte und Nvidias GTX 2xx Line-up EOL war, hob man MSRP wieder auf $399 an und die Händler/Distributoren konnten durch die schlechte Verfügbarkeit die Preise noch darüber hinaus anheben.
Der Dollarkurs ist hier nur von geringer Relevanz, wie man auch an den US-Preisen von >$400 sieht.

Es ist wohl eine Kombination aus Euro/Dollar, geringer Verfügbarkeit und Preis der Konkurrenzprodukte.

Kosh
2010-03-29, 13:08:27
Ahja dein Satz AMD könnte morgen... lol wenn so ein Chip noch nicht in Entwicklung ist würde das locker min. ein Jahr dauern bis zur Auslieferung!

Natürlich könnte das AMD/ATI.

Einfach die Spannung der 5870 um 0.2-0.3 Volt erhöhen,Takt soweit rauf wie so geht und man hat gleiche Verlustleistung (oder imme rnoch weniger als die GTX480?) wie die GTX480 und lässt die NVIDIA KArte hinter sich.

ATI muss nur auf die Verlustleistung sch....en wie NVIDIA und schon haben sie eine Karte die schneller ist als die GTX480.

Somit ist der Fermi ein Flop,wenn man trotz der geringen Spannung und Takt so einen dermassen hohen Verbrauch hat.

Gast
2010-03-29, 13:08:56
Soviel ich weiss bleiben die Dreiecke immer gleich aufwändig egal welche Auflösung.

Die Dreiecke bleiben immer gleich groß, aber der Aufwand pro Dreieck steigt natürlich mit der Auflösung.

AnarchX
2010-03-29, 13:10:28
Die Dreiecke bleiben immer gleich groß, aber der Aufwand pro Dreieck steigt natürlich mit der Auflösung.
Einfach ausgedrückt: die Zahl der Pixel pro Dreieck steigt mit der Auflösung.

Im Endeffekt wird es wohl an NVs Developer-Support in der nahen Zukunft liegen, D3D11-Games mit einem entsprechenden Fermi-Tessellationssetting auszustatten, sodass man einen sichtbaren Vorteil von der hohen Geometrie-Leistung hat.

aylano
2010-03-29, 13:14:24
Kann man die GTX470 & GTX480 schon irgendwo kaufen, oder kommen die später?

Ich dachte, es gibt welche zum Start aber irgendwie scheint es nichts zu geben

AnarchX
2010-03-29, 13:14:58
Kann man die GTX470 & GTX480 schon irgendwo kaufen?
http://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=480244
Momentan wohl ab dem 16. April.

Exxtreme
2010-03-29, 13:15:30
Die Dreiecke bleiben immer gleich groß, aber der Aufwand pro Dreieck steigt natürlich mit der Auflösung.
Richtig. Wobei das nicht nur auf Dreiecke beschränkt bleibt da es nur von der Füllrate abhängt.

Gast
2010-03-29, 13:15:48
Einfach ausgedrückt: die Zahl der Pixel pro Dreieck steigt mit der Auflösung.


Ja richtig. Damit verschiebt sich die Last natürlich zunehmend vom Frontend in Richtung der Ausführungseinheiten. Aktuell kann NV noch einiges mit dem mehr an RAM kaschieren, aber ich gehe davon aus das die 2GB Radeon in sehr hohen Auflösungen zumindest deutlich näher kommt.

svenw
2010-03-29, 13:20:27
Ich glaube nicht, das NV mit dem Fermi viel verdienen wird. Die Preise für die 480 sind so hoch, das der Markt da schon dünn wird und Leute die den Preis zahlen können jucken meist die paar Euro mehr für die 5970 auch nicht. Und bei gleichem Preis wie die 5870 hat NV wesentlich höhere Herstellungskosten für die 470. Früher waren die Leute an höhere Preise fürs High-End gewöhnt aber in den letzten 2 Jahren war schon Performance mehr als schnell genug. Und daran wird sich bis zum Launch einer neuen Konsolengeneration nur wenig ändern.
Tesselation ist super, nur macht es eigentlich nur richtig Sinn, wenn fast alle Grakas DX11 mit ausreichend Tess-Leistung sind, denn ansonsten muß der Designer eh einen normalen Körper basteln und der Vorteil der einfacheren Geometrie entfällt. Bis zu dem Zeitpunkt bietet Tess maximal geringfügige Vorteile bei Standbildern, ansosnten sieht man es nicht. Von Murks wie aufgeblasenen Taschen gar nicht zu reden.

derguru
2010-03-29, 13:21:10
seit wann verkauft denn caseking grafikkarten,hehe.preislich finde ich die karte interessant,100 euro über der 5870 kann man ohne weiteres für die 480 verlangen,wenn diese temp und lautstärke geschichte nicht wäre,gucken wir wie die palit mit dem dualfan das bewältigt demnächst.

Dicker Igel
2010-03-29, 13:22:20
Lauter kann das Design eigentlich gar nicht sein. ;) Die GTX-200-Designs von Palit/Gainward waren jedenfalls schön leise: GTX 285/2G mit ~1,0 Sone unter Last, ahoi.


Joar, ich hatte verschiedene Gainward Karten (9800GTX+, 285GTX und ne 260²), unterm Strich sind die Temps nicht viel niedriger, aber die ganze Geschichte ist leiser und nervt unter Last nicht so, wie die Standardkühlung.
Ne 470 von Gainward, zu einem vernüftigen Preis, wäre schon was :)

Gast
2010-03-29, 14:03:21
http://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=480244
Momentan wohl ab dem 16. April.

War das nicht der 12. April?

Wobei... Neliz sagte kürzlich auf B3D was von 7. Mai, aber ich wünsche den Vorbestellern viel Glück dass das nicht zutrifft ;)

Cubitus
2010-03-29, 14:13:45
http://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=480244
Momentan wohl ab dem 16. April.

Lt Atelco (Nvidia zertifizierter Shop) am 6.04

klick (http://www3.atelco.de/nvidia/articledetail.jsp?aid=32910&agid=707)

Bei Alternate wird es ähnlich sein ..

Marodeur
2010-03-29, 14:54:15
Wohl kaum, du kommst mit dem Finger ja höchstens an den Rand und die Lüfterblätter sind ja auch abgerundet. Und wer ist schon so blöd und Fingert da im vollen Betrieb rum.

Es gibt auch Leute die lassen auf einem Hauptständer ein Moped/Motorrad im Standgas laufen um die Kette mit dem Tuch zu reinigen... :freak:


Zur Karte:
Nö, neues Netzteil hatte ich nicht vor zu kaufen und Strom zahl ich inzwischen selber. Von daher überleg ichs mir zweimal obs als nächstes Fermi wird. An sich hätt ich mich schon drauf gefreut mal wieder die Seite zu wechseln *seufz*. Falls überhaupt wirds nur die 470 aber da wart ich jetzt erstmal ab wie sich die Lebensdauer so entwickelt.

Problem ist halt auch das ich einem 15-20 % Vorsprung nicht viel abgewinnen kann. Ist auch der Grund weshalb ich generell Grafikkarten nicht übertakte, der Gewinn ist mir zu niedrig. Die Spiele bzw. die Situationen wo so ein geringer Vorsprung wirklich zwischen spielbar und nicht spielbar entscheidet sind meist wohl an einer Hand abzählbar (ausser man hat in den Lüfter gelangt, hehe :D ). Von daher bin ich schwer am zweifeln das sich eine 480 für mich lohnt weshalb ich generell eher zur 5870 tendiere. Einzige was mich evtl. zu einer 470 bewegen würde sind Treiber (wobei ich mit den ATT inzwischen ganz gut zurecht komm) und CSS (lustigerweise) weil mich da der Staub- und Beleuchtungsbug bei der ATI nervt und ich das halt noch zock.

Gast
2010-03-29, 14:58:27
Es gibt auch Leute die lassen auf einem Hauptständer ein Moped/Motorrad im Standgas laufen um die Kette mit dem Tuch zu reinigen... :freak:
Der war böse. Da haben sich schon mehrere die Fingerkuppen bis halbe Finger an der Führhand abgesäbelt. Gibt einige Pics dazu im Internet.
So ein Radiallüfter ist relativ ungefährlich. Mehr als schwere Abschürfungen dürfte es nicht geben.
Viel schlimmer wäre ein 20 Watt Axiallüfter. Wenn da der Finger drin steckt, kommt das relativ scharfe Lüfterblatt 100 % bis zum Knochen. Wenn man Pech hat, sogar weiter. Deshalb Gitter davor.

tombman
2010-03-29, 15:05:03
Tombman,

das stimmt so nicht.
Sparsed Grid Super Sampling AA geht mit der GTX 480 nicht.
Deiner Definition nach also kein High-End, da nicht überall führend.
Bei der BQ zumindest nicht. ;)
4x4 SSAA von NV per Nhancer ist überlegen, ebenso das AF: You CAN have it all ;)

Schlammsau
2010-03-29, 15:06:48
4x4 SSAA von NV per Nhancer ist überlegen, You CAN have it all ;)
ist es nicht. ;)

Marodeur
2010-03-29, 15:07:22
Der war böse. Da haben sich schon mehrere die Fingerkuppen bis halbe Finger an der Führhand abgesäbelt. Gibt einige Pics dazu im Internet.
So ein Radiallüfter ist relativ ungefährlich. Mehr als schwere Abschürfungen dürfte es nicht geben.
Viel schlimmer wäre ein 20 Watt Axiallüfter. Wenn da der Finger drin steckt, kommt das relativ scharfe Lüfterblatt 100 % bis zum Knochen. Wenn man Pech hat, sogar weiter. Deshalb Gitter davor.

Das war halt rein aufs "wer langt da schon rein" bezogen. Gibt immer welche die z.B. meinen im laufenden Betrieb den Rechner reinigen zu müssen oder Steckverbindungen zu checken :freak:

In USA könnts da ohne Gitter schon probleme geben für NV wenn da die ersten reinlangen. Hoffentlich habens wenigstens einen dicken Sticker irgendwo angebracht der davor warnt... X-D

mironicus
2010-03-29, 15:07:37
Bin mal gespannt wie die Preisentwicklung bei den Karten sein wird. Also jetzt noch vorbestellbar für 479 Euro und dann in 2 Monaten... 580-650 Euro? :D

PulsarS
2010-03-29, 15:14:45
4x4 SSAA von NV per Nhancer ist überlegen, ebenso das AF: You CAN have it all ;)
Ich empfehle dir mal ein Blick in die Grundlagen des AA.

SGSSAA ist das Beste was es gibt.
Besser geht es nicht.
Und das kann die GTX 4x0 nicht.

EOD.

Iruwen
2010-03-29, 15:21:05
http://www.scythe-eu.com/produkte/pc-zubehoer/slot-rafter.html

Das Ding mit zwei leisen Lüftern wäre wohl eine sinnvolle Investition hm?

desert
2010-03-29, 15:21:48
Ist irgendwie schon ärgerlich das ganze. die 480 gtx will ich mir eigentlich nicht kaufen, das ist mir einfach zuviel stromverbrauch und die 470 ist kein richtiger sprung im verhältnis zu meiner o/c 280.


Und wenn ich sehe das sie bei ssaa teilweise verhungert, dann bin ich total unschlüssig was kaufen soll.

Eigentlich bräuchte ich einen zwitter zwischen 5870 und gtx470. Von dem einem das sgssaa und von dem anderem das af und die tssaa modis.

tombman
2010-03-29, 15:22:36
ist es nicht. ;)
Doch
http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=3
(ca in die Mitte scrollen)

Gast
2010-03-29, 15:23:35
In USA könnts da ohne Gitter schon probleme geben für NV wenn da die ersten reinlangen. Hoffentlich habens wenigstens einen dicken Sticker irgendwo angebracht der davor warnt... X-D
Auf der 480 ist auf der Rückseite ein gelber Warnaufkleber, der vor großer Hitze warnt. Nicht unberechtigt, wenn man bedenkt, dass die Leistungsdichte der GPU höher ist, als die einer sehr starken Herdplatte.

Raff
2010-03-29, 15:27:52
Doch
http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=3
(ca in die Mitte scrollen)

4x4 OGSSAA bringt ganz allein den Effekt von 4:1 AF, während 8x SGSSAA nur etwas mehr Texturqualität als 2:1 AF liefert (etwa "3:1" AF), ja. Was du aber ignorierst, ist, dass es für die Kantenglättungswirkung von 8x SG schon 8x8 (64x) OG braucht. Ergo ist 4x4 OGSSAA das Optimum, um Shader und Texturen plattzumachen, nicht aber für das beste Gesamtbild. Und 8x SGSSAA ist auch noch doppelt so schnell in der Berechnung.

MfG,
Raff

derguru
2010-03-29, 15:32:43
sgssaa kann man noch zusätzlich mit den tent modis aufbessern und das noch relative kostengünstig.

Gast
2010-03-29, 15:34:59
Ich empfehle dir mal ein Blick in die Grundlagen des AA.

SGSSAA ist das Beste was es gibt.
Besser geht es nicht.
Und das kann die GTX 4x0 nicht.

EOD.

Lass es bleiben. Für jemanden, der für das letzte Quäntchen Leistung Unmengen an Geld verpulvert, hat er über 6 Monate auf die schnellste Single-GPU-Karte der Welt (bei Blockbustern à la Crysis, Anno 1404, Dirt 2 oder Stalker CoP @ 1920 x 1200 und 4x AA + 16x AF ist eine HD 5870 sogar schneller als eine GTX 295) und DX 11 verzichtet. CUDA ist aber natürlich gewichtiger. Jetzt von "alles sehen" zu sprechen ist an Lächerlichkeit nicht zu überbieten.

Raff
2010-03-29, 15:35:17
Exakt. Gegen den geleckten Gesamteindruck von 8x SGSSAA + Edge-Detect-Downfilter ist bislang kein giftgrünes Kraut gewachsen (da kann auch die V5 6000 einpacken ;)). Davon hat's im PCGH-Artikel auch ein Bild. Das ist aber auch fast so teuer wie 16x OGSSAA ...

€dit:

http://666kb.com/i/bhwlvqhvla0qrf6xi.png

Und das sind Supersamples!

MfG,
Raff

Gast
2010-03-29, 15:35:51
4x4 SSAA von NV per Nhancer ist überlegen, ebenso das AF: You CAN have it all ;)

You CANT have it all ;)
btw. gibt es für diese Diskussion einen anderen Thread.

Iceman346
2010-03-29, 15:36:29
sgssaa kann man noch zusätzlich mit den tent modis aufbessern und das noch relative kostengünstig.

Wobei 4xSGSAA imo das Bild in den meisten Fällen schon so glatt bügelt, dass man kaum noch was zu meckern hat. Nur wenn Texturen wirklich ganz extrem flimmern reicht das nicht aus.

Und die Kanten/Texturglättung davon ist genausogut wie die von 4x4 OGSSAA, nur das es bedeutend weniger Leistung kosten dürfte.

Wie man OGSSAA als Optimum bezeichnen kann wenns auf der anderen Seite SGSSAA gibt ist mir schleierhaft.

Gast
2010-03-29, 15:36:45
Auf der 480 ist auf der Rückseite ein gelber Warnaufkleber, der vor großer Hitze warnt. Nicht unberechtigt, wenn man bedenkt, dass die Leistungsdichte der GPU höher ist, als die einer sehr starken Herdplatte.

Vorsicht - Diese Grafikkarte gefährdet ihre Gesundheit !

Wie war das bei Zigaretten nochmal ?
Also nicht die Finger Verbrennen


Der war böse. Da haben sich schon mehrere die Fingerkuppen bis halbe Finger an der Führhand abgesäbelt.

Nur für unsere Österreicher gefählich !


LOL


Dont try this at home , where trained to do this !

tombman
2010-03-29, 15:36:55
4x4 OGSSAA bringt ganz allein den Effekt von 4:1 AF, während 8x SGSSAA nur etwas mehr Texturqualität als 2:1 AF liefert (etwa "3:1" AF), ja. Was du aber ignorierst, ist, dass es für die Kantenglättungswirkung von 8x SG schon 8x8 (64x) OG braucht. Ergo ist 4x4 OGSSAA das Optimum, um Shader und Texturen plattzumachen, nicht aber für das beste Gesamtbild. Und 8x SGSSAA ist auch noch doppelt so schnell in der Berechnung.

MfG,
Raff
Ich brauche keine Steigerung in der reinen Kantenglättung, da reicht bei hohen Auflösungen 4x AA locker aus.
Texturen und Shader plattzumachen bringt optisch mehr (IMO!!!), was man auch an eurem HL2 (?) Bild sehen kann-
die feinen Äste im Hintergrund kommen schöner heraus, und das AF zieht erstmals wirklich "bis ganz nach hinten durch."

Aber das ist mir eh nicht so wichtig, da:

1.) man in DX10/11 eh nix mehr selbst wählen darf
2.) IMO die Leistung für solche AA Spielereien eh kaum vorhanden ist

derguru
2010-03-29, 15:39:50
dann provoziere nicht mit solchen aussagen wenn dir das nicht wichtig ist.das dir das nicht wichtig ist sollte allen klar sein vorallem bei einer 295 quad kombi. :|

4x4 SSAA von NV per Nhancer ist überlegen, ebenso das AF: You CAN have it all ;)

Undertaker
2010-03-29, 15:45:46
Ich brauche keine Steigerung in der reinen Kantenglättung, da reicht bei hohen Auflösungen 4x AA locker aus.

Dito. Hybridmodi ftw, 16xS :love2:.

IVN
2010-03-29, 15:47:11
4x4 OGSSAA bringt ganz allein den Effekt von 4:1 AF, während 8x SGSSAA nur etwas mehr Texturqualität als 2:1 AF liefert (etwa "3:1" AF), ja. Was du aber ignorierst, ist, dass es für die Kantenglättungswirkung von 8x SG schon 8x8 (64x) OG braucht. Ergo ist 4x4 OGSSAA das Optimum, um Shader und Texturen plattzumachen, nicht aber für das beste Gesamtbild. Und 8x SGSSAA ist auch noch doppelt so schnell in der Berechnung.

MfG,
Raff
Diese Aussage erscheint mir absurd. Wenn 4x4 gleichermassen gut auf alles wirkt (Tex, Shader, Kanten), 8xSG aber viel stärker bei den Kanten als den anderen Problemen greift, wieso sollte dann das letztere das bessere Gesamtbild liefern? Für mich bedeutet besseres Gesamtbild, das alles homogen ausschaut, eben wie aus einem Guss. Bei 8xSG ist das aber nicht so, weil da eventuell die Shader und Texturen flimmern, während die Kanten schön glatt sind.

Das 8xSG hinsichtlich Perf besser ist, bezweifle ich nicht. Nur eben die Aussage bzgl Gesamtbild.

mironicus
2010-03-29, 15:49:12
Wegen SGSSAA habe ich schon angefangen ältere Games herauszukramen und noch mal zu spielen. Aktuelle Titel wie Dragon Age Origins in 1920x1080 mit 4xSGSSAA schafft meine 5770 absolut flüssig (mehr als 30 fps sind bei solchen Titeln imho nicht notwendig). Oder schon mal PS2-Games mit PCSX2 und 4xSGSSAA gespielt? Da zockt man sogar glatt noch mal ein paar alte PS2-Games von früher durch, weil die jetzt richtig schön aussehen. :)

Gast
2010-03-29, 15:49:20
Diese Aussage erscheint mir absurd. Wenn 4x4 gleichermassen gut auf alles wirkt (Tex, Shader, Kanten), 8xSG aber viel stärker bei den Kanten als den anderen Problemen greift, wieso sollte dann das letztere das besere Gesamtbild liefern? Für mich bedeutet besseres Gesamtbild, das alles homogen ausschaut, eben wie aus einem Guss. Bei 8xSG ist das aber nicht so, weil da eventuell die Shader und Texturen flimmern, während die Kanten schön glatt sind.

Das 8xSG hinsichtlich Perf besser ist, bezweifle ich nicht. Nur eben die Aussage bzgl Gesamtbild.

Du vergisst die automatische LOD Anpassung.

derguru
2010-03-29, 15:50:32
Dito. Hybridmodi ftw, 16xS :love2:.
dann kannst du erst recht bei der 285gtx bleiben.
Wobei 4xSGSAA imo das Bild in den meisten Fällen schon so glatt bügelt, dass man kaum noch was zu meckern hat. Nur wenn Texturen wirklich ganz extrem flimmern reicht das nicht aus.

Und die Kanten/Texturglättung davon ist genausogut wie die von 4x4 OGSSAA, nur das es bedeutend weniger Leistung kosten dürfte.

Wie man OGSSAA als Optimum bezeichnen kann wenns auf der anderen Seite SGSSAA gibt ist mir schleierhaft.
zustimm:biggrin:
Für mich bedeutet besseres Gesamtbild, das alles homogen ausschaut, eben wie aus einem Guss. Bei 8xSG ist das aber nicht so, weil da eventuell die Shader und Texturen flimmern, während die Kanten schön glatt sind.
dann machst du wide oder narrow tent bei shader und texturen flimmer an und gut ist,zugegeben nicht immer ohne blur.

eigentlich muss man sich darüber gar nicht aufregen denn 4*4 ogssaa ist praktisch nicht nutzbar,auch bei den 400er.

Gast
2010-03-29, 15:54:21
Ich hoffe, ihr nehmt auch nichtgamer in diesem forum wahr, denn mich interessieren an den neuen nvidias eher andere Dinge:
1. Warum gibts keinen HDMI 1.4 (a)?
2. Nvidia hat ja verlauten lassen, dass der "3D-Teil" der HDMI 1.4 Spezifikation erfüllt wird. Ich frage mich daher, welche Nachteile ich zu erwarten habe, wenn der Rest von HDMi 1.4 nicht erfüllt wird. Im konkreten Fall: Was passiert, wenn ich die Karte an einen 1.4 fähigen AV-Verstärker anschliessen will? Welche Funktionalität fehlt dann?
3. Oft war zu lesen, dass die Karten Dolby Digital True HD und DTS Master Audio nicht als bitstream ausgeben können. Wie bekomm ich`s dann in den AV-Verstärker?

Es wäre schön, wenn es in den Diskussionen zur Abwechslung mal nicht nur um Hitze, Stromverbrauch und fps gehen würde...

Gast
2010-03-29, 15:54:42
Dito. Hybridmodi ftw, 16xS :love2:.

Nvidias inoffizielle SSAA-Modi provozieren eh bei jedem zweiten halbwegs aktuellen Spiel Blur, damit völlig uninteressant.

Iceman346
2010-03-29, 15:55:04
Diese Aussage erscheint mir absurd. Wenn 4x4 gleichermassen gut auf alles wirkt (Tex, Shader, Kanten), 8xSG aber viel stärker bei den Kanten als den anderen Problemen greift, wieso sollte dann das letztere das bessere Gesamtbild liefern? Für mich bedeutet besseres Gesamtbild, das alles homogen ausschaut, eben wie aus einem Guss. Bei 8xSG ist das aber nicht so, weil da eventuell die Shader und Texturen flimmern, während die Kanten schön glatt sind.

Das 8xSG hinsichtlich Perf besser ist, bezweifle ich nicht. Nur eben die Aussage bzgl Gesamtbild.

Ganz offen gesagt: Ich hab noch keinen Shader und keine Textur gesehen die bei 8xSSAA noch geflimmert hätte. Mag sein, dass es da Extremfälle gibt, aber für etwa 90% der schlimmen Fälle reicht bereits 4xSGSSAA aus um sie glatt zu bügeln.

Klar, 4x4 OGSSAA ist die absolute Holzhammermethode wenn noch irgendwas flimmert. Ist im Vergleich nur elendig Ineffizient.

Nvidias inoffizielle SSAA-Modi provozieren eh bei jedem zweiten halbwegs aktuellen Spiel Blur, damit völlig uninteressant.

Was bei Nvidia mit SSAA blurrt tut bei ATi normalerweise das gleiche. Das ist nicht wirklich ein Argument.

Gast
2010-03-29, 15:56:51
Was bei Nvidia mit SSAA blurrt tut bei ATi normalerweise das gleiche. Das ist nicht wirklich ein Argument.

Falsch. Es gibt kaum ein Spiel das bei AMD blurrt, bei NV sind es fast alle halbwegs aktuellen.

Raff
2010-03-29, 15:57:48
Ich gehe es mal anders an. Was ist besser: Full HD (1.920 x 1.080) mit 16x OGSSAA oder 2.560 x 1.600 mit 8x SGSSAA? Der Rechenaufwand ist vergleichbar.

1.680x1.050 + 4x4 OGSSAA = 6.720x4.200 = 28.224.000 Pixel
1.920x1.080 + 4x4 OGSSAA = 7.680x4.320 = 33.177.600 Pixel
2.560x1.600 + 8x SGSSAA = 32.768.000 Pixel

Ich hoffe, ich habe mich in der Eile nicht verrechnet. :D

MfG,
Raff

mironicus
2010-03-29, 15:58:25
3. Oft war zu lesen, dass die Karten Dolby Digital True HD und DTS Master Audio nicht als bitstream ausgeben können. Wie bekomm ich`s dann in den AV-Verstärker?

Eine extra Soundkarte kaufen, die das kann. (ab 120 Euro von Asus). ;D

Iceman346
2010-03-29, 15:59:22
Falsch. Es gibt kaum ein Spiel das bei AMD blurrt, bei NV sind es fast alle halbwegs aktuellen.

"Kaum eins" ist auf jeden Fall untertrieben, gibt genug Spiele die auf 5XXXer Karten blurry sind. Ne Nvidia Karte hab ich zwar nicht mehr, aber die Spiele die damals auf der GTX260 die ich ne zeitlang hatte blurrten tun das mit der 5870 auch.

kmf
2010-03-29, 16:02:14
Jo, der klebt direkt neben dem blauen "Gehörschutz tragen" Warnaufkleber.Wakü ist recht leise und kühlt auch vernünftig. Mit Standardkühler käme mir auch keine in meinen Rechner.
Ich warte vorerst noch ab, bis sich die Preise auf ein vernüftigeres Maß eingependelt haben. Dann ersetz ich die 285er in meinem i7-Rechner. Hab ja immer noch mein 280er SLi. Und das geb ich auch so schnell nicht her.

Tesseract
2010-03-29, 16:03:11
Ich empfehle dir mal ein Blick in die Grundlagen des AA.

SGSSAA ist das Beste was es gibt.
Besser geht es nicht.
Und das kann die GTX 4x0 nicht.

EOD.

erstens ist "das beste was es gibt" höhere auflösung (für die man aber entsprechende monitore bräuchte), zweitens gilt das nur für die selbe samplezahl und drittens auch nur im "durchschnitt". je nach content kann das auch ganz anders aussehen.

Gast
2010-03-29, 16:06:19
Danke Mironicus. Ich frage mich nur, ob der Verstärker nicht Bild und Ton an einem einzigen Eingang erwartet. Warum kann das die nVidia eigentlich nicht? Liegt das am Mini-HDMI (das könnten die einzelnen Hersteller ja ändern) oder am Treiber? Wen`s interessiert: Es wurde schon eine Karte von Palit angekündigt mit HDMI (da steht nix von Mini) UND displayport......und 2 Lüftern.
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/maerz/palit_gtx_470_480_kuehler_displayport/

derguru
2010-03-29, 16:06:46
hab noch was vom anderen thread.gesamtbild ist entscheidend und nicht wieviel samplezahl und fast noch wichtiger die spielbarkeit.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7842089&postcount=667

PulsarS
2010-03-29, 16:08:11
erstens ist "das beste was es gibt" höhere auflösung (für die man aber entsprechende monitore bräuchte),
Ich wäre vorsichtig mit solchen Aussagen, was die Auflösung betrifft.
Irgendwann (extrem hohe Auflösung) kannst du die Menus in den Spielen gar nicht mehr lesen, wenn diese von der Auflösung abhängig sind.

zweitens gilt das nur für die selbe samplezahl
Davon gehe ich doch aus.
Will ja keine Äpfel mit Birnen vergleichen... :rolleyes:

und drittens auch nur im "durchschnitt". je nach content kann das auch ganz anders aussehen.
Ich glaube nicht dass 4xOGSSAA besser aussehen kann als 4XSGSSAA.
Lasse mich aber gerne eines Besseren belehren. :)

Gast
2010-03-29, 16:08:53
hi wollte mal kurz was wissenn und zwar ob mein system mit der gtx 480 läuft oder ob zu wenig saft da ist!

ich habe ein:

i7 920 @3,5 G/hz
Asus Rampage 2 Extreme
6gb ddr 3 speicher
1 festplatte
1 dvd brenner
4 gehäuse lüfter!

netzteil ist dieses hier: http://www.mindfactory.de/product_info.php?products_id=148444&pid=geizhals



max output vom NT ist:

+3.3V ~ 30A
+5V ~ 28 A
+12(1)V ~ 18A
+12(2)V ~ 18A
+12(3)V ~ 18A
+12(4)V ~ 18A

netzteil hat 1x 6pin und 1x 8pin stromanschluss!


würde mich freuen wenn mir jemand weiterhelfen kann...nicht das ich dann da stehe und nix geht!

will die karte zum zum zocken haben ...also nicht an 3d schw...mark interesiert!

Raff
2010-03-29, 16:10:40
Ich glaube nicht dass 4xOGSSAA besser aussehen kann als 4XSGSSAA.
Lasse mich aber gerne eines Besseren belehren. :)

Wenn ich mich recht erinnere, ist ein OG-Muster besser, wenn die Textur beispielsweise ein fieses, gleichmäßig schwarzweißes Schachbrettmuster ist. Hier zahlt sich die gleichmäßige Abtastung aus, während die Streuung bei gleicher Sampelzahl etwas schlechter aussieht.

MfG,
Raff

kmf
2010-03-29, 16:12:58
hi wollte mal kurz was wissenn und zwar ob mein system mit der gtx 480 läuft oder ob zu wenig saft da ist!

ich habe ein:

i7 920 @3,5 G/hz
Asus Rampage 2 Extreme
6gb ddr 3 speicher
1 festplatte
1 dvd brenner
4 gehäuse lüfter!

netzteil ist dieses hier: http://www.mindfactory.de/product_info.php?products_id=148444&pid=geizhals



max output vom NT ist:

+3.3V ~ 30A
+5V ~ 28 A
+12(1)V ~ 18A
+12(2)V ~ 18A
+12(3)V ~ 18A
+12(4)V ~ 18A

netzteil hat 1x 6pin und 1x 8pin stromanschluss!


würde mich freuen wenn mir jemand weiterhelfen kann...nicht das ich dann da stehe und nix geht!

will die karte zum zum zocken haben ...also nicht an 3d schw...mark interesiert!Reicht dicke für eine 480er. Nur für SLi nicht.

Mr. Lolman
2010-03-29, 16:14:37
Diese Aussage erscheint mir absurd. Wenn 4x4 gleichermassen gut auf alles wirkt (Tex, Shader, Kanten), 8xSG aber viel stärker bei den Kanten als den anderen Problemen greift, wieso sollte dann das letztere das bessere Gesamtbild liefern? Für mich bedeutet besseres Gesamtbild, das alles homogen ausschaut, eben wie aus einem Guss. Bei 8xSG ist das aber nicht so, weil da eventuell die Shader und Texturen flimmern, während die Kanten schön glatt sind.

Der Ansatz ist zwar richtig, nur geb ich zu bedenken, dass man bei 4x4OGSSAA an den Kanten nur ein 4x4 EER hat (genau wie bei 4xMSAA). D.h. 3 Zwischenstufen bei flachen Kanten. Verglichen zum Aufwand, der mit 4x4OGSSAA betrieben wird (~94% der Füllrate gehen nur fürs AA drauf), kann man konstatieren, dass SGSSAA bei gleicher Sampleanzahl das homogenere Bild liefert.

Gast
2010-03-29, 16:14:50
Reicht dicke für eine 480er. Nur für SLi nicht.


danke für die info

mironicus
2010-03-29, 16:17:41
Danke Mironicus. Ich frage mich nur, ob der Verstärker nicht Bild und Ton an einem einzigen Eingang erwartet. Warum kann das die nVidia eigentlich nicht? Liegt das am Mini-HDMI

Nein, ATI war bei der Implementierung von Sound via HDMI schon immer ein ganzes Stück voraus. Bei NVIDIA musste man für Sound über HDMI ein SPDIF-Kabels vom Mainboard-Soundchip zur Grafikkarte legen (die GT200-Reihe und davor). Für HTPCs sind die ATI-Karten zurzeit die erste Wahl, vor allem gibt es ja die 5450 bereits schon für unter 40 Euro, die Bitstreaming von True-HD beherrscht. Die aktuellen GT210, GT220, GT240 und GF100 haben HDMI-Sound, unterstützen aber leider kein Bitstreaming.

Tante Hilde
2010-03-29, 16:20:18
Wakü ist recht leise und kühlt auch vernünftig. Mit Standardkühler käme mir auch keine in meinen Rechner.
Ich warte vorerst noch ab, bis sich die Preise auf ein vernüftigeres Maß eingependelt haben. Dann ersetz ich die 285er in meinem i7-Rechner. Hab ja immer noch mein 280er SLi. Und das geb ich auch so schnell nicht her.

Naja, nicht jeder will nen Haufen Geld für ne WaKü und nen Monsternetzteil zu den ohnehin teuren Karten noch dazu ausgeben. Soweit geht die Liebe bei den meisten dann doch nicht.

Ich hatte ehrlichgesagt mit dem Kauf einer GTX 470 als Ablösung meiner GTX 275 geliebäugelt, aber was nV da abgeliefert hat enttäuscht mich auf ganzer Linie. Und jetzt ist ja auch schon Frühling, man geht mehr raus, verbringt viel weniger Zeit vor dem Rechner, da tuts die alte Karte auch noch. Wozu jetzt neu kaufen wenn das Ding das nächste 3/4 Jahr eh nur tot im Rechner steckt. Und nächsten Herbst/Winter gibts schon die Refreshs oder NextGen, da wär ich ja schön blöd. Fazit: Kauf aufgeschoben.

Tesseract
2010-03-29, 16:24:22
Ich wäre vorsichtig mit solchen Aussagen, was die Auflösung betrifft.
Irgendwann (extrem hohe Auflösung) kannst du die Menus in den Spielen gar nicht mehr lesen, wenn diese von der Auflösung abhängig sind.
das hat aber nix mit dem thema abtastung/AA zutun. das ist eine unzulänglichkeit der engine, genau wie unschärfe durch SS, die mit der technik selbst auch nicht direkt etwas zutun hat.

Davon gehe ich doch aus.
Will ja keine Äpfel mit Birnen vergleichen... :rolleyes:
das ist es aber wenn du 4x4 mit atis modi vergleichst. kein modus hat dort 16 samples.

Ich glaube nicht dass 4xOGSSAA besser aussehen kann als 4XSGSSAA.
Lasse mich aber gerne eines Besseren belehren. :)
bei z.B. feinen gittern gibt es einige winkel bzw. "maschengrößen", bei denen OG bessere resultate erzielt.
außerdem ist ATIs 8xSG im speziellen nicht besonders gut weil dabei ein zickzackmuster entsteht, das natürlich auch anfälliger ist als es sein könnte.

derguru
2010-03-29, 16:26:25
das ist es aber wenn du 4x4 mit atis modi vergleichst. kein modus hat dort 16 samples.

bei einer einzelnen karte ja ab cf aber schon oder wieviel sind es 16xsgssaa?
scheisse muss das gut aussehen inkl. tent modis,allein der modi zwingt mich zu cf.;D

Mr. Lolman
2010-03-29, 16:31:56
außerdem ist ATIs 8xSG im speziellen nicht besonders gut weil dabei ein zickzackmuster entsteht, das natürlich auch anfälliger ist als es sein könnte.

Hm?

Blaire
2010-03-29, 16:34:55
bei einer einzelnen karte ja ab cf aber schon oder wieviel sind es 16xsgssaa?
scheisse muss das gut aussehen inkl. tent modis,allein der modi zwingt mich zu cf.;D

16xSGSSAA funktioniert leider nicht immer. Und wenn dann ist es zu lahm...aber dafür keine MR ;)

kmf
2010-03-29, 16:35:12
Naja, nicht jeder will nen Haufen Geld für ne WaKü und nen Monsternetzteil zu den ohnehin teuren Karten noch dazu ausgeben. Soweit geht die Liebe bei den meisten dann doch nicht.

Ich hatte ehrlichgesagt mit dem Kauf einer GTX 470 als Ablösung meiner GTX 275 geliebäugelt, aber was nV da abgeliefert hat enttäuscht mich auf ganzer Linie. Und jetzt ist ja auch schon Frühling, man geht mehr raus, verbringt viel weniger Zeit vor dem Rechner, da tuts die alte Karte auch noch. Wozu jetzt neu kaufen wenn das Ding das nächste 3/4 Jahr eh nur tot im Rechner steckt. Und nächsten Herbst/Winter gibts schon die Refreshs oder NextGen, da wär ich ja schön blöd. Fazit: Kauf aufgeschoben.Naja Wakü hab ich ja, bis auf die notwendigen neuen Grakakühler. Ich liebäugele eh mit der Lösung von EVGA, die gleich einbaufertige Karten liefern. Kommt aber auf den Preis an. Ich hab auch keine Lust 1000€ für zwei Karten hinzublättern, wenn das überhaupt reicht. Ansonsten sehe ich das auch so wie du. Im Moment stehen bei mir andere Dinge im Vordergrund. Allerdings wenn die GTX480 der Oberhammer geworden wäre, würde ich mir jetzt gleich eine gönnen. So verschiebe ich meine geplante Anschaffung in die "saure Gurkenzeit" für den PC-Zubehörhandel, sprich in den Hochsommer.

Tesseract
2010-03-29, 16:35:48
Hm?

siehe anhang

LovesuckZ
2010-03-29, 16:42:14
Als ob unser Tombman die mit LuKü betreiben würde :wink:

€: Kann es sein das die EVGA Karten noch niegens zum bestellen sind?

Doch, per geizhals kann man sie finden. Aber Lieferung erst ab 12. April. Wurde im nVidia.com Forum nochmal erwähnt.

kmf
2010-03-29, 16:43:43
Als ob unser Tombman die mit LuKü betreiben würde :wink:

€: Kann es sein das die EVGA Karten noch niegens zum bestellen sind?Hab ich mich auch grad gefragt. Bei den aktuellen Brettern musst du bei SLi eh auf Wakü zurückgreifen, weil die Karten für reine Lukü viel zu eng zusammensitzen.

Gast
2010-03-29, 16:45:10
Hab ich mich auch grad gefragt. Bei den aktuellen Brettern musst du bei SLi eh auf Wakü zurückgreifen, weil die Karten für reine Lukü viel zu eng zusammensitzen.

Naja, gleich wie meine beiden 3870 X2 damals.
Ohne 12cm Lüfter in der Seitenwand der direkt draufbließ war da nix zu machen.

Mr. Lolman
2010-03-29, 16:45:41
siehe anhang

Sapperlot!

Bringt so ein Pattern überhaupt irgendwelche Vorteile? Und wenn das AA-Pattern eh programmierbar ist, könnte mans ja theoretisch ändern, oder?
Vll. sollte man dem Treiberteam das mal vorschlagen. Bei 3dfx hats ja auch geklappt.

dildo4u
2010-03-29, 16:48:57
Neuer Nvidia Treiber 256 und höher ab April 2010

http://www.pcgameshardware.de/aid,743591/Neuer-Nvidia-Treiber-256-und-hoeher-ab-April-2010/Grafikkarte/News/

Mal sehen ob NV da schon ein bissel Leistung nachschieben kann.

derguru
2010-03-29, 16:51:12
16xSGSSAA funktioniert leider nicht immer. Und wenn dann ist es zu lahm...aber dafür keine MR ;)
es werden sich spiele finden die spielbar sind(sollten aber dann 2 matrix sein mit 1ghz oc:biggrin:)das mit dem nicht immer erzwingen könnte eher weh tun.

ist das eigentlich sicher das es unter 16xsgssaa kein mr gibt?

kmf
2010-03-29, 16:51:51
Sapperlot!

Bringt so ein Pattern überhaupt irgendwelche Vorteile? Und wenn das AA-Pattern eh programmierbar ist, könnte mans ja theoretisch ändern, oder?
Vll. sollte man dem Treiberteam das mal vorschlagen. Bei 3dfx hats ja auch geklappt.Sollte man schleunigst ändern. So sieht das nur schei0e aus.

Habt ihr keinen Draht zu Treiberteam?

Raff
2010-03-29, 16:58:02
16xSGSSAA funktioniert leider nicht immer. Und wenn dann ist es zu lahm...aber dafür keine MR ;)

Die Makro-Spielverderber sind bei MGPU aber nicht alles. Erst kürzlich probierte ich wieder ein paar Spiele mit 16x SGSSAA aus (HD 5870 mal zwei). Wenn es mal geht, schaut es sehr geil aus (beispielsweise in HL2). Aber nicht geiler als 8x SGSS + ED-Filter (was deuuuutlich schneller läuft). Hinzu kommt die Eingabeverzögerung – die ist prinzipbedingt immer da. 30 Fps, auf einer Single-GPU für SP-Shooter brauchbar, kann man mit zwei(, drei, vier) GPUs wegen des Lags in die Tonne treten. Auch ohne MR.

MfG,
Raff

StefanV
2010-03-29, 17:00:51
<del by mod>

netzteil ist dieses hier: http://www.mindfactory.de/product_info.php?products_id=148444&pid=geizhals

max output vom NT ist:

+3.3V ~ 30A
+5V ~ 28 A
+12(1)V ~ 18A
+12(2)V ~ 18A
+12(3)V ~ 18A
+12(4)V ~ 18A

netzteil hat 1x 6pin und 1x 8pin stromanschluss!
würde mich freuen wenn mir jemand weiterhelfen kann...nicht das ich dann da stehe und nix geht!
Nun, von den Daten her müssts eigentlich reichen.
Dummerweise hat man früher gern 2 Rails am EPS12V Stecker verbraten, eine nutzt man dann für den Rest (Molex, MoBo usw) und an einer hängen die PCie Stecker.

Ergo: 18A für die GraKa(s)...

Schlammsau
2010-03-29, 17:07:22
Tja....nur 3% sehen es wie Tombman und Co.
http://www.3dcenter.org/umfrage/wie-ist-der-ersteindruck-zum-gf100-chip

Diese Karte wird bis auf ein paar Wahnsinnige keiner kaufen.
Der 470 wirds zwar nicht ganz genauso ergehen, aber auch die wird nur sehr sehr wenige Abnehmer finden.

http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_nvidia_geforce_gtx_480/29/#abschnitt_fazit
Die Radeon HD 5870 ist ohne Frage das „rundere“ Produkt

LovesuckZ
2010-03-29, 17:09:32
Warum sollte die GTX470 wenige Abnehmer finden? Weil du es sagst? :lol:

Exxtreme
2010-03-29, 17:10:54
ein paar Wahnsinnige
Yo Baby Yo Baby Yo! ;D

Ich hoffe, die Palits sind da wesentlich leiser als das angeblich sehr laute Referenzmodell. Mein Gehäuse ist sehr gut gerüstet für den Fermi. Genug Lüfter inc.

;D

Schlammsau
2010-03-29, 17:10:59
Warum sollte die GTX470 wenige Abnehmer finden? Weil du es sagst? :lol:

Nein weil es die Internetgemeinde so sieht. ;)
http://www.3dcenter.org/umfrage/wie-ist-der-ersteindruck-zum-gf100-chip
Nur 3% sehen die GTX400 Serie vorne und 8% sehen ein unentschieden.
Die restlichen 89% sehen die GTX400 Serie als die schlechteren Karten an. :ulol:

Gast
2010-03-29, 17:13:08
Nein weil es die Internetgemeinde so sieht. ;)
http://www.3dcenter.org/umfrage/wie-ist-der-ersteindruck-zum-gf100-chip

Richtig: http://www.hardwareluxx.de/community/f14/wer-kauft-sich-eine-gtx480-470-oder-hd5970-5870-5850-5830-5770-5750-5670-usw-702999.html

LovesuckZ
2010-03-29, 17:14:36
Nein weil es die Internetgemeinde so sieht. ;)
http://www.3dcenter.org/umfrage/wie-ist-der-ersteindruck-zum-gf100-chip
Nur 3% sehen die GTX400 Serie vorne und 8% sehen ein unentschieden.
Die restlichen 89% sehen die GTX400 Serie als die schlechteren Karten an. :ulol:

Wo ist die GTX470 teurer? Wo ist die Leistung von der 5870 soviel besser?
Warum fragt niemand mal direkt nach der 5870 und GTX470 sowie GTX480 und 5970. Das könntest mit deinen Diagrammen auch tolle Ergebnisse bringen.

Slipknot79
2010-03-29, 17:15:13
Mir ist überhaupt ned klar, wo das Problem mit dem hohen Strom ist. Die paar EURs im Jahr, lächerlich.

Schlammsau
2010-03-29, 17:15:29
Wo ist die GTX470 teurer? Wo ist die Leistung von der 5870 soviel besser?
Warum fragt niemand mal direkt nach der 5870 und GTX470 sowie GTX480 und 5970. Das könntest mit deinen Diagrammen auch tolle Ergebnisse bringen.

Ich kann gerne eine Umfrage machen.

Gast
2010-03-29, 17:15:42
Warum fragt niemand mal direkt nach der 5870 und GTX470

Siehe über dir.

Mr. Lolman
2010-03-29, 17:16:22
Sollte man schleunigst ändern. So sieht das nur schei0e aus.

Habt ihr keinen Draht zu Treiberteam?

Das Muster sieht in der Tat schei0e aus. Aber im Normalfall funktionierts gut. Weil ich denn Sinn von dem Muster nicht check, hab ich aber trotzdem mal eine Anfrage ins AMD Forum gestellt.

vlnr: 8xSSAA, 8xEDSSAA, 8xNTSSAA, 8xWTSSAA:

http://www.abload.de/thumb/8xssaaa6cx.png (http://www.abload.de/image.php?img=8xssaaa6cx.png) http://www.abload.de/thumb/8xedssaao6qw.png (http://www.abload.de/image.php?img=8xedssaao6qw.png) http://www.abload.de/thumb/8xntssaazu6p.png (http://www.abload.de/image.php?img=8xntssaazu6p.png) http://www.abload.de/thumb/8xwtssaau6af.png (http://www.abload.de/image.php?img=8xwtssaau6af.png)

LovesuckZ
2010-03-29, 17:17:11
Siehe über dir.

Liest man sich den Thread durch, dann klicken dort auch die, die schon Evergreen gekauft haben. Ja, so genial sind Umfragen in einem Forum. :rolleyes:

Iruwen
2010-03-29, 17:17:38
Nein weil es die Internetgemeinde so sieht. ;)
http://www.3dcenter.org/umfrage/wie-ist-der-ersteindruck-zum-gf100-chip
Nur 3% sehen die GTX400 Serie vorne und 8% sehen ein unentschieden.
Die restlichen 89% sehen die GTX400 Serie als die schlechteren Karten an. :ulol:
Das liest du da auch nur raus weil es dir in den Kram passt. Dann kann ich auch sagen dass der niedrige Wert bei "Die Einzelpunkte sind nicht so wichtig, das Gesamtpaket ist bei ATI einfach runder" aussagt dass das Gesamtpaket bei ATI einfach Mist ist. Statistiken verdrehen ftw.

Cubitus
2010-03-29, 17:23:05
Wer eine gute schnelle und sparsame Karte für Singel GPU möchte, der soll sich ruhig ne ATI kaufen.

Aber bei MPGU ist SLI einfach besser was das Thema MR betrifft und auch in der Handhabung ist SLI um Vieles komfortabler.

wer nach 30 Jahren auf 2D Spielen keinen Bock mehr hat, der holt sich 3D Vision und hat Spaß.
Bei ATI gibts in dieser Hinsicht überhaupt nix Brauchbares.

Zudem arbeitet gerade Nvidia mit vielen Devs zusammen.
Mehr als ATI ;)

Extras wie Physix oder Cuda "Wasser" oder auf 3d optimierte Spiele findet man bei ATI nicht.
Nvidia ist in diesem Gebiet einfach innovativer und die GTX480 wirklich eher für Enthusiasten (Wahnsinnige) geeignet.

Was Nvidia eben fehlt ist so ne Volkskarte wie es die 8800GT damals für Crysis war.

Gast
2010-03-29, 17:23:11
Liest man sich den Thread durch, dann klicken dort auch die, die schon Evergreen gekauft haben. Ja, so genial sind Umfragen in einem Forum. :rolleyes:

Die werden logischerweise keine GTX 470 mehr holen, so what.

LovesuckZ
2010-03-29, 17:24:06
Die werden logischerweise keine GTX 470 mehr holen, so what.

Yeah, so what. Vorallen, wenn der Thread lautet: Wer kauft sich was. :rolleyes:

AnarchX
2010-03-29, 17:26:08
Warum eigentlich die Entscheidung Nvidia oder ATi (als richtiger Enthusiast)?
Als Enthusiast mit entsprechenden Mitteln baut man sich das richtige "You can have it all"-System mit zwei GTX 480 und einer 5970 2x2GiB, natürlich alle GPUs unter Wasser.
Damit kann man dann für jedes Game die beste Lösung wählen und hat zudem noch spezielle Möglichkeiten wie SGSSAA @ PhysX-Games. Und bei GPGPU-Anwendungen hat man auf der einen Seite CUDA mit seinen Vorteilen, auf der anderen Seite die fast 6 TFLOPs Crunchingpower der beiden Cypress.

tombman
2010-03-29, 17:27:50
Yo Baby Yo Baby Yo! ;D

http://www.youtube.com/watch?v=78Q9G5OFkuw
Well fuck 'em, fuck 'em, fuck 'em, and they can not stop me
So I will be drivin' like Ricky Bobby :cool:
http://www.metrolyrics.com/throw-it-up-lyrics-busta-rhymes.html

Btw, die Palit Karte könnte wirklich was für non Wakü-Owner sein, für mich ist das Referenzdesign wegen der Platte
sogar BESSER.

Cubitus
2010-03-29, 17:31:35
Warum eigentlich die Entscheidung Nvidia oder ATi (als richtiger Enthusiast)?
Als Enthusiast mit entsprechenden Mitteln baut man sich das richtige "You can have it all"-System mit zwei GTX 480 und einer 5970 2x2GiB, natürlich alle GPUs unter Wasser.
Damit kann man dann für jedes Game die beste Lösung wählen und hat zudem noch spezielle Möglichkeiten wie SGSSAA @ PhysX-Games. Und bei GPGPU-Anwendungen hat man auf der einen Seite CUDA mit seinen Vorteilen, auf der anderen Seite die fast 6 TFLOPs Crunchingpower der beiden Cypress.

Wer sich mit CF intensiv auseinandergesetzt hat und danach zu SLI wechselt will kein CF mehr :wink:
Auch keine vermeintliche Singelkarte ala HD5970,

Für mich wäre die You can have it all" Lösung, 3way AFR.@480GTX, bei Quad SLI sind die Frametimes richtig mies..

tombman
2010-03-29, 17:38:01
Für mich wäre die You can have it all" Lösung, 3way AFR.@480GTX, bei Quad SLI sind die Frametimes richtig mies..
3 Stück wären sicher ideal, aber ich hab Angst, daß NV eine 512sp Version nachschiebt, und man dann 3 loswerden
müßte :(

Btw, die Umfrage ist purer Müll, weil nur 1x pro NV, 3x contra NV (!!!) und 1x neutral auszuwählen sind- manipulativer geht nimmer.
Außerdem fehlt der wichtigste Punkt: "Gesamtpaket von NV ist besser [x]"
So mußte ich Punkt 1 wählen, obwohl das nicht meine Aussage gewesen wäre- perf. ist nämlich NICHT alles.

Cubitus
2010-03-29, 17:46:19
3 Stück wären sicher ideal, aber ich hab Angst, daß NV eine 512sp Version nachschiebt, und man dann 3 loswerden
müßte :(

Ja das ist die Frage, zutrauen könnte ich es Nvidia schon.
Vor allem werde ich irgendwie das Gefühl nicht los, das der "Ultra" Begriff wieder fallen wird.

Ich selber werde mir aber jetzt auch erst mal zwei ordern =)

Btw, die Umfrage ist purer Müll, weil nur 1x pro NV, 3x contra NV (!!!) und 1x neutral auszuwählen sind- manipulativer geht nimmer.
Außerdem fehlt der wichtigste Punkt: "Gesamtpaket von NV ist besser [x]"
So mußte ich Punkt 1 wählen, obwohl das nicht meine Aussage gewesen wäre- perf. ist nämlich NICHT alles.

;D warum tauschen wir das Orange nicht gegen Rot, sieht bestimmt auch gut aus.
Wobei ja Rot eigl meine Lieblingsfarbe ist :redface:

AYAlf_2
2010-03-29, 17:50:25
3 Stück wären sicher ideal, aber ich hab Angst, daß NV eine 512sp Version nachschiebt, und man dann 3 loswerden
müßte :(

Btw, die Umfrage ist purer Müll, weil nur 1x pro NV, 3x contra NV (!!!) und 1x neutral auszuwählen sind- manipulativer geht nimmer.
Außerdem fehlt der wichtigste Punkt: "Gesamtpaket von NV ist besser [x]"
So mußte ich Punkt 1 wählen, obwohl das nicht meine Aussage gewesen wäre- perf. ist nämlich NICHT alles.

auch dann waere das ergebnis nicht anders ausgefallen.... so koennen sich wenigstens die ganzen nvidia fans auf nur eine antwort einigen. wenn es 2 moeglichkeiten fuer nvidia gegeben haette, dann sehe das noch beschaemender aus, imho.

tombman
2010-03-29, 17:53:04
Ich selber werde mir aber jetzt auch erst mal zwei ordern =)

Wir werden dann von du-weißt-schon-wer (;)) eh erfahren wie 3x 480 rennt, danach können wir eh noch entscheiden.

;D Ich glaube Schlammsau ist auch alles andere als objektiv..
Die "Umfrage" kam von Leonidas! Das ist ja das Schlimme.
Btw, Schlammi gehört nicht zur Zielgruppe der GTX4 Serie, der ist reiner P/L Käufer...klar
mag er diese Karten nicht :)

tombman
2010-03-29, 17:56:24
auch dann waere das ergebnis nicht anders ausgefallen.... so koennen sich wenigstens die ganzen nvidia fans auf nur eine antwort einigen. wenn es 2 moeglichkeiten fuer nvidia gegeben haette, dann sehe das noch beschaemender aus, imho.
:upicard:
Genau, wozu die richtigen Gründe anführen? Besser alle pro-NV Leute in eine Schublade stecken um sie in möglichst
schlechtem Licht dastehen zu lassen :uhammer:

Warum nicht gleich so:

a.) Ich wäre gerne Jensens persönliche Sexsklavin, Fermi ist so toll [ ]
b.) AMD hat das beste Konzept, die intelligenteste und vernünftigste Lösung, ideal für die elitäre und weise Zielgruppe [ ]

Besser? :ulol:

Cubitus
2010-03-29, 17:59:20
Wir werden dann von du-weißt-schon-wer (;)) eh erfahren wie 3x 480 rennt, danach können wir eh noch entscheiden.

Die "Umfrage" kam von Leonidas! Das ist ja das Schlimme.
Btw, Schlammi gehört nicht zur Zielgruppe der GTX4 Serie, der ist reiner P/L Käufer...klar
mag er diese Karten nicht :)

Ja habs nachträglich geändert, Schlammsau startet ja auch gerade ne Umfrage, kommt man ganz durcheinander.. :freak:

Hoffentlich liefert Alternate schnell aus,
lt Atelco sollten die Karten bereits am 6.04 eintreffen

AYAlf_2
2010-03-29, 18:00:37
:upicard:
Genau, wozu die richtigen Gründe anführen? Besser alle pro-NV Leute in eine Schublade stecken um sie in möglichst
schlechtem Licht dastehen zu lassen :uhammer:

du tust ja gerade so .. also ob die umfrage nvidia und ihre fans diffamieren wuerde, mach mal halblang.

tombman
2010-03-29, 18:07:18
du tust ja gerade so .. also ob die umfrage nvidia und ihre fans diffamieren wuerde, mach mal halblang.
Das tut sie auch, indem sie nur einen Grund zuläßt pro NV zu sein.

Cubitus
2010-03-29, 18:09:03
du tust ja gerade so .. also ob die umfrage nvidia und ihre fans diffamieren wuerde, mach mal halblang.

Die Umfrage zielt darauf ab die wesentlichen Punkte (also auf das was die Mehrheit der User achtet, Stromverbrauch P/L und bla) wo ATI besser ist hervorzuheben...
SLI User, 3d Visionäre und "Kenner von Feinkost" werden außen vor gelassen..

Wuge
2010-03-29, 18:13:31
Nein weil es die Internetgemeinde so sieht. ;)
http://www.3dcenter.org/umfrage/wie-ist-der-ersteindruck-zum-gf100-chip
Nur 3% sehen die GTX400 Serie vorne und 8% sehen ein unentschieden.
Die restlichen 89% sehen die GTX400 Serie als die schlechteren Karten an. :ulol:

Die Ergebnisse sind durchaus interpretationsfähig. Ich habe z.B. für den hohen Stromverbrauch als Contra-Argument gestimmt, finde die Karten aber trotzdem interessant. Wenn ich jetzt kaufen müsste würde ich die GTX 470 auf jeden Fall einer ATI vorziehen.

tombman
2010-03-29, 18:22:41
jo genau .. die umfrage ist schuld, dass nvidia so schlecht abschneidet
Nein, leg mir nichts in den Mund!
Es ist irrelevant wie NV abschneidet, aber Umfragen gehören korrekt gemacht.

Btw, Charlie is BACK:
http://www.semiaccurate.com/2010/03/28/why-nvidia-hacked-gtx480/

:lol:

Schrotti
2010-03-29, 18:25:22
Hoher Stromverbauch?

Launch der GTX 280 im Jahr 2008->

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/#abschnitt_einleitung

Mir ist das ganze relativ egal.

Die GTX 280 war zum Launch auch ein übles Stromfressendes glühendes Kärtchen.

Also unter Wasser und schon ist zumindest die Hitze gebannt.

Immer das Geheule wegen des Stromes.

N0Thing
2010-03-29, 18:27:31
Hoffentlich liefert Alternate schnell aus,
lt Atelco sollten die Karten bereits am 6.04 eintreffen

Atelco verschiebt die Liefertermine gerne alle drei Tage um weitere drei Tage nach hinten, die Angaben von Alternate sind in der Regel stimmiger.

Bin gespannt wann und wie lange die Karten als verfügbar gelistet werden.

LovesuckZ
2010-03-29, 18:29:10
Wobei die GTX480 da nochmal einen Zacken draufpackt - ca. 50 Watt.
Interessant wäre zu sehen, wie schneller eine GTX480 im Verhältnis zu einem GTX280 SLI System wäre. Nimmt man die GTX275 als Maßstab, sind es ca. 78%: http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_nvidia_geforce_gtx_480/21/#abschnitt_performancerating_directx_11
Somit dürfte eine GTX480 auf dem Niveau eines GTX280 SLI-Systems sein.

mironicus
2010-03-29, 18:33:06
Sollte ATI jetzt nicht lieber die TDP-Angaben seiner Karten deutlich absenken? Wenn sie wie NVidia nur die Watt-Leistung in Spielen angeben würden, könnte man die 5870 als 130 Watt-Karte verkaufen. :)

ATI ist da doch sehr viel ehrlicher, finde ich - und NVidia beschönigt seine TDP-Angaben mit Ausreden. Bei Geizhals und Co. stehen die GTX 480 jetzt mit 250 Watt, dabei müsste da mindestens 320 Watt+ stehen. :)

Zockmaschine
2010-03-29, 18:35:50
Also unter Wasser und schon ist zumindest die Hitze gebannt.

Bis zum Sommer mit einem x00 Liter tank, dann kann man das kochende wasser zum Tee aufgiesen verwenden...

;D


Immer das Geheule wegen des Stromes.

Naja, manche müssen das eben selber zahlen (sprich: wohnen nicht mehr bei Mami :cool:) und gamen auch recht viel. Da kommen langfristig schnell grössere Summen zusammen, als man denkt...

Besonders wenn man einen 2. Monitor benutzt...

;D

Gast
2010-03-29, 18:40:07
Hoher Stromverbauch?

Launch der GTX 280 im Jahr 2008->

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/#abschnitt_einleitung

Mir ist das ganze relativ egal.

Die GTX 280 war zum Launch auch ein übles Stromfressendes glühendes Kärtchen.

Also unter Wasser und schon ist zumindest die Hitze gebannt.

Immer das Geheule wegen des Stromes.


Was ist denn das für eine Begründung. Nur weil NV es bei der GTX280 schon schlecht gemacht hat, ist es jetzt ok es noch viel schlechter zu machen.
Wie kann man diese Karten auch noch abfeiern? Ist mir vollkommen unbegreiflich.

Ja wirklich tolle Leistung NV. Mit gewaltigen Ressourceneinsatz/-verbrauch gerade so an einer 6 Monate alten HD5870 vorbeigekommen. Diese Gen ist wohl eine der schlechtesten GPU-Gens die es je gab.

Savay
2010-03-29, 18:42:37
"Kenner von Feinkost"

made my day! danke dafür ;D

steht die platinierte karte dann auf dem silbertablett direkt neben dem petit filet mignon, dem beluga kaviar und der flasche champagner im luxuskühlschrank mit integriertem vollautomatischem ice crusher?! :biggrin:

als wahrer 3D connaisseur weiß man dann natürlich auch jede klangnuance seines nur mit weißen samthandschuhen angefassten schmuckstückchens zu schätzen, so dass man sich natürlich, um auch im bentley auf seiner bang und olufson anlage seinem hobby fröhnen zu können, extra ein 60min soundsample auf SACD hat bannen lassen?! :tongue:

manchmal hat dieses forum wirklich komödiantisches potenzial sondergleichen :biggrin:

Disclaimer:
bevor hier jetzt wieder die große entrüstung ausbricht...der post soll die hardware an sich in keinster weise be- oder abwerten! =)
die floskel an sich klingt nur in dem zusammenhang mit profaner pc hardware bedauerlicherweise so derbe abgedroschen wie kaum etwas anderes das ich die letzten wochen vernommen habe. nichts für ungut... ;)

AnarchX
2010-03-29, 18:43:54
Fragen zu individuellen Problemen, wie Netzteil, Lüftung oder ob eine GeForce 400 zum System passt, sind in den HW-Hilfe-Foren mit eigenen Threads zu stellen: http://www.forum-3dcenter.org/vbulletin/forumdisplay.php?f=1

Gast
2010-03-29, 18:45:24
Tja dann guck dir mal die Umfrage aus dem Luxx an. Die GTX4xx werden von der übergroßen Mehrheit völlig zu recht stark kritisiert.

http://www.hardwareluxx.de/community/f14/wer-kauft-sich-eine-gtx480-470-oder-hd5970-5870-5850-5830-5770-5750-5670-usw-702999.html

mironicus
2010-03-29, 18:45:52
http://www.hardwareluxx.de/community...ng-703261.html

Ein Direktimport aus den USA? Lohnt sich doch kaum. Mehrwertsteuer + Zoll und was ist mit der Garantie?

The_Invisible
2010-03-29, 18:46:31
Naja, manche müssen das eben selber zahlen (sprich: wohnen nicht mehr bei Mami :cool:) und gamen auch recht viel. Da kommen langfristig schnell grössere Summen zusammen, als man denkt...

Besonders wenn man einen 2. Monitor benutzt...

;D

ja, aber hauptsache >10jahre alte haushaltsgeräte stehen haben die den ganzen tag rennen, ich kenne solche "spezialisten" eh selber...

@topic
ich warte da doch lieber auf gtx 485 und hoffe das die den stromverbrauch/wärmeentwicklung halbwegs in den griff kriegen. meine gtx 285 schnurrt da wie ein kätzchen.

mfg

Gast
2010-03-29, 18:48:40
ja, aber hauptsache >10jahre alte haushaltsgeräte stehen haben die den ganzen tag rennen, ich kenne solche "spezialisten" eh selber...

mfg

?
Was glaubst du wird Energie aufgewandt, um so ein tolles Energieeffizientes Gerät zu produzieren und dein altes zu veschrotten?
Das ist ja mal ei klasse Vergleich.

Botcruscher
2010-03-29, 18:49:02
Da merkt man die Unterschiede der Foren. In einem wird Länge mal Breite gegen nVidia geflamt und Umfragen mit hirnrissigen Antwortmöglichkeiten gestellt. Im anderen sammeln sich User zu ner Sammelbestellung. Sind schon 34 Leute alleine im HWLUXX die sich eine EVGA 470/480 kaufen wollen. Aber macht ihr hier nur mit flamen weiter. Is doch zwischendurch auch ganz lustig zu lesen.

Zur Zeit sind 4750 Benutzer im HWL online. Bei 34 Käufern ist das noch schlechter als die 3% Pro-Thermi Antworten im 3DC. Aber schon lustig das jetzt selbst die Umfragen Bash sind. Wenn bei der Zielgruppe 3DC die Karte so "schlecht" ankommt, wie läuft es wohl erst bei den OEMs...

Gast
2010-03-29, 18:55:30
Btw, Charlie is BACK:
http://www.semiaccurate.com/2010/03/28/why-nvidia-hacked-gtx480/

LAST MAY(2009!), we said that GTX480, then called GT300, was going to be hot, slow, big, underperforming, hard to manufacture, and most of all late. Almost a year later, Nvidia can't even launch PR quantities at the promised spec of 512 shaders.

Volltreffer, Schiff versenkt.

MadManniMan
2010-03-29, 18:56:17
Mein Gott, ganz schön langweilig die Fermis.

Ein bissel Ausfrans-AA mehr, dazu ein schöner Föhn und Heizung unterm Schreibtisch ... nee, bei dem Preis lockt mich das nicht ;)

Ich hatte sowieso mehr auf die Performance-Ableger gehofft, aber ich habe zumindest noch nicht im Urin, dass diese dann effiziente Karten abgeben werden.


Und darauf haben wir ein halbes Jahr gewartet? nV tut mir echt Leid - Hauptsache, sie fallen damit nicht auf die Schnauze.

Savay
2010-03-29, 19:08:20
aber ich habe zumindest noch nicht im Urin, dass diese dann effiziente Karten abgeben werden.

kleineres DIE und damit unproblematischer in der fertigung...günstigeres ALU:TEX verhältniss...als reine zocker karten wenn nicht maximal mögliche performance wichtiger als alles andere ist glaube ich schon das der GF104 das rundere angebot wird.

selbst bei der GTX470 passt die leistung pro watt ja schon besser als bei der 480 obwohl sie das gleiche ALU:TEX verhältniss hat.

ich glaube immernoch das nV besser gefahren wäre direkt einen doch eher etwas kleineren chip mit den 448 shadern einer 470 und einer idee mehr TEX leistung zu designen und stattdessen nachträglich etwas mehr über den takt rauszuholen...hätte sich zumindest für spiele bestimmt ausgezahlt...allerdings wohl auf kosten potenzieller GPGPU leistung.

Cubitus
2010-03-29, 19:12:33
Wobei die GTX480 da nochmal einen Zacken draufpackt - ca. 50 Watt.
Interessant wäre zu sehen, wie schneller eine GTX480 im Verhältnis zu einem GTX280 SLI System wäre. Nimmt man die GTX275 als Maßstab, sind es ca. 78%: http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_nvidia_geforce_gtx_480/21/#abschnitt_performancerating_directx_11
Somit dürfte eine GTX480 auf dem Niveau eines GTX280 SLI-Systems sein.

Den Andtech Test schon gelesen ?
http://www.anandtech.com/video/showdoc.aspx?i=3783&p=9


made my day! danke dafür

steht die platinierte karte dann auf dem silbertablett direkt neben dem petit filet mignon, dem beluga kaviar und der flasche champagner im luxuskühlschrank mit integriertem vollautomatischem ice crusher?!

als wahrer 3D connaisseur weiß man dann natürlich auch jede klangnuance seines nur mit weißen samthandschuhen angefassten schmuckstückchens zu schätzen, so dass man sich natürlich, um auch im bentley auf seiner bang und olufson anlage seinem hobby fröhnen zu können, extra ein 60min soundsample auf SACD hat bannen lassen?!

Ja ich hab so meine Momente..
Bei deinem Text musste ich aber auch herzhaft lachen ;)

Schnitzl
2010-03-29, 19:12:50
Hallo,

ich weiss nicht ob das auf den vergangenen über 100 Seiten schon gesagt wurde, sorry...
aber wie lang sind denn nun die Karten?
Ich hab auch in den Reviews bisher keine Angaben gefunden.

MfG

dildo4u
2010-03-29, 19:15:07
Hallo,

ich weiss nicht ob das auf den vergangenen über 100 Seiten schon gesagt wurde, sorry...
aber wie lang sind denn nun die Karten?
Ich hab auch in den Reviews bisher keine Angaben gefunden.

MfG
GTX480 26.7 und GTX470 24.2cm

http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=2

Gast
2010-03-29, 19:17:23
3 Stück wären sicher ideal, aber ich hab Angst, daß NV eine 512sp Version nachschiebt, und man dann 3 loswerden
müßte :(

Wo sollen die voll funktionsfähigen und voll bestückten Karten in nenneswerter Zahl herkommen?
Man hat schon ernste Schwierigkeiten mit den 480.
Täte mal gerne wissen, wieviel GPU-Schrott die bis jetzt schon alleine für die 470 und 480er produziert haben und ob überhaupt bis jetzt schon mehr als eine Handvoll komplett funktionsfähige Chips mit 512sp rausgekommen sind.
Es bringt ja auch keine 512 was, die einen soviel niedrigeren Chiptakt hat, dass sie langsamer/gleich schnell wie eine höher getaktete 480 ist.

Sascha1971
2010-03-29, 19:22:58
Ich hatte mich bei der abstimmung auch gegen die 480er geäussert.
Aber da ich nun von der Palit 480er gelesen habe, schwenke ich mit meiner Meinung um. Denn wenn sie damit besser gekühlt wird und leise ist, sidn meine Negativ Punkte ausser evtl Stromverbrauch weg.

Ich frage mich warum NV nicht gleich so einen Kühler drauf getan haben ? Die hätten doch einen wesentlich besseren Start gehabt.

Iruwen
2010-03-29, 19:29:41
Ist ja noch nicht raus wie der Palit Kühler abschneidet. Außerdem wars glaub ich 'ne GTX 470, aber dann wird wohl auch eine GTX 480 kommen...

Gast
2010-03-29, 19:30:09
Ich frage mich warum NV nicht gleich so einen Kühler drauf getan haben ? Die hätten doch einen wesentlich besseren Start gehabt.
Palit lässt enorme Abwärme im Gehäuse und der User muss selbst Sorge für den Abtransport tragen, das kann in die Hose gehen.

Schnitzl
2010-03-29, 19:30:19
GTX480 26.7 und GTX470 24.2cm

http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=2
cool, danke. Dann passt die 470 bei mir rein und ist gekauft :D

Schlammsau
2010-03-29, 19:32:53
Ich hatte mich bei der abstimmung auch gegen die 480er geäussert.
Aber da ich nun von der Palit 480er gelesen habe, schwenke ich mit meiner Meinung um. Denn wenn sie damit besser gekühlt wird und leise ist, sidn meine Negativ Punkte ausser evtl Stromverbrauch weg.

Ich frage mich warum NV nicht gleich so einen Kühler drauf getan haben ? Die hätten doch einen wesentlich besseren Start gehabt.

Ich wollte nur mal anmerken, dass diese Kühler die Luft nicht aus dem Gehäuse rausblasen, sondern die gesamte warme Luft im Gehäuse bleibt.

Eine extrem gute Gehäusekühlung wird also Pflicht. Sonst machts winke winke du mein (heiss)geliebter PC.

Sascha1971
2010-03-29, 19:33:22
Ist ja noch nicht raus wie der Palit Kühler abschneidet. Außerdem wars glaub ich 'ne GTX 470, aber dann wird wohl auch eine GTX 480 kommen...


Nein es kommt gleich beides raus.
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/maerz/palit_gtx_470_480_kuehler_displayport/

Gast
2010-03-29, 19:37:50
Eine extrem gute Gehäusekühlung wird also Pflicht. Sonst machts winke winke du mein (heiss)geliebter PC.
Ein langsam drehender Seitenlüfter + langsam drehender hinterer Lüfter sind völlig ausreichend.

Schlammsau
2010-03-29, 19:39:20
Ein langsam drehender Seitenlüfter + langsam drehender hinterer Lüfter sind völlig ausreichend.

Ja klar....... ;D :ulol:

mironicus
2010-03-29, 19:41:52
Es gibt auch Gehäuse mit Seitenlüftern die größer als 40 cm sind. :)

Gast
2010-03-29, 19:55:01
Es gibt auch Gehäuse mit Seitenlüftern die größer als 40 cm sind. :)
Da schicken selbst eine 8 cm Öffnung für die Seite und hinten 12 cm. Es soll Leute geben, die betreiben damit zwei GTX 280 mit jeweils einem Accelero XTREME und kommt es nicht zum Hitzestau. Gehäuse wird natürlicher etwas wärmer, vor allem im Sommer, aber alles im grünen Bereich.
Eine Herausforderung ist wohl einzig und alleine mit Luftkühlung, wenn 2 x 480 vertreten sind, aber darum ging es ja nicht.

Iruwen
2010-03-29, 20:03:10
Als ob jemand der sich eine GTX 470/480 kauft nicht eh ein Gehäuse mit mindestens zwei Gehäuselüftern hätte.

Gast
2010-03-29, 20:06:28
Wenn der Preis von 349 € für die GTX 470 so bleibt und nicht wie bei AMD noch in 6 Monaten auf 400 € ansteigt, ist die Karte ja relativ günstig. Oder andersrum: Die HD 5870 ist arg überteuert. Die GTX 470 ist immerhin eine größere und komplexere GPU mit 50 % mehr Transistoren, einem 320-Bit-Speicherinterface und 1.280 MB RAM.

Gast
2010-03-29, 20:07:20
Bis zum Sommer mit einem x00 Liter tank, dann kann man das kochende wasser zum Tee aufgiesen verwenden...

;D



Naja, manche müssen das eben selber zahlen (sprich: wohnen nicht mehr bei Mami :cool:) und gamen auch recht viel. Da kommen langfristig schnell grössere Summen zusammen, als man denkt...

Besonders wenn man einen 2. Monitor benutzt...

;D

Highend an zwei Monitoren zocken und dann kein Geld für die Stromrechnung ...

Iruwen
2010-03-29, 20:17:29
100W mehr sind immerhin 43€ Unterschied bei 365 x 6 Stunden am Tag. Wer soviel zockt sollte das Geld vielleicht wirklich lieber sparen und sich einen guten Psychologen suchen.

Gast
2010-03-29, 20:18:22
Highend an zwei Monitoren zocken und dann kein Geld für die Stromrechnung ...

Darum geht es garnicht ausschließlich, sondern die Dinger gehen dann auch gleich weider auf 90C° hoch ich wiederhole 90C° und das im Idle. Das ist doch einfach inakzeptabel. Ich gehe sogar soweit zu sagen, dass die GF100 Karten eigentlich keine verkaufsfähigen Grakas sind, sondern eher was wie Prototypen oder Machbarkeitsstudien.

Ich habe garnichts gegen die reine Performance, obwohl auch diese alles andere als berauschend ist, aber in der jetzigen Form sind diese Karten einfach es tut mir ja leid EPIC FAIL!

Mr.Magic
2010-03-29, 20:19:52
OK, bisher ein paar Tabellen angeguckt, und zwei-dreifache 285-Leistung klingt ganz ordentlich. Gibt es irgendwo einen ordentlichen Test, d.h. inklusive 16xS 285 vs 480?

Andererseits kommt mir das Ding so sowieso nicht ins Haus. Nochmal lasse ich mich da nicht verarschen. Kaum das 1GB Modell der 285 gekauft, schwupps kommt eine Version mit 2GB auf den Markt. Also 2+GB drauf oder gar nicht.

Gast
2010-03-29, 20:19:55
Oder andersrum: Die HD 5870 ist arg überteuert. Die GTX 470 ist immerhin eine größere und komplexere GPU mit 50 % mehr Transistoren, einem 320-Bit-Speicherinterface und 1.280 MB RAM.
Die 5870 ist ja auch schneller.
Deswegen darf sie auch teurer sein.
Einfach nur logisch. :)

Tesseract
2010-03-29, 20:23:13
Die 5870 ist ja auch schneller.
Deswegen darf sie auch teurer sein.
Einfach nur logisch. :)

nein ist es nicht weil die karte schon so teuer war als es die 470 noch garnicht gab. der preis von nvidia ist eine reaktion darauf.

die tatsache, dass nvidia so locker untercutten kann zeigt wie teuer die 5870 eigentlich ist.

AnarchX
2010-03-29, 20:26:08
OK, bisher ein paar Tabellen angeguckt, und zwei-dreifache 285-Leistung klingt ganz ordentlich.
In welchen Tabellen soll das gewesen sein? Realistisch sind wohl eher 1,7x bei 4xMSAA 2x bei 8xMSAA, im Durchschnitt.


Gibt es irgendwo einen ordentlichen Test, d.h. inklusive 16xS 285 vs 480?

Bisher nur diese Werte:
http://www.pcgameshardware.de/screenshots/original/2010/03/GF100-CoDMW2-1920-16xS_100326161409.png
http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=16

Aber abgesehen vom Speichervorteil, der gegenüber eine 1,7/2GiB GTX 2xx nicht mehr besteht, hat GF100 kein hohes Potential für Supersampling.

Savay
2010-03-29, 20:26:23
die 5870 ist doch nur so teuer weil die verfügbarkeit so mau ist und es bald nen halbes jahr keinerlei konkurrenz in dem segment für sie gab.

bitte nicht straßenpreise auf der einen seite mit UVP preisen auf der anderen seite vergleichen.
der irrsinn legt sich irgendwann auch wieder...hoffentlich :)

Gast
2010-03-29, 20:28:38
Ach ja also ich habe meine HD5870 für 290€ gekriegt und warum ist denn der Preis da wo er ist. Schlechte Verfügbarkeit + extrem hohe Nachfrage + 6 Monate keine Konkurrenz. Das die GTX4xx in der Herstellung deutlich teurer sein müssen, kann kein vernunftbegabter Mensch ernsthaft abstreiten und außerdem ist die HD5870 auch 10% schneller.

Mr.Magic
2010-03-29, 20:34:04
In welchen Tabellen soll das gewesen sein? Realistisch sind wohl eher 1,7x bei 4xMSAA 2x bei 8xMSAA, im Durchschnitt.

2560|8xMSAA zeigt ungefähr das Potential der Hybridmodi, und nur daran bin ich für eine Kaufentscheidung interessiert.

PS: Die Links sind ziemlich wertlos. Da sehe ich zumindest nur Moorhuhn Warfare 2, wo alle Grafikkarten Däumchen drehen dürften.
Interessant wären da z.B. Stalker SoC und Crysis, die brauchen wenigstens Grafikleistung.

Dimon
2010-03-29, 20:35:14
Wie lassen sich diese Grakas übertakten?

AnarchX
2010-03-29, 20:37:15
2560|8xMSAA zeigt ungefähr das Potential der Hybridmodi, und nur daran bin ich für eine Kaufentscheidung interessiert.
Das gilt aber dann auch nur für 32xS, die Hybrid-Modi mit 4xMSAA profitieren nicht von der gesteigerten 8xMSAA Leistung.

Dimon
2010-03-29, 20:37:25
wie? natürlich am besten mit dem feuerlöscher in der hand! :P sry das musste sein der thread schläft ja sonst ein..haha ;)

Ne WaKü wirds richten :biggrin:

][immy
2010-03-29, 20:39:33
nein ist es nicht weil die karte schon so teuer war als es die 470 noch garnicht gab. der preis von nvidia ist eine reaktion darauf.

die tatsache, dass nvidia so locker untercutten kann zeigt wie teuer die 5870 eigentlich ist.

auch wenn es das xte mal ist, das sowas geschrieben wird, der preis der 5870 hat sich seitens ati/amd seit launcher nicht erhöht. das einzige was du derzeit draufzahlst ist der "händlerzuschlag" durch die recht hohe nachfrage bei geringer lieferbarkeit.
das die preise für die 58x0 Karten fallen wird, sollte wohl klar sein, jetzt wo endlich konkurenz da ist (die zwar auch nicht verfügbar sein wird, aber theoretisch ist sie da). es kann natürlich auch passieren das augrund der lieferengpässe auf beiden seiten, das die preise entweder so bleiben, oder die preise für die nvidia karten sogar noch steigen. ein händler will schließlich auch verdienen und wenn die nachfrage groß genug ist ...
bei den 5870er Karten haben ja auch einige händler leute die sofort zu günstigeren preisen bestellt haben die lieferung immer weiter verzögert und die zu hohen preisen bestellt haben beliefert, ich könnte mir gut vorstellen, das etwas ähnliches wieder passieren wird.

zudem darfst du nicht vergessen, das nvidia etwas bringen musste das günstiger als die 5870 jedoch nicht viel langsamer ist. immerhin kommen sie ein halbes jahr verspätet auf den markt und der kreis der käufer die >400 € ausgeben um so eine karte zu kaufen ist doch arg klein. zudem kann durch die GTX 470 die doch ziemlich miese ausbeute erhöht werden.
trotz allem ist sie immernoch langsamer als die 5870 und in den oberen gefilden gibt es kein verhältnis mehr von performance/€. jedes % mehr kostet halt einiges mehr.

wirklich geld verdienen werden sie mit diesen chips nicht, das dürfte pures marketing sein, damit solche leute wie tombman sich dann (sobald die ausbeute höher ist) sich auch noch die 512er Version 3 mal holen ;)
wenn sie noch länger gewartet hätten, hätten sie auch unter einen image-schaden gelitten. so können sie wenigstens sagen sie haben die schnellste single-chip karte.

Iruwen
2010-03-29, 20:40:01
Ne WaKü wirds richten :biggrin:

Jo 'ne Wahnsinnskühlung :D Ich bleib bei Luft... unten in meiner Kiste ist Durchzug, da darf die Palit wenn sie gut wird ruhig rumstrahlen.

Gast
2010-03-29, 20:48:45
Ein langsam drehender Seitenlüfter + langsam drehender hinterer Lüfter sind völlig ausreichend.
Ja klar....... ;D :ulol:
Ich bin zwar ein anderer Gast als der oben, aber ich kann aus meiner Erfahrung sagen, dass dies in der Tat ausreichen sollte.

Ich habe bei mir immer noch eine ATI X1900 XTX mit "Arctic Cooling Accelero X1"-Kühler im Einsatz, welcher die gesamte Abluft auf das Mainboard und somit in das Gehäuse pustet. Die ATI X1900 XTX wird unter Last bekanntlich über 90° heiß und ohne Seitenlüfter throttelt der Treiber unter Vollast die Karte zum Schutz herunter. Allein ein 120er Seitenlüfter mit 1.200 rpm, welcher auf sämtliche Karten im System bläst, verhindert dies und ermöglicht dadurch einen verhältnismäßig leisen und stabilen Betrieb - seit nun über 4 Jahren!

Für das Abführen der Abwärme sorgen ausschließlich ein 120er Lüfter an der Rückseite sowie ein 120er im Netzteil. Beide dieser Lüfter laufen ebenfalls mit max. 1.200 rpm.

Gast
2010-03-29, 20:54:14
Ich bin zwar ein anderer Gast als der oben, aber ich kann aus meiner Erfahrung sagen, dass dies in der Tat ausreichen sollte.

Ich habe bei mir immer noch eine ATI X1900 XTX mit "Arctic Cooling Accelero X1"-Kühler im Einsatz, welcher die gesamte Abluft auf das Mainboard und somit in das Gehäuse pustet. Die ATI X1900 XTX wird unter Last bekanntlich über 90° heiß und ohne Seitenlüfter throttelt der Treiber unter Vollast die Karte zum Schutz herunter. Allein ein 120er Seitenlüfter mit 1.200 rpm, welcher auf sämtliche Karten im System bläst, verhindert dies und ermöglicht dadurch einen verhältnismäßig leisen und stabilen Betrieb - seit nun über 4 Jahren!

Für das Abführen der Abwärme sorgen ausschließlich ein 120er Lüfter an der Rückseite sowie ein 120er im Netzteil. Beide dieser Lüfter laufen ebenfalls mit max. 1.200 rpm.

Die Abwärme der x1900xtx ist zwar für damalige Verhältnisse enorm, aber absolut nicht vergleichbar mit der 480.
Da dürfte ca. Faktor 2 oder mehr dazwischenliegen.

Mr.Magic
2010-03-29, 20:57:40
Das gilt aber dann auch nur für 32xS, die Hybrid-Modi mit 4xMSAA profitieren nicht von der gesteigerten 8xMSAA Leistung.

Solange es spielbar ist meinetwegen auch gerne 32xS. ;) Immerhin von 22 auf 44FPS in MW2.

Gast
2010-03-29, 20:57:55
nein ist es nicht weil die karte schon so teuer war als es die 470 noch garnicht gab. der preis von nvidia ist eine reaktion darauf.

die tatsache, dass nvidia so locker untercutten kann zeigt wie teuer die 5870 eigentlich ist.
Ich weiss ja nicht woran ihr das teuer festmacht, aber ich gehe nach der Leistung.
Und da eine 5870 schneller ist, darf sie auch mehr kosten.

Gast
2010-03-29, 21:05:16
Es wirs immer toller da har sich NV was gekeistet mir dem Fermi.
Da wir das Raw-Leistungsverhältnis (SP) zwischen 5870 / 480 kennen, kann man große Berechnungsorgien mit DP nicht nur aus thermischen Gründen mit dem Fermi wohl vergessen.
http://www.hexus.net/content/item.php?item=24000&page=3

Gast
2010-03-29, 21:09:55
Es wirs immer toller da har sich NV was gekeistet mir dem Fermi.
Da wir das Raw-Leistungsverhältnis (SP) zwischen 5870 / 480 kennen, kann man große Berechnungsorgien mit DP nicht nur aus thermischen Gründen mit dem Fermi wohl vergessen.
http://www.hexus.net/content/item.php?item=24000&page=3


Jetzt fehlt nur noch eine schlechte Verfügbarkeit und es wird ein EPIC EPIC FAIL.

Gast
2010-03-29, 21:30:34
Die Abwärme der x1900xtx ist zwar für damalige Verhältnisse enorm, aber absolut nicht vergleichbar mit der 480.
Da dürfte ca. Faktor 2 oder mehr dazwischenliegen.
Das dürfte hinkommen, ja. Aber dafür verfügt die GeForce GTX 480 auch über einen deutlich leistungsfähigeren Lüfter - egal ob Standard oder die Lösung von Palit. Die Wahrscheinlichkeit, dass in der von mir beschriebenen Konstellation die Karte abraucht, halte ich somit für sehr gering.

Die enormen Nachteile der GTX 480 sind für mich dennoch inakzeptabel und ich werde mir diese als A3-Version auch nicht kaufen. Die GTX 470 dagegen, finde ich durchaus als eine interessante Alternative zur HD5870. Aber ich kaufe keine Grafikkarte ohne Display-Port. Somit muss ich eh auf Palit & Co. warten.

Dural
2010-03-29, 21:40:59
Es wirs immer toller da har sich NV was gekeistet mir dem Fermi.
Da wir das Raw-Leistungsverhältnis (SP) zwischen 5870 / 480 kennen, kann man große Berechnungsorgien mit DP nicht nur aus thermischen Gründen mit dem Fermi wohl vergessen.
http://www.hexus.net/content/item.php?item=24000&page=3

Die GeForce GF100 haben doch gar kein DP, das soll nur für die Tesla freigegeben werden.

Hiess es jedenfalls von NV, oder hat sich da was geändert?

LovesuckZ
2010-03-29, 21:43:58
GF100 ist auf 64 DP-FMA/Takt beschränkt. Das ist seit der CES bekannt.

Zockmaschine
2010-03-29, 21:54:42
Jetzt fehlt nur noch eine schlechte Verfügbarkeit und es wird ein EPIC EPIC FAIL.

Das ist ja wohl absolut vorprogrammiert.

Ich kann mir vorstellen dass zum Release ein Bündel (wohl eher ein Päckchen :wink:) rausgeschmissen wird und dann die Preise aufgrund der hohen Nachfrage (zumindest höher als die Lieferbarkeit :wink:) kontinuierlich steigen werden.

In 4 Monaten dann 700€ für die 480GTX und 450 für die 470GTX ?

;D

Bin auch mal auf den Refresh gespannt. Entweder ist das Design so vermurkst (worauf der lächerlich hohe Energieverbrauch deutet, da die Karte von Haus relativ stark aus übertaktet scheint) dass nichts mehr geht, oder vielleicht kann doch noch was gedreht werden (z.B. Idle Stromverbrauch bei dualmonitor, etc...) woraufhin die jetzigen dann beim refresh als totaler Müll deklassiert werden und sich jeder early adopter in den A beisst.

Naja, vielleicht ists dann eh Zeit für neue weil die Teile dann schon ein halbes Jahr im Einsatz waren und Hochsommer sein wird und die wahrscheinlich schneller abschmieren als neue rauskommen...

;D

Man kann nur hoffen das nvidia spätestens mit dem refresh was brauchbareres hat. Weniger Leistung wäre für mich auch kein Thema, wenn nur das ganze Teil runder wäre und nicht soviel Lärm, Hitz und Stromverbrauch produzieren würde...

Ich frage mich auch wie es da mit 'nem mobile Fermi aussieht ? Gibt es schon irgendwelche brauchbaren infos deswegen ? Ich würde mir gerne mal wieder ein Gamer-Laptop für LANs mit gescheiter Grafikkarte rauslassen, aber DX11 ist da ja wohl Pflicht weil das Teil länger halten soll und in 2-3 Jahren Tesselation ja vielleicht interessant werden könnte...

Schlammsau
2010-03-29, 22:21:54
Föni ähhh Thermi kann seine guten Karten bei Tesselation und GPGPU aufgrund seiner thermischen Probleme und seines unterirdisch schlechten Perf/Watt Verhältnisses nicht auspielen und wird sich grottig verkaufen. Ähnlich wie beim R600 damals.
Nicht zuletzt weil Tesselation noch keinen so grossen Stellenwert geniesst.

Meine Prognose für das nächste halbe Jahr.....Fermi wird in der Form ziemlich schnell durch einen Refresh ersetzt, der deutlich weniger Strom frisst aber nicht schneller sein wird.
Ähnlich wie beim R600 zum RV670.
Ungefähr zur gleichen Zeit wird ATi seinen neuen RV9xx ins Rennen lassen. Der deutlich schneller unter DX11 als der RV8xx sein wird.

nVidia wird es in Zukunft schwer haben.

Iruwen
2010-03-29, 22:56:43
Irgendwie komisch dass ihr mit euren tollen Karten nichts besseres zu tun habt als hier rumzutrollen. Das nimmt sich mit LZs Missionierungsversuchen nicht viel :rolleyes:

Dicker Igel
2010-03-29, 23:00:38
Lass ihnen doch ihren Spass :D

LovesuckZ
2010-03-29, 23:01:39
Lass ihnen doch ihren Spass :D

Immerhin hat er nicht PhysX erwähnt. ;D

Iruwen
2010-03-29, 23:13:33
PhysX.

http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index9.php
Möchte mal wissen wie das bei der GTX 480 aussieht. Kann ja dann mal einer mit Wakü vermelden :D

lilgefo~
2010-03-29, 23:23:58
Bin ja mal gespannt was die Leute von nv in ein paar Jahren zum Fermi zu sagen haben wenn sie etwas freier drüber reden können.

Tesseract
2010-03-29, 23:25:19
Ich weiss ja nicht woran ihr das teuer festmacht, aber ich gehe nach der Leistung.

ich meine das verhältnis verkaufspreis:herstellungspreis. und das ist bei den ATIs momentan wohl nicht berauschend, auch wenn das zum teil nicht an ATI sondern an den händlern liegt.

Daredevil
2010-03-29, 23:31:46
nVidia wird es in Zukunft schwer haben.
Und das obwohl deine Umfrage nach hinten losgegangen ist... ;)
Fermi wird gekauft, zwar nicht vom Mainstream, aber sie wird gekauft.
Ein r600 war lahm und Fett, ein Fermi ist schnell und Fett, solang sie die Hitze in Performance umwandeln kann ( Wann auch immer... ), ist es kein kompletter Flop.

Ati = Porsche
Nvidia = Panzer

Der Panzer ist in DX9 und 10 eher lahm, aber wenn ein paar DX11 Kisten kommen ( Tess, PhysX, Cuda ), werden sie hemmungslos niedergewalzt..... ;)

Wenn ich nen Fermi hätte, würd ich ihn auf 100% Lüfterspeed stellen und so Geschenkschnuren hinten dran knoten, wie beim Ventilator, pwned Biatch! ( Lang lebe ein PC, der nicht im selben Zimmer steht... )

][immy
2010-03-29, 23:32:49
ich meine das verhältnis verkaufspreis:herstellungspreis. und das ist bei den ATIs momentan wohl nicht berauschend, auch wenn das zum teil nicht an ATI sondern an den händlern liegt.

sry für OT aber ... lol ;D

willkommen im kapitalismus


btw.
ich verstehe echt nicht warum es zum launch niemals vernüpftige Kühler auf den karten gibt. so könnte man sich ein paar kritikpunkte sparen. hinterher (wenn die ersten tests durch sind) könnte man immernoch dran sparen.

_DrillSarge]I[
2010-03-29, 23:38:19
[immy;7937362']
btw.
ich verstehe echt nicht warum es zum launch niemals vernüpftige Kühler auf den karten gibt. so könnte man sich ein paar kritikpunkte sparen. hinterher (wenn die ersten tests durch sind) könnte man immernoch dran sparen.
es hat doch nen vernünftigen kühler, nur treibt fermi das ganze konzept luftkühlung an die grenze.

Gast
2010-03-29, 23:42:25
Und das obwohl deine Umfrage nach hinten losgegangen ist... ;)
Fermi wird gekauft, zwar nicht vom Mainstream, aber sie wird gekauft.
Ein r600 war lahm und Fett, ein Fermi ist schnell und Fett, solang sie die Hitze in Performance umwandeln kann ( Wann auch immer... ), ist es kein kompletter Flop.

Ati = Porsche
Nvidia = PanzerAti = Porsche
Nvidia = Panzer

Der Panzer ist in DX9 und 10 eher lahm, aber wenn ein paar DX11 Kisten kommen ( Tess, PhysX, Cuda ), werden sie hemmungslos niedergewalzt..... ;)

Wenn ich nen Fermi hätte, würd ich ihn auf 100% Lüfterspeed stellen und so Geschenkschnuren hinten dran knoten, wie beim Ventilator, pwned Biatch! ( Lang lebe ein PC, der nicht im selben Zimmer steht... )

Das ist doch Quatsch..oder sollen sich alle zb. 5870 Besitzer noch eine kaufen? Manman was ein Affentheater um das Gurkenteil.

Daredevil
2010-03-29, 23:44:48
den Motor von meinem Ferrari betreibe ich auch extern
Naja, zumindest hast du ihn nicht aufm Beifahrersitz, sogesehen ist der echt extern. ;)

@Über mir
Nein, habe ich das gesagt?
Die 5870 ist ne feine Karte und als "Berater" würde ich nie zu einer anderen Karte raten, da sie das bessere Rundumpaket ist.
Das heißt aber nicht, das ich mir keine GTX480 leisten darf, weil auch mir Hitze, Lautstärke und Strombedarf total egal sind, wenn sie das in Performance wandelt... und das macht sie ja.

IVN
2010-03-29, 23:56:22
Es gibt Spiele, in denen die 480 doppelt so schnell ist wie die 5870. Das finde ich beeindruckend.

Daredevil
2010-03-30, 00:02:13
Kannst du deinen Ferrari sehen, wenn du drinne sitzt?
Jetzt ist aber genug OT hier.

@IVN
Genau das meine ich.
Und ich gehe ja stark davon aus, das sich diese Richtung in Zukunft öfter zeigt, muss nicht 100% sein.... aber schon deutlich drüber. Nvidia schreib ja selbst, es ist eine DX11 Karte. 75% Speed @ DX9, 100% Speed @ DX10, 125% Speed @ DX11 + Tesselationspower, need this.

mapel110
2010-03-30, 00:03:50
http://www.legitreviews.com/news/7707/
Nix von XFX.

"yet to see whether the fermented launch will reach an inglorious anti-climax" and mentioned they want to "Ferm up to who really has the big Guns". We are guessing they mean AMD and it sounds like they have something special cooking up there too.

Gast
2010-03-30, 00:07:55
Mann, Mann immer diese nimmerenden Fanboywars. Man kann eigentlich froh sein, dass im Moment ATI und nvidia unterschiedlich verfahren. ATI ist zu vergleichen mit einem Sportwagen im High End. Er schafft noch den Spagat zwischen Alltag, Kosten und Performance. nvidia ist mit einem Dragster zu vergleichen. Pure Performance, teuer, nichts für den Alltag aber dafür kompromisslos. Somit findet jeder etwas nach seinem Geschmack. Allerdings halte ich das Argument von zukunftstauglich als Argument der Fermie-Enthusiasten für Blödsinn. Wer von denen behält schon Fermie, wenn die neue Architektur kommt? Die werden doch schon schwach, wenn nur eine gepimpte Fermieversion kommt. :D

Schrotti
2010-03-30, 00:08:51
Naja, manche müssen das eben selber zahlen (sprich: wohnen nicht mehr bei Mami :cool:) und gamen auch recht viel. Da kommen langfristig schnell grössere Summen zusammen, als man denkt...

Besonders wenn man einen 2. Monitor benutzt...

;D

Ich wohne nimmer bei Mutti (schon 20 Jahre nimmer). Du etwa?

Zahle jeden Monat 42€ Abschlag für Strom (Jahresverbrauch ~2600kwh).

Aber mein/e Rechner sind komplett vom Netz wenn ich die nicht brauche.

Gast
2010-03-30, 00:09:44
nvidia ist mit einem Dragster zu vergleichen. Pure Performance, teuer, nichts für den Alltag aber dafür kompromisslos.

unter kompromisslos verstehe ich 512 Shadereinheiten

IVN
2010-03-30, 00:12:52
unter kompromisslos verstehe ich 512 Shadereinheiten
Dann wäre es wohl in einigen Spielen 2,1 * 5870...

tombman
2010-03-30, 01:54:41
Ok, FanATIker- hier ein Geschenk für euch: 370 Watt (Furmark) :ulol:

http://benchmarkreviews.com/index.php?option=com_content&task=view&id=480&Itemid=72&limit=1&limitstart=14

NV scheint also schon jetzt auf die PCI-e Spec zu pissen :lol:

p.s.: vorrausgesetzt deren Meßmethode ist korrekt, was ich bezweifle, denn der Rest des PCs arbeitet bei Last der Gpu auch stärker :|

olegfch
2010-03-30, 02:24:07
Ok, FanATIker- hier ein Geschenk für euch: 370 Watt (Furmark)
Dafür "gewinnt" Ati in idle Verbrauch. :D

Gast
2010-03-30, 05:12:32
Es gibt Spiele, in denen die 480 doppelt so schnell ist wie die 5870. Das finde ich beeindruckend.

was aber nichts mit der Leistung,sondern mit schlecht angepassten Treiber zu tun hat.Oder das Spiel wird von NV bezahlt (Metro)aka Marketingvertrag

Willkommen in der Werbewelt

Gast
2010-03-30, 06:32:55
Dann wäre es wohl in einigen Spielen 2,1 * 5870...

Ok ich würde mal gerne wissen welche Spiele das seien sollen. Keine Ahnung aber ich könnte mir nur Metro 2033 vorstellen und das bringt mir auch nur was wenn es im noch spielebaren Bereich liegt. 14 zu 3 Fps oder sowas für GTX480 sind nicht relevant, da nicht spielbar.

James Ryan
2010-03-30, 07:03:29
Schade dass es momentan so wenig GTX 470 Reviews gibt, die ist meiner Meinung nach die interessantere Karte.
Bezüglich der verspäteten Lieferbarkeit:
Ich denke NVIDIA möchte ab dem 12.04. wirklich in großer Zahl liefern können, und nach den eher schlechten Fazits aus den Reviews wenigstens in puncto Lieferbarkeit die Nase vorn haben. Dabei kann ich mir vorstellen, dass die Lüftersteuerung per Bios noch überarbeitet wird, und auf die 256er Treiber gewartet wird. Dann werden wir sehen, wie die Leistung wirklich ist.

Ist eigentlich bekannt, ob die neue Geforce in 2D auf GTX200 Niveau liegt, sprich keine ruckelnden Fenster?

MfG :cool:

Sascha1971
2010-03-30, 07:04:44
sehr logisch und einleuchtend, Fanboys beider Lager, sofern sie der englischen Sprache mächtig sind, werden das hier verstehen
http://www.semiaccurate.com/2010/03/28/why-nvidia-hacked-gtx480/

Warum hat er die Seite runter genommen ?

Menace
2010-03-30, 07:18:00
Warum hat er die Seite runter genommen ?

Nur verschoben (und vielleicht verändert).

http://www.semiaccurate.com/2010/03/29/why-nvidia-hacked-gtx480/

Schlammsau
2010-03-30, 09:18:40
Und das obwohl deine Umfrage nach hinten losgegangen ist... ;)
Fermi wird gekauft, zwar nicht vom Mainstream, aber sie wird gekauft.
Ein r600 war lahm und Fett, ein Fermi ist schnell und Fett, solang sie die Hitze in Performance umwandeln kann ( Wann auch immer... ), ist es kein kompletter Flop.


:lol: wieso sollte die Umfrage in die Hose gegangen sein?

Bei 90% von denen, die sich für eine GTX4xx entschieden haben, war es von vorherein klar, dass sie sich so entscheiden werden. ;)

Gast
2010-03-30, 09:23:54
Bei 90% von denen, die sich für eine GTX4xx entschieden haben, war es von vorherein klar, dass sie sich so entscheiden werden. ;)
Weil sie nur kurz sicher gehen mussten, das sie Nvidia in entscheidenden Dingen nicht entäuscht.

Performance ist nunmal nicht alles.

Gast
2010-03-30, 09:36:40
Ok, FanATIker- hier ein Geschenk für euch: 370 Watt (Furmark) :ulol:

http://benchmarkreviews.com/index.php?option=com_content&task=view&id=480&Itemid=72&limit=1&limitstart=14

NV scheint also schon jetzt auf die PCI-e Spec zu pissen :lol:

p.s.: vorrausgesetzt deren Meßmethode ist korrekt, was ich bezweifle, denn der Rest des PCs arbeitet bei Last der Gpu auch stärker :|
Deren Messmethode weisst einen steigenden Fehler mit steigender Verlustleistung auf.
Dank stärkerer belasteten Rest PC und höherer Netzteillast.

Die Idle Messung düfte noch halbwegs brauchbar sein, nebenbei bemerkt ist sie hier auch recht niedrig. :eek:

Verglichen mit ht4u gibts heftige Uneinigkeit.
Mal ist die 9800 GX2 ein Sparwunder (benchmarkreviews), mal ist die 4770 ein Heizoffen (benchmarkreviews)....

AnarchX
2010-03-30, 10:39:27
Diskussion zu Charlies "Informationen" zu Yield und Kosten: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=480428

AnarchX
2010-03-30, 11:48:07
http://expreview.com/9967.html
GTX 480 PCB mit 2x8-Pin und 8 statt 6 Phasen für die GPU.

IVN
2010-03-30, 12:01:10
Ok ich würde mal gerne wissen welche Spiele das seien sollen. Keine Ahnung aber ich könnte mir nur Metro 2033 vorstellen und das bringt mir auch nur was wenn es im noch spielebaren Bereich liegt. 14 zu 3 Fps oder sowas für GTX480 sind nicht relevant, da nicht spielbar.
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=19
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=20

Gast
2010-03-30, 12:19:17
Na toll, aber in den entscheidenen Games hat man halt bis auf Metro 2033 keinen wirklichen Performancevorteil und im Prinzip ist es mit einer einzelnen GTX480 immer noch nicht spielbar.

Spasstiger
2010-03-30, 12:35:29
Ich finde es interessant, wie schlecht die GTX 295 in den GTX-480-Reviews im Vergleich zu den HD-5870-Reviews dasteht.
Die GTX 480 schlägt die GTX 295 souverän mit meist 20-30% Vorteil. Die HD 5870 wird dagegen von der GTX 480 meist nur mit 10-20% Vorteil geschlagen.
Als die HD 5870 rauskam, war die GTX 295 aber fast durchweg schneller als die HD 5870, teilweise sogar mit einem Vorsprung von bis zu 20%. Selbst die HD 5970 hat sich bei Release in den Reviews nicht überzeugend genug von der GTX 295 abgesetzt.

IVN
2010-03-30, 12:37:04
Na toll, aber in den entscheidenen Games hat man halt bis auf Metro 2033 keinen wirklichen Performancevorteil und im Prinzip ist es mit einer einzelnen GTX480 immer noch nicht spielbar.

Ja, es ist toll. Besonders für jemanden, der diese Spiele spielt, und mit ner Radeon nicht die nötigen FPS bekommt.

Exxtreme
2010-03-30, 12:39:07
Ich finde es interessant, wie schlecht die GTX 295 in den GTX-480-Reviews im Vergleich zu den HD-5870-Reviews dasteht.
Die GTX 480 schlägt die GTX 295 souverän mit meist 20-30% Vorteil. Die HD 5870 wird dagegen von der GTX 480 meist nur mit 10-20% Vorteil geschlagen.
Als die HD 5870 rauskam, war die GTX 295 aber fast durchweg schneller als die HD 5870, teilweise sogar mit einem Vorsprung von bis zu 20%. Selbst die HD 5970 hat sich bei Release in den Reviews nicht überzeugend genug von der GTX 295 abgesetzt.
Liegt daran, daß AMD die Treiber im Laufe der Zeit ordentlich optimiert. Die haben permanente Leistungssteigerungen über die Zeit. Hier mal 5%, da mal 8% etc. Das läppert sich dann.

Bei Nvidia ist das eher nicht so. Bei der GF4 haben sie geschwindigkeitssteigernde Features sogar deaktiviert. Angeblich waren sie verbuggt. War dann ziemlicher Zufall, daß in dem Zeitraum der NV30 rauskam. ;)

Gast
2010-03-30, 12:43:19
Ich finde es interessant, wie schlecht die GTX 295 in den GTX-480-Reviews im Vergleich zu den HD-5870-Reviews dasteht.
Die GTX 480 schlägt die GTX 295 souverän mit meist 20-30% Vorteil. Die HD 5870 wird dagegen von der GTX 480 meist nur mit 10-20% Vorteil geschlagen.
Als die HD 5870 rauskam, war die GTX 295 aber fast durchweg schneller als die HD 5870, teilweise sogar mit einem Vorsprung von bis zu 20%. Selbst die HD 5970 hat sich bei Release in den Reviews nicht überzeugend genug von der GTX 295 abgesetzt.

Als die 5870 auf den Markt kam waren die Treiber halt noch nicht besonders ausgereift. gleiches gilt fuer die 5970.

Ich schätze dass die GTX 4x0 in ein paar Monaten auch auf bessere Werte kommen wird. Die GTX295 ist halt schon Optimiert. Da tut sich nichts mehr.

Gruß

brother

Spasstiger
2010-03-30, 12:44:03
Liegt daran, daß AMD die Treiber im Laufe der Zeit ordentlich optimiert. Die haben permanente Leistungssteigerungen über die Zeit. Hier mal 5%, da mal 8% etc. Das läppert sich dann.
Muss wohl so sein, besonders bei der HD 5970. Damals 20-50% Vorteil zur GTX 295, jetzt 35-70% Vorteil, im Schnitt ca. 50%, vorher im Schnitt eher 35%. Das entspricht jetzt auch dem, was man von den Zahlen auf dem Papier erwarten würde. ;)
Die Reihenfolge der Grafikkarten ab der GTX 285 lautet nun imo:
GTX 285 < HD 5850 < GTX 295 = GTX 470 = HD 4870 X2 < HD 5870 < GTX 480 < HD 5970

Gast
2010-03-30, 12:48:21
[...]

Bei Nvidia ist das eher nicht so. [...]


Das ist einfach nicht wahr.

<Flame>
Nvidia hat halt gleich am Anfang seine Hardware im Griff. Und optimiert nicht nur wie Ati auf der Treiber sondern auch auf Anwendungsebene (TWIMTBP Programm)
</Flame>

Optimierungen gibts bei beiden Herstellern. Nur gegen Ende eines Lebenszyklus gibts einfach nicht mehr so viel optimierungspotential.

LovesuckZ
2010-03-30, 12:48:32
Muss wohl so sein, besonders bei der HD 5970. Damals 20-50% Vorteil zur GTX 295, jetzt 35-70% Vorteil, im Schnitt ca. 50%, vorher im Schnitt eher 35%. Das entspricht jetzt auch dem, was man von den Zahlen auf dem Papier erwarten würde. ;)

Von welchen Reviews wird hier gesprochen?

Spasstiger
2010-03-30, 12:52:41
Von welchen Reviews wird hier gesprochen?
Ich hab mich ein bischen bei CB und PCGH umgeschaut und noch andere Reviews im Kopf. Die Zahlen sind zugegebenermaßen ein eher subjektiver Eindruck. Ich sehe auf jeden Fall Verschiebungen im Leistungsgefüge zu Lasten der GTX 295 und zu Gunsten der HD 5870/HD 5970.
Und ich finde, dass es heute auch nur noch eine Dual-GPU-Karte gibt, bei der ein Kauf überhaupt noch Sinn macht. Und das ist eine HD 5970. Statt einer GTX 295 oder einer HD 4870 X2 würde ich eine GTX 470 nehmen. Sparsamer und im Schnitt genauso schnell. Dazu keine MPGU-Probleme.

LovesuckZ
2010-03-30, 12:56:51
Ich hab mich ein bischen bei CB und PCGH umgeschaut.

Computerbase.de nimmt zwei DX11 Games mitauf. Logisch, dass dadurch die GTX295 deutlich am Boden verliert. Eine GTX480 ist z.B. bei Computerbase in Battleforge 2,5x schneller als die GTX285 und 1,6x schneller als die GTX295. In Stalker sind es 2,2x bzw. 1.5x mehr.
Da muss man aufpassen.

Gast
2010-03-30, 12:58:42
Ich finde es interessant, wie schlecht die GTX 295 in den GTX-480-Reviews im Vergleich zu den HD-5870-Reviews dasteht.
Die GTX 480 schlägt die GTX 295 souverän mit meist 20-30% Vorteil. Die HD 5870 wird dagegen von der GTX 480 meist nur mit 10-20% Vorteil geschlagen.
Als die HD 5870 rauskam, war die GTX 295 aber fast durchweg schneller als die HD 5870, teilweise sogar mit einem Vorsprung von bis zu 20%. Selbst die HD 5970 hat sich bei Release in den Reviews nicht überzeugend genug von der GTX 295 abgesetzt.

Zum ersten sind es heute überwiegend andere Spiele die getestet wurden als damals und zum zweiten wird in alte Karten kaum noch investiert. Das ist aber bei ATI auch nicht anders. Drittens entwickelt ATI die Treiber für die aktuelle Gerneration noch immer weiter und ist dem Programm TWTMTBP immer etwas hinterher. Zudem hat nVidia angegeben das Hauptaugenmerk auf DX11 gelegt zu haben worunter die DX9/10 Performance gelitten haben soll. Außerdem beherrscht die GTX295 kein DX 11, wodurch sie im Performance Ranking weiter nach unten rutscht.

Spasstiger
2010-03-30, 13:01:42
Die GTX 295 steht auch bei DX9 in 1680x1050 mit 4xAA schlecht gegenüber der GTX 480 da und dort kommt weder die fehlende DX11-Unterstützung, noch der knappe VRAM zum Tragen. Ich hätte den Abstand geringer vermutet *). Wer nur NV-High-End kauft, bekommt mit der GTX 470 und der GTX 480 imo schon interessante Karten geboten.

*) Ehrlichgesagt ging ich vor dem Release davon aus, dass es ein Kop-an-Kopf-Rennen zwischen der GTX 480 und der GTX 295 wird, solange der VRAM nicht limitiert. Aber ich hab auch nicht damit gerechnet, dass die GTX 480 eine höhere Leistungsaufnahme als die GTX 295 hat. :freak:

Dural
2010-03-30, 13:15:07
na die Leistung von GF100/Fermi ist ohne zweifel erhaben, ein paar detail verbesserungen (vieleicht doch 128TMUs...) und den Stromverbrauch in den Griff bekommen und schon hat man eine hammer GPU! Das ware potential der Fermi Architektur wird man wohl leider erst mit 28nm sehen...

Shaft
2010-03-30, 13:25:45
Wie sehen eigentlich die Temperaturen beim 470 aus, fallen die auch höher aus als normale HighEnd GPUS?

Mich würde mal der Furmark und Spielerelevante Tests interessieren.

Gast
2010-03-30, 13:31:15
na die Leistung von GF100/Fermi ist ohne zweifel erhaben, ein paar detail verbesserungen (vieleicht doch 128TMUs...) und den Stromverbrauch in den Griff bekommen und schon hat man eine hammer GPU! Das ware potential der Fermi Architektur wird man wohl leider erst mit 28nm sehen...
Bis dahin müssen die aber die bisherige Produktion in den Griff bekommen. Ich bin mal gespannt, wie das mit der Lieferbarkeit in 1;2 Monaten aussieht und wieviel pro ausgelieferte Karte in $ überhaupt bei NV ankommt. Wenn man mit dieser groben Struktur und der Architektur fertigungstechnisch und betreibswirtschaftlich schon aus dem letzten Loch pfeift, werden weitere Verkleinerungen bestimmt länger auf sich warten lassen.

Wie gesagt, mal sehen ob wir Lieferschwierigkeiten diesmal auch in grün bekommen. ;)

boxleitnerb
2010-03-30, 13:32:15
na die Leistung von GF100/Fermi ist ohne zweifel erhaben, ein paar detail verbesserungen (vieleicht doch 128TMUs...) und den Stromverbrauch in den Griff bekommen und schon hat man eine hammer GPU! Das ware potential der Fermi Architektur wird man wohl leider erst mit 28nm sehen...

Das Blöde ist nur, 28nm sehen wir frühestens gegen Ende nächsten Jahres. Bis dahin hat AMD sicher auch eine neue Architektur. Und ihre Chips haben sie bis dahin die ganze Zeit deutlich günstiger hergestellt.
Es wird sich zeigen, welche Strategie die bessere ist. Ein Mittelweg wäre imho besser als sich zu sehr auf DX11 zu versteifen und dafür die Grundperformance zu vernachlässigen bzw. sie mit unverhältnismäßigen Mitteln zu erkaufen (Nvidia) oder DX11 zu vernachlässigen, dafür aber ein hervorragendes Performance/Aufwandsverhältnis zu haben (AMD).

dildo4u
2010-03-30, 13:32:38
Wie sehen eigentlich die Temperaturen beim 470 aus, fallen die auch höher aus als normale HighEnd GPUS?

Mich würde mal der Furmark und Spielerelevante Tests interessieren.

92(Grid) bzw 93°(Furmark) dort hat NV whol das Templimit für die Lüftersteuerung gesetzt erst dann setzt der Lüfter richtig ein.Kaum Temperatur Unterschiede zwischen Furmark und Grid.Bei der 480 hat der Kühler unter Furmark mher zu kämpfen dort gehts bis 96°.

http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=2

Shaft
2010-03-30, 13:52:15
92(Grid) bzw 93°(Furmark) dort hat NV whol das Templimit für die Lüftersteuerung gesetzt erst dann setzt der Lüfter richtig ein.Kaum Temperatur Unterschiede zwischen Furmark und Grid.Bei der 480 hat der Kühler unter Furmark mher zu kämpfen dort gehts bis 96°.

http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=2

Danke,

Wahnsinn, gefällt mir überhaupt nicht.

Nuja, was solls. Bleibt auf alternative Kühler zu warten oder Custom Karten. Da steht ja schon was am Start.

Gast
2010-03-30, 13:55:39
beides im Luxx gesehen:

techPowerUp! News :: XFX Abandons GeForce GTX 400 Series (http://www.techpowerup.com/118821/XFX_Abandons_GeForce_GTX_400_Series.html)

XFX is getting cozier with AMD by the day, which is an eyesore for NVIDIA. Amidst the launch of GeForce GTX 400 series, XFX did what could have been unimaginable a few months ago: abandon NVIDIA's high-end GPU launch. That's right, XFX has decided against making and selling GeForce GTX 480 and GeForce GTX 470 graphics cards, saying that it favours high-end GPUs from AMD, instead. This comes even as XFX seemed to have been ready with its own product art. Apart from making new non-reference design SKUs for pretty-much every Radeon HD 5000 series GPU, the company is working on even more premium graphics cards targeted at NVIDIA's high-end GPUs.

The rift between XFX and NVIDIA became quite apparent when XFX outright bashed NVIDIA's high-end lineup in a recent press communication about a new high-end Radeon-based graphics card it's designing. "XFX have always developed the most powerful, versatile Gaming weapons in the world - and have just stepped up to the gaming plate and launched something spectacular that may well literally blow the current NVIDIA offerings clean away," adding "GTX480 and GTX470 are upon us, but perhaps the time has come to Ferm up who really has the big Guns." The move may come to the disappointment of some potential buyers of GTX 400 series, as XFX's popular Double Lifetime Warranty scheme would be missed. XFX however, maintains that it may choose to work on lower-end Fermi-derivatives.

Wenn das nicht nach Ärger riecht...

Geschichten aus der Nvidia Mafiosi Familie (http://hi-tech.at/wordpress/2010/03/geschichten-aus-der-nvidia-mafiosi-familie/)

Eine kurze (traurige) Zusammenfassung jener Ereignisse welche sich seit Release der neuen GTX470 & 480er Serie zugetragen haben….

Im konkreten Fall geht es um 3 unterschiedliche Hersteller (Nvidia Partner) welche eigene Geforce Karten produzieren.

Hersteller a) :

Stellt folgende Bedingungen für den Erwerb der neuen GTX470 & 480er Serie :
1. Pro gekaufter GTX470 Karte ist der Erwerb von zusätzlichen 10 anderen Produkten zwingende Voraussetzung um eine Bestellung zustande kommen zu lassen
2. Pro gekaufter GTX480 Karte ist der Erwerb von zusätzlichen 20 anderen Produkten zwingende Voraussetzung um eine Bestellung zustande kommen zu lassen
Oder anders gesagt für eine typische Erstabnahme um das Produkt entsprechend anzutesten von jeweils 20 Karten würde voraussetzen, dass insg. 600 !!! andere Produkte ebenfalls gekauft werden um in den „Genuss“ der neuen Grafikkarten zu kommen
Hersteller b) :

Siehe Hersteller A) jedoch schöner verpackt in Form von –
„Wir würden uns natürlich über eine ausgedehnter Geschäftsbeziehung freuen, da es unserer Meinung nach keinen Sinn macht eine Partnerschaft nur mit den Neuerscheinungen zu beginnen“

– umgangssprachlich für : „
Wenn ihr uns zusätzlich noch unsere alten Restbestände abkauft die im Lager verstauben wären wir durchaus bereit was zu machen“
Hersteller c) : (bereits langjährige Geschäftsbeziehung)

Gerne können wir euch mit den Karten beliefern – auch ohne Zwang von zusätzlicher Abnahme von Altkarten (Hoffnungsschimmer machte sich breit) ABER… erst ab in etwa der 4ten Lieferung

(Anmerkung : Lieferung 1 bis 3 sind jedoch noch nicht mal beim Hersteller angekommen also kann man sich ausmalen wann dies ca. dann der Fall wäre)

Der Grund für dieses Verhalten ist, dass es eine genaue Vorschreibungsliste gibt (von Nvidia selbst) welche Händler beliefert werden dürfen und nur an diese Händler dürfen zum Start des Produkts Karten verkauft werden.

Insgesamt gesehen in meiner persönlichen Meinung ist das ein Verhalten, das jeglicher Beschreibung trotzt…. oder waren sie schon mal im Supermarkt und durften am Samstag kein Brot kaufen da am Samstag nur die Familie Müller, Mayr & Moosbauer Brot kaufen darf aber nicht die Familie Hintersteiner ?

Oder ist es ihnen schon mal passiert, dass sie im Supermarkt lesen mussten der Kauf von einem Stück Brot setzt auch den Erwerb von Butter, Milch, Käse, Wurst, Spülmittel, Waschpulver und Haargel voraus ?

Also für mich sind dies ganz neue Mittel und Wege auf die Nvidia zurückgreift und ein echt trauriges Beispiel für einen Hersteller der offenbar neue Wege im Kundenvertrieb (oder eher Kundenvertreibung???) beschreiten möchte.

Philipp Heinz

Hi-Tech Personal Computer


ohne Worte.....

Gast
2010-03-30, 14:18:50
Tja, was ist denn nun das Zwischenfazit?

Das alle nur mit Wasser kochen? Das scheint sich nach den bisherigen Informationen und Spekulationen abzuzeichnen, jedenfalls hat nach diesen NV seine Hausaufgaben nicht viel besser als ATI gemacht.

Bisher scheint da jedenfalls nicht der Knaller zu kommen, bei dem man ein Idiot wäre, nicht zuzugreifen (Geld vorausgesetzt). Allerdings ists auch kein Rohrkrepierer. Evtl. reift Fermi ja nach dem Refresh zum glasklaren Topchip, bisher scheint es aber nicht so zu sein, da die Geschwindigkeitsvorteile von den Nachteilen imho stark angeknabbert werden.

Burgard
2010-03-30, 14:21:06
beides im Luxx gesehen:

ohne Worte.....

Das solltest du mal lieber im Yield-Thread posten.

Das sieht tatsächlich danach aus, dass NV mit der Massnahme den Fermi quersubventionieren will.
Kleine Karten bringen Gewinn und der wird für den Fermi ausgegeben, somit keinen Verlust durch die schlechte Yield.

Tja, was ist denn nun das Zwischenfazit?


Der Fermi ist z.Zt nur was für die absoluten NV-Fans.

Wer auf ein ausgewogenes Produkt wert legt sollte die Finger von der 4x0 lassen.

Kosh
2010-03-30, 14:31:30
Ich weiß. Aber wenn selbst schon Alternate die Vorbestellung bei 349€ hat, dann wird es nicht teurer werden.
Aber wenn wir das ganze weiterspinnen: Entstehen ja heute auch noch keine Anschaffungspreise für die Karten. Also ist es auch kein Negativpunkt. ;D

Vorbestellen kannst du, nur ob du dann die Karte bekommen wirst ist eine andere Sache.

Denn in solchen Shops wird nicht nach eingegnagener Bestellung gegangen. Wenn du für 349 Euro vorbestellt hast,der Preis dann 1 Monat später auf 399 Euro hoch geht und Leute für den Preis vorbestellt haben.
Rate mal wer dann zuerst die Karten bekommt?? Die 349 Euro Besteller oder die 399 Euro Besteller?

Und das bedeutet, du musst Glück haben das mehr als genug Karten kamen,damit auch die 349 Euro Besteller eine Karte abbekommen.

Zatoichi
2010-03-30, 14:38:15
Das mag bei manchen Händlern der Fall sein, aber Alternate ist schon eine Instanz. Die Frage ist eh, ob die Zahlen von Charlie stimmen und wie die Lage bei den Vorbestellungen ausschaut.

Gast
2010-03-30, 14:40:06
Das solltest du mal lieber im Yield-Thread posten.

Das sieht tatsächlich danach aus, dass NV mit der Massnahme den Fermi quersubventionieren will.
Kleine Karten bringen Gewinn und der wird für den Fermi ausgegeben, somit keinen Verlust durch die schlechte Yield.


Der Fermi ist z.Zt nur was für die absoluten NV-Fans.

Wer auf ein ausgewogenes Produkt wert legt sollte die Finger von der 4x0 lassen.

Dem kann ich nicht folgenden. Je nachdem wie sich der Preis entwickelt, würde ich eine GTX 470 in jedem Fall einer HD5870 vorziehen. Von der 480er würde ich auch die Finger lassen aber die 470er ist m.E. in Ordnung.

LovesuckZ
2010-03-30, 14:48:16
Battleforge ohne Screen Space Ambient Occlusion:
http://benchmarkreviews.com/images/reviews/video_cards/GeForce_GTX480/BattleForge_No-SSAO_Benchmark.jpg

Und mit:
http://benchmarkreviews.com/images/reviews/video_cards/GeForce_GTX480/BattleForge_DX11_Benchmark.jpg
http://benchmarkreviews.com/index.php?option=com_content&task=view&id=480&Itemid=72&limit=1&limitstart=7

Was macht GF100 in Battleforge eigentlich so schnell?

Gast
2010-03-30, 15:02:41
Wieso bricht die 5870 !m mit ! nicht ein?

Frank1974
2010-03-30, 15:11:59
Muss wohl so sein, besonders bei der HD 5970. Damals 20-50% Vorteil zur GTX 295, jetzt 35-70% Vorteil, im Schnitt ca. 50%, vorher im Schnitt eher 35%. Das entspricht jetzt auch dem, was man von den Zahlen auf dem Papier erwarten würde. ;)
Die Reihenfolge der Grafikkarten ab der GTX 285 lautet nun imo:
GTX 285 < HD 5850 < GTX 295 = GTX 470 = HD 4870 X2 < HD 5870 < GTX 480 < HD 5970

Die Performance der GTX295 wäre unter DX9/10 im Performancerating immer noch vor einer HD5870, Computerbase weigert sich nur bei der GTX295 Treiber zu nehmen wo Dirt2 und World in Conflict auch mit SLI läuft, bei mir läuft jedenfalls SLI, man sollte nur Tests machen, wenn man etwas davon versteht.

In World in Conflict unter 1920x1200 4/16 ist die GTX260 95% schneller, sehr witzig, bei mir ist es genau anders herum und damit fast auf Niveau der GTX480, dieser extrem niedrige Wert und Dirt2 ziehen die GTX295 in eine Region, wo sie gar nicht hin gehört, du kannst ja selber ausrechnen wo die GTX295 steht, SLI skaliert bei beiden Games zu 80-90%.

edit
Ich kenne zb die Szene die CB nimmt, das ist eine Zwischenszene die seid den 195er Treibern auf 30fps limitiert ist, wenn SLI läuft, das normale Game läuft hingegen ganz normal, klar man könnte auch Nvidia die Schuld dafür geben.

mfg
Frank

Burgard
2010-03-30, 15:12:11
Dem kann ich nicht folgenden. Je nachdem wie sich der Preis entwickelt, würde ich eine GTX 470 in jedem Fall einer HD5870 vorziehen. Von der 480er würde ich auch die Finger lassen aber die 470er ist m.E. in Ordnung.

Über die 480 muss man sich wohl wirklich nicht gross auslassen, die hat wirklich grosse Probleme.
EIn typischer Fan-Artikel.

AUch wenn die 470 gute ANsätze hat, so ist auch dort der Stromverbrauch, die Lautstärke und die Hitzeentwicklung nicht zu unterschätzen.
Ich habe so meine Bedenken.
Wie wird sich die 470 im Sommer verhalten?
WIe sieht es mit der Dauerbelastung ausm wenn die Kiste im 24-Stundenbetrieb mit 100% Auslastung läuft?
Das grösste Manko ist aber der STromverbrauch, die 10 MW/J wollte ich nicht durchstossen.
Werde mir wohl mal beide anschauen müssen, um ein endgültiges Urteil zu bilden.

Sofern ich überhaupt eine 470er bekommen kann.

Kosh
2010-03-30, 15:23:11
Jetzt fehlt nur noch eine schlechte Verfügbarkeit und es wird ein EPIC EPIC FAIL.

Naja, je schlechter die Karte, oder je mehr die Leute keine Lust auf die hohe Lautstärke, Verlustleistung ,Hitzemonster haben, um so geringer wird die Nachfrage sien ,was natürlich indirekt der Verfügbarkeit zugute kommt.

Gibt es 10t Karten insgesamt und die karte wollen 50000 Leute haben,dann ist die Verfügbarkeit natürlich beschissen.

Wollen nur 6000 Leute die Karten haben,dann ist die Verfügbarkeit hervorragend,obwohl sich die Stückzahl null verändert hat.

dildo4u
2010-03-30, 15:32:44
Battleforge ohne Screen Space Ambient Occlusion:
http://benchmarkreviews.com/images/reviews/video_cards/GeForce_GTX480/BattleForge_No-SSAO_Benchmark.jpg

Und mit:
http://benchmarkreviews.com/images/reviews/video_cards/GeForce_GTX480/BattleForge_DX11_Benchmark.jpg
http://benchmarkreviews.com/index.php?option=com_content&task=view&id=480&Itemid=72&limit=1&limitstart=7

Was macht GF100 in Battleforge eigentlich so schnell?
Das SSAO wird bei Battleforge unter DX11 über Compute Shader berechnet.Bei Metro das DOF die 480 scheint dort sher stark zu sein,selbst bei einem Game was auf ATI Karten entwickelt wurde.(Battleforge) Tesslation ist bei Metro wegen des geringer Einsatzes imo nicht der limitierende Faktor für die ATI's sondern das Compute Shader DOF.


The difference from in using a compute shader is that the performance hit of SSAO is significantly reduced. As a DX10.1 pixel shader it lobs off 35% of the performance of our 5850. But calculated using a compute shader, and that hit becomes 25%. Or to put it another way, switching from a DX10.1 pixel shader to a DX11 compute shader improved performance by 23% when using SSAO. This is what the DX11 compute shader will initially be making possible: allowing developers to go ahead and use effects that would be too slow on earlier hardware

http://www.anandtech.com/show/2848/2

Gast
2010-03-30, 15:44:59
Battleforge ohne Screen Space Ambient Occlusion:
http://benchmarkreviews.com/images/reviews/video_cards/GeForce_GTX480/BattleForge_No-SSAO_Benchmark.jpg

Und mit:
http://benchmarkreviews.com/images/reviews/video_cards/GeForce_GTX480/BattleForge_DX11_Benchmark.jpg
http://benchmarkreviews.com/index.php?option=com_content&task=view&id=480&Itemid=72&limit=1&limitstart=7

Was macht GF100 in Battleforge eigentlich so schnell?

Fake³
schau die dir 285 und 295 an... dann hätteste dir das posten erspaaren können...