PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 465: (P)Review-Thread


Seiten : [1] 2 3

AnarchX
2010-05-19, 20:10:20
http://img689.imageshack.us/img689/1805/specstable.jpg

http://www.pcgameshardware.de/aid,748908/Test-Geforce-GTX-465-Nvidias-guenstigste-DirectX-11-Grafikkarte/Grafikkarte/Test/
http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_465/
http://ht4u.net/reviews/2010/msi_nvidia_geforce_gtx_465_test/
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/15460-test-zotac-geforce-gtx-465.html

http://www.xbitlabs.com/articles/video/display/geforce-gtx-465.html
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/32669-evga-geforce-gtx-465-1gb-superclocked-review.html
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/32672-asus-geforce-gtx-465-1gb-review.html
http://www.legitreviews.com/article/1317/1/
http://hothardware.com/Articles/NVIDIA-GeForce-GTX-465-Debut-EVGA-Zotac/
http://www.guru3d.com/article/geforce-gtx-465-sli-review/
http://www.hardwareheaven.com/reviews/980/pg1/zotac-geforce-gtx-465-graphics-card-review-introduction.html
http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_465/
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-465-fermi-gf100,2642.html
http://www.xbitlabs.com/articles/video/display/geforce-gtx-465.html
http://www.tweaktown.com/reviews/3316/galaxy_geforce_gtx_465_gc_video_card/index.html

http://translate.google.de/translate?u=http%3A%2F%2Fdiy.pconline.com.cn%2Fgraphics%2Freviews%2F1005%2F21274 85.html&sl=zh-CN&tl=en&hl=&ie=UTF-8

derguru
2010-05-19, 20:25:08
teilweise geht die luft aus bei 4aa(stalker),im großen und ganzen wohl 5830 niveau.durch die namensgebung hätte ich bissel mehr erwartet gehabt.

Schlammsau
2010-05-19, 20:25:26
Allen Anschein nach Leistungsmässig zwischen 5830 und 5850. Stromverbrauch geschätzt auf 5870 Niveau evtl sogar darüber. X-D

dildo4u
2010-05-19, 20:28:24
teilweise geht die luft aus bei 4aa(stalker),im großen und ganzen wohl 5830 niveau.durch die namensgebung hätte ich bissel mehr erwartet gehabt.

Bei Stalker wird sie mit dem 255 Treiber noch zulegen,bei Metro macht 4XAA der 465 deutlich weniger aus als der 5830.

http://forum.amtech.com.vn/overclocking-benchmark/71313-first-review-driver-nvidia-256-76-32bit.html#post689435

Schlammsau
2010-05-19, 20:30:27
Bei Stalker wird sie mit dem 255 Treiber noch zulegen,bei Metro macht 4XAA der 465 deutlich weniger aus als der 5830.

http://forum.amtech.com.vn/overclocking-benchmark/71313-first-review-driver-nvidia-256-76-32bit.html#post689435

Das liegt aber mit Sicherheit an der allgemeinen AA-Schwäche der 5830.

Alter Schwede, ist das eine Mistkarte.....die 5830 ist ja schon Müll, aber die 465 toppt das ohne mit der Wimper zu zucken.

mapel110
2010-05-19, 20:34:36
Ist der Launch jetzt die Tage schon? Dachte, der wäre erst Anfang Juni.

Raff
2010-05-19, 20:36:25
Ist der Launch jetzt die Tage schon? Dachte, der wäre erst Anfang Juni.

Gerüchteweise zur Computex.

Tja, auch Nvidia kann eine HD 5830 bauen. HD 5830 = In Relation zu ihrem Preis, ihrer Leistungsaufnahme und der HD 5770/1G zu teure Karte. Immer noch.

MfG,
Raff

LovesuckZ
2010-05-19, 20:37:37
Und was hat das mit der GTX465 zu tun?
Eine GF100 auf GTX275/285 Niveau mit HQ-AF, DX11 und nutzbares Tessellation ist wohl kaum eine 5830, die weder Fisch noch Fleisch ist.


Alter Schwede, ist das eine Mistkarte.....die 5830 ist ja schon Müll, aber die 465 toppt das ohne mit der Wimper zu zucken.

Langsam geht dein virales Marketing einen auf den Keks. Wann wird die Moderation hier endlich eingreifen? Weder gibt es ein klares Bild von der Karte, noch habe ich den UVP gefunden. Aber der AMD Vertreter nervt schon. Ziemlich gut, muss ich sagen.

dildo4u
2010-05-19, 20:39:04
Jo die 465 wirkt recht ausgewogen gegen eine 5830 vieleicht aber auch nix besonderes.

derguru
2010-05-19, 20:43:30
wo bitte ist die ausgewogen? also ich fand schon die 5830 grütze und die ist nicht besser.
finde beide vollkommene scheisse,vorallem wenn ich dazu den verbrauch sehe.das beste das ist das diese karten um die 230 euro kosten werden.:freak:

Fetter Fettsack
2010-05-19, 20:46:37
Aber sie hat doch nutzbares Tesselation.^^

Gibt es denn wirklich keine Möglichkeit den GF100 in seiner unbändigen Lust auf Strom zu bändigen, ohne ihn leistungsmäßig völlig zu kastrieren?

Jake Dunn
2010-05-19, 20:47:15
Bei Stalker wird sie mit dem 255 Treiber noch zulegen,bei Metro macht 4XAA der 465 deutlich weniger aus als der 5830.

http://forum.amtech.com.vn/overclocking-benchmark/71313-first-review-driver-nvidia-256-76-32bit.html#post689435

http://www.abload.de/img/lachen6fb3.gif (http://www.abload.de/image.php?img=lachen6fb3.gif)

In deinen Träumen...
...255er ;D ein ...................

dildo4u
2010-05-19, 20:47:58
wo bitte ist die ausgewogen? also ich fand schon die 5830 grütze und die ist nicht besser.
:
Die 465 wird mit 4XAA deutlich vor der 5830 liegen vorallem mit dem 255 Treiber.

LovesuckZ
2010-05-19, 20:48:13
wo bitte ist die ausgewogen? also ich fand schon die 5830 grütze und die ist nicht besser.

Nicht jeder will mindesten 320€ für eine DX11 Karte von nVidia bezahlen.
Dazu kommt, dass die Karte keine extreme Kürzung irgendwo hat. Sie sollte also dementsprechend nur dann langsamer als eine GTX275/285 sein, wenn ein GF100 sich nicht wirklich absetzen kann. Das sieht bei einer 5830 viel schlimmer aus.


finde beide vollkommene scheisse,vorallem wenn ich dazu den verbrauch sehe.

Sollte die Karte ca. $250 kosten, dann liegt sie von der Leistung im selben Bereich wie GTX470 und GTX480.
Wenn dich der Preis und die Leistung ankotzt: Eine 5770 gibt es für 120€, eine maximal doppelt so schnelle 5870 für 350€. Vielleicht erstmal den Gesamtmarkt betrachten, bevor hier mit irgendwelchen komischen Aussagen um sich geworfen wird.

Gast
2010-05-19, 20:49:52
wo bitte ist die ausgewogen? also ich fand schon die 5830 grütze und die ist nicht besser.
finde beide vollkommene scheisse,vorallem wenn ich dazu den verbrauch sehe.das beste das ist das diese karten um die 230 euro kosten werden.:freak:

Wenn es nach dem Verbrauch geht sind alle Thermi-Karten scheiße. Nur die GTX465 wird es wohl auch noch schaffen bei der Leistung/Watt eine neuen Negativrekord aufzustellen. Gerade im Vergleich zur 5850, die sehr stromsparend ist, ist die Karte ein Desaster.


Und was hat das mit der GTX465 zu tun?
Eine GF100 auf GTX275/285 Niveau mit HQ-AF, DX11 und nutzbares Tessellation ist wohl kaum eine 5830, die weder Fisch noch Fleisch ist.



Langsam geht dein virales Marketing einen auf den Keks. Wann wird die Moderation hier endlich eingreifen?

Du schaffst es immer wieder dich selbst zu kritisieren, Respekt. :D

Black-Scorpion
2010-05-19, 20:50:06
Und was hat das mit der GTX465 zu tun?
Eine GF100 auf GTX275/285 Niveau mit HQ-AF, DX11 und nutzbares Tessellation ist wohl kaum eine 5830, die weder Fisch noch Fleisch ist.



Langsam geht dein virales Marketing einen auf den Keks. Wann wird die Moderation hier endlich eingreifen? Weder gibt es ein klares Bild von der Karte, noch habe ich den UVP gefunden. Aber der AMD Vertreter nervt schon. Ziemlich gut, muss ich sagen.
Führst du Selbstgespräche?
Bevor du dich über andere aufregst, solltest du dich ganz fest an die eigene Nase fassen.

Jake Dunn
2010-05-19, 20:52:18
Führst du Selbstgespräche?
Bevor du dich über andere aufregst, solltest du dich ganz fest an die eigene Nase fassen.

Das merkt der Vollpfosten nicht ;D


...die evt. Verwarnung nimm ich gerne :)

Fetter Fettsack
2010-05-19, 20:57:32
@Black-Skorpion

Besser nicht auf darauf eingehen, sonst artet das nur wieder aus.

Welchen Sinn hat denn eigentlich die 465 , wenn sie nicht recht günstig ist? Je näher die nVidia-Karten den momentanen Platzhirschen 5850(=teilweise), 5770 und 5750 kommen, desto strenger werden sie begutachtet, weil es recht gute und bewährte Vergleichsprodukte gibt, die doch meist, und das ist ein Faktum, leise und recht mäßig im Stromverbrauch sind und sich auch in sachen Leistung nicht unbedingt eine Blöße geben.

Botcruscher
2010-05-19, 21:00:38
Wenn es nach dem Verbrauch geht sind alle Thermi-Karten scheiße. Nur die GTX465 wird es wohl auch noch schaffen bei der Leistung/Watt eine neuen Negativrekord aufzustellen. Gerade im Vergleich zur 5850, die sehr stromsparend ist, ist die Karte ein Desaster.

Die 480 rechtfertigt das immerhin noch mit der Geschwindigkeit. Bei der 470 wirds schon arg kritisch aber das Ding? Der Verbrauch dürfte für die Leistung einfach nur abartig sein. Dazu noch der Vergleich zur 5830er Schweinekarte.
Richtig düster wird es aber wenn an der NV Roadmap auch nur etwas wahres dran ist.

Raff
2010-05-19, 21:00:38
Und was hat das mit der GTX465 zu tun?
Eine GF100 auf GTX275/285 Niveau mit HQ-AF, DX11 und nutzbares Tessellation ist wohl kaum eine 5830, die weder Fisch noch Fleisch ist.

Das Problem ist die Leistungsaufnahme, sofern sie sich bestätigt. Bei der GTX 480 als absolut schnellste Karte lasse ich das ja noch durchgehen, eben weil sie so schnell ist, aber eine Karte auf GTX-275-Niveau soll bitte höchstens so viel Strom fressen wie eine GTX 275 (die bereits recht verschwenderisch ist). Das wird aber nichts, wenn ein komplexes (GTX-470-)PCB zum Einsatz kommt und ein minderwertiger Chip um viel Spannung bettelt. ;) GTX 460, FTW!

Dennoch wird die GTX 465 ihre Kunden finden. Eben, weil sie DX11 beherrscht, angenehm schnell und dabei recht erschwinglich ist. Und vermutlich lässt sich das Teil hervorragend übertakten. Schon die GTX 470 hat ein fettes Potenzial.

MfG,
Raff

Schlammsau
2010-05-19, 21:02:40
Die 465 wirds nicht leicht haben in der Presse, sie wird sich mit der 4830 bzw. 4850 messen müssen, und hat dabei die klar schlechteren Karten.
Auch die 5830 findet kaum Abnehmer, warum sollte es bei dem Ding anders sein.

Raff
2010-05-19, 21:04:07
Die 465 wirds nicht leicht haben in der Presse, sie wird sich mit der 4830 bzw. 4850 messen müssen, und hat dabei die klar schlechteren Karten.

Eine GTX 465 ist mit den bekannten Specs den genannten Karten in allen Disziplinen überlegen, wenn man von der Leistungsaufnahme absieht. Ok, da ist sie gewiss auch "überlegen". :ulol:

MfG,
Raff

Fetter Fettsack
2010-05-19, 21:04:49
Da hast du wohl die falsche Generation erwischt, schlammsau ;).

Schlammsau
2010-05-19, 21:06:18
Eine GTX 465 ist mit den bekannten Specs den genannten Karten in allen Disziplinen überlegen, wenn man von der Leistungsaufnahme absieht. Ok, da ist sie gewiss auch "überlegen". :ulol:

MfG,
Raff

Was meinst du mit allen Disziplinen?

LovesuckZ
2010-05-19, 21:07:21
Das Problem ist die Leistungsaufnahme, sofern sie sich bestätigt. Bei der GTX 480 als absolut schnellste Karte lasse ich das ja noch durchgehen, eben weil sie so schnell ist, aber eine Karte auf GTX-275-Niveau soll bitte höchstens so viel Strom fressen wie eine GTX 275 (die bereits recht verschwenderisch ist).
Das wird aber nichts, wenn ein komplexes (GTX-470-)PCB zum Einsatz kommt und ein minderwertiger Chip um viel Spannung bettelt. ;) GTX 460, FTW!

MfG,
Raff


Abgesehen davon, dass es fragwürdig ist 150 Watt für durchschnittliches 20% Mehrleistung ohne Tessellation als "gut einzustufen", liegt der Verbrauch beim verlinkten Test bei 35 Watt unter der GTX470. Laut Fudo soll die TDP bei 200 Watt liegen. Wenn der Wert übernehmbar wäre, läge man igendwo auf GTX275/GTX280 Niveau vom Stromverbrauch.

HarryHirsch
2010-05-19, 21:08:30
Und was hat das mit der GTX465 zu tun?
Eine GF100 auf GTX275/285 Niveau mit HQ-AF, DX11 und nutzbares Tessellation ist wohl kaum eine 5830, die weder Fisch noch Fleisch ist.



Langsam geht dein virales Marketing einen auf den Keks. Wann wird die Moderation hier endlich eingreifen? Weder gibt es ein klares Bild von der Karte, noch habe ich den UVP gefunden. Aber der AMD Vertreter nervt schon. Ziemlich gut, muss ich sagen.

blablabla. Gestern erzählt er was von wegen:

Sapphire gehört zu PC Partner und die bieten über Zotac auch nVidia-Karten an. ;)

Und heute sowas :freak:

Inzwischen ist es bei mir echt so das jeden Abend zum lesen hier her komme und wenn ich einen Beitrag von dir gelesen habe den Abend lieber auf der Couch verbringe.
Du laberst mehr scheisse an einem Tag als eine Kuh in ihrem leben produziert.

Botcruscher
2010-05-19, 21:08:42
Und vermutlich lässt sich das Teil hervorragend übertakten. Schon die GTX 470 hat ein fettes Potenzial.

Dadurch kommen die Einheiten auch nicht wieder und über den dann zu erwartenden Stromverbrauch brauchen wir uns ja nicht auslassen.

Laut Fudo soll die TDP bei 200 Watt liegen. Wenn der Wert übernehmbar wäre, läge man igendwo auf GTX275/GTX280 Niveau vom Stromverbrauch.

TDP kannst du echt knicken. Die stimmt maximal bei den Teslas.

Raff
2010-05-19, 21:12:08
Was meinst du mit allen Disziplinen?

Features. Eine Grafikkarte besteht nicht nur aus Fps und der Leistungsaufnahme. DX10.1 und Flimmer-AF locken niemanden mehr hinter dem Of... äh, Fermi hervor.

Abgesehen davon, dass es fragwürdig ist 150 Watt für durchschnittliches 20% Mehrleistung ohne Tessellation als "gut einzustufen", liegt der Verbrauch beim verlinkten Test bei 35 Watt unter der GTX470. Laut Fudo soll die TDP bei 200 Watt liegen. Wenn der Wert übernehmbar wäre, läge man igendwo auf GTX275/GTX280 Niveau vom Stromverbrauch.

Das Problem mit der Leistungsaufnahme ist vor allem, dass ein Teil davon augeführt werden muss. Ergo kann eine Karte mit einer TDP von 200 Watt gar nicht schön leise und dabei günstig sein.

Dadurch kommen die Einheiten auch nicht wieder und über den dann zu erwartenden Stromverbrauch brauchen wir uns ja nicht auslassen.

Einheiten hin oder her, eine GTX 465 mit 800-900 MHz ist definitiv schnell. Bevor jemand meckert: Eine GTX 470 ist mit 800/1.600 MHz etwa so schnell wie eine GTX 480.

MfG,
Raff

Fetter Fettsack
2010-05-19, 21:13:42
Vielleicht ist die Strategie dahinter ja die Leute zum Kauf von NTs höherqualitativer Herkunft zu bewegen. (EDIT: Nein, das ist nicht ernst gemeint^^)

Zitat von Raff

Einheiten hin oder her, eine GTX 465 mit 800-900 MHz ist definitiv schnell.

Also doch eine Paralelle zur 4830 (vom Schema her gesehen). :-)

LovesuckZ
2010-05-19, 21:16:12
Das Problem mit der Leistungsaufnahme ist vor allem, dass ein Teil davon augeführt werden muss. Ergo kann eine Karte mit einer TDP von 200 Watt gar nicht schön leise und dabei günstig sein.


Dieses Problem hat jede Grafikkarte mit einem Stromverbrauch von über 200 Watt.
Ändert nichts an der Tatsache, dass die Karte allervorraussicht auf GTX275/GTX285 Niveau liegt und genauso viel verbraucht.

Botcruscher
2010-05-19, 21:17:12
Vielleicht ist die Strategie dahinter ja die Leute zum Kauf von NTs höherqualitativer Herkunft zu bewegen.


Oder Aktien von Energieversorgern. :freak: Nä...

NV soll gefälligst mit den kleineren Chips antanzen. Interessanter werden die alle mal. Übertakten kann man die auch...

Raff
2010-05-19, 21:17:48
Da angeblich ein GTX-470-PCB genutzt wird, sollte zumindest die Undervolting-Option gesichert sein. Und wenn nicht ... lässt sie sich auch nicht übermäßig gut übertakten. ;)

MfG,
Raff

Schlammsau
2010-05-19, 21:18:08
Features. Eine Grafikkarte besteht nicht nur aus Fps und der Leistungsaufnahme. DX10.1 und Flimmer-AF locken niemanden mehr hinter dem Of... äh, Fermi hervor.

Aso und deswegen ist die 465 in allen Punkten besser als die direkte Konkurrenz. :freak:

:motz:

boxleitnerb
2010-05-19, 21:18:33
Ändert nichts an der Tatsache, dass die Karte allervorraussicht auf GTX275/GTX285 Niveau liegt und genauso viel verbraucht.

Und wo ist dann der Fortschritt außer DX11? Immerhin steht hier 40nm gegen 55nm.

LovesuckZ
2010-05-19, 21:20:57
Und wo ist dann der Fortschritt außer DX11? Immerhin steht hier 40nm gegen 55nm.

Ich hätte jetzt ja DX11 gesagt - aber naja, das fällt weg.
Wie wäre es mit: x-fache Geometrieleistungssteigerung für DX11 (hoppla), Cachesystem zur Beschleunigung von FLUID-Simulationen (siehe Dark Void), schnellere 8xMSAA Leistung (macht 32xS wesentlich schneller), 32xCSAA Modus etc...
Wobei DX11 mit der nutzbaren Tessellationimplementierung die größte Innovation darstellt, aber das wird als Vorteil ausgeschlossen.

Raff
2010-05-19, 21:22:46
Aso und deswegen ist die 465 in allen Punkten besser als die direkte Konkurrenz. :freak:

:motz:

Ich würde die GTX 465 ja eher mit der HD 4890 vergleichen. Vermutlich ähnlich schnell, beide fressen so viel Strom wie Mähdrescher Gras und ... reicht das nicht als Vergleich? :biggrin:

Und wo ist dann der Fortschritt außer DX11? Immerhin steht hier 40nm gegen 55nm.

Was heißt hier "außer DX11"? Ein neuer Techlevel benötigt nun mal Transistoren. Transistoren, die man auch in mehr DX10-Rechenwerke hätten stecken können, ja. Aber würdest du heute noch eine DX10-Karte kaufen? Fps sind wirklich nicht alles. :D

MfG,
Raff

Jake Dunn
2010-05-19, 21:24:09
Bevor jemand meckert: Eine GTX 470 ist mit 800/1.600 MHz etwa so schnell wie eine GTX 480.

MfG,
Raff

...und frißt nochmehr :ubeer:

boxleitnerb
2010-05-19, 21:26:20
Ich hätte jetzt ja DX11 gesagt - aber naja, das fällt weg.
Wie wäre es mit: x-fache Geometrieleistungssteigerung für DX11 (hoppla), Cachesystem zur Beschleunigung von FLUID-Simulationen (siehe Dark Void), schnellere 8xMSAA Leistung (macht 32xS wesentlich schneller), 32xCSAA Modus etc...
Wobei DX11 mit der nutzbaren Tessellationimplementierung die größte Innovation darstellt, aber das wird als Vorteil ausgeschlossen.

Nö, ein Vorteil ist es schon. Nur nicht DER Vorteil, den man von einer neuen Generation erwartet (entweder höhere Performance oder deutlich geringerer Verbrauch oder beides zusammen). Die anderen Punkte sind nette Beigaben, aber sie werden einen GTX285 Besitzer mit kleinem Geldbeutel wohl kaum dazu bewegen, umzusteigen.
Und zu Tessellation: Meinst du, in dieser Leistungsklasse ist das noch relevant? Guck mal Metro an - das ist ja selbst eine Auflösungsstufe niedriger kaum spielbar.


Was heißt hier "außer DX11"? Ein neuer Techlevel benötigt nun mal Transistoren. Transistoren, die man auch in mehr DX10-Rechenwerke hätten stecken können, ja. Aber würdest du heute noch eine DX10-Karte kaufen? Fps sind wirklich nicht alles. :D

Für den Durchschnittskäufer schon. Wenn du deinen Gedankengang mal weiterdenkst, haben wir irgendwann eine DX15 Karte mit der Performance einer GTX285...toll, nicht? Auch suuuuper nutzbar. Jeder vernünftige Mensch erwartet von einer neuen Generation das oben Genannte. Muss ich wohl alleine sein...hm.

Außerdem ist so eine abgespeckte Karte für reinrassige DX11 Games doch gar nicht gedacht, selbst mit der ach so tollen Tessellationpower. So eine Midrange-Karte sehe ich eher als sehr potente DX10 Karte. War doch meistens so, oder korrigiere mich.

derguru
2010-05-19, 21:27:14
Die 465 wird mit 4XAA deutlich vor der 5830 liegen vorallem mit dem 255 Treiber.
jaja der 255 wird alles richten .:rolleyes:
Nicht jeder will mindesten 320€ für eine DX11 Karte von nVidia bezahlen.
Dazu kommt, dass die Karte keine extreme Kürzung irgendwo hat. Sie sollte also dementsprechend nur dann langsamer als eine GTX275/285 sein, wenn ein GF100 sich nicht wirklich absetzen kann. Das sieht bei einer 5830 viel schlimmer aus.
Sollte die Karte ca. $250 kosten, dann liegt sie von der Leistung im selben Bereich wie GTX470 und GTX480.
die spiele die gebencht wurden sind fast alle dx11 titel,wart mal ab wie die sich bei älteren spielen verhalten wird und ssaa kann man gleich abschreiben.selbst in alien vs. predator oder stalker lost sie relative klar.
hawx und farcry2 sind extrem parade beispiele die den karten sehr gut liegen und 250 euro ist imo zu teuer.5850 macht kleinholz mit der karte und die kriegt man auch in etwa für die knete.
...und frißt nochmehr :ubeer:

und ohrstöpsel ist pflicht.(selbst das wasser fängt an zu brodeln oder man nutzt den 4 slot für den kühler)X-D

LovesuckZ
2010-05-19, 21:31:50
Nö, ein Vorteil ist es schon. Nur nicht DER Vorteil, den man von einer neuen Generation erwartet (entweder höhere Performance oder deutlich geringerer Verbrauch oder beides zusammen). Die anderen Punkte sind nette Beigaben, aber sie werden einen GTX285 Besitzer mit kleinem Geldbeutel wohl kaum dazu bewegen, umzusteigen

Man muss endlich begreifen, dass nVidia DX9 und DX10 Leistung für nutzbares Tessellation geopfert hat. Sie hätten auch einen GT200x2 + DX11 mit einer Cypress-Implementierung machen können. Dann wäre man wohl wesentlich schneller und stromsparender.


Und zu Tessellation: Meinst du, in dieser Leistungsklasse ist das noch relevant? Guck mal Metro an - das ist ja selbst eine Auflösungsstufe niedriger kaum spielbar.

Tessellation ist nicht der Grund, warum Metro2033 mit allen Details so schnell bzw. langsam auf den Karten läuft. Und ja, bei GF100 ist Tessellation einfach relevant. Die GTX465 kann mit seinen 11 Tessellatoren immer noch 1,8 Dreiecke pro Takt erzeugen - Cypress liegt weiterhin bei 0,333 Dreiecke.
In Stone Giant wäre man ca. 50% schneller, in Stalker 3015% und in Metro2033 wohl auf dem Niveau der 5870.

Popeljoe
2010-05-19, 21:53:25
Es wäre schön, wenn sich die üblichen Verdächtigen mal zur Abwechselung nicht in persönlichen Beleidigungen ergehen würden.
Ansonsten gibts zur Strafe einen Monat PoWi Exil!

Pirx
2010-05-19, 22:10:23
Aber sie hat doch nutzbares Tesselation.^^...
So ist es, mit dieser Stärke und dem 255er Treiber wird die GTX 465 in den bald erscheinenden Spielen sogar der 5870 schwer zu schaffen machen.

Fetter Fettsack
2010-05-19, 22:17:08
Ohne jetzt das Ganze wieder lostreten zu wollen, aber wie schon anderorts angemerkt wurde, wird die Tesselationsleistung ohnehin erst dann wirklich von praktischer Brauchbarkeit (sprich in der breiten Masse der Spiele) sein, wenn zwei weitere Generationen an uns vorbeigezogen sind. (habe ich eine falsche Vorstellung von der Schreibweise oder heißt es nicht die Tesselation? Soll kein Flame sein, mich interessiert sowas)

Daher halte ich die GTX465 für eine recht energieineffiziente Karte, die vermutlich nur etwas für Übertakter ist, die sich nicht um den Strombedarf scheren (und auch nicht um die Lautstärke bzw. die Zusatzkosten für einen ordentlichen Kühler).

LovesuckZ
2010-05-19, 22:24:30
Keine Ahnung, ob die oder das heißt. Müsste wohl das Tessellieren heißen...
Aber zum Thema: Man sollte verstehen, dass Tessellieren (^^) andere Anforderung an die Architektur stellt als Pixelberechnungen. nVidia hat die Geometrieleistung gegenüber Cypress um das 3,5 fache und gegenüber GT200 um das 8fache gesteigert. Beim Tessellieren ist man sogar bis zu 7,5x so schnell als Cypress. Es ist doch offensichtlich, dass Tessellieren (man, was für ein Wort) mit der heutigen Hardware in Form von GF100 im vollen Umfang einsetzbar ist.

Fetter Fettsack
2010-05-19, 22:35:51
Ich hatte meine Frage eher auf das Geschlecht des Wortes bezogen, also: brauchbare (feminin) Tesselation anstatt brauchbares (neutra).

dass Tessellieren

Da passt schon "Tesselation", tesselieren ist ja nur das Verb, dein Gefühl hat dich nicht getrügt.^^

Ist ja alles schön und gut, was du da vorrechnest, aber das ändert meiner Ansicht nach nichts daran, dass man das erst brauchen kann, wenn zwei oder gar drei Jahre ins Land gezogen sind und es dann schon weit bessere Hardware gibt. Insofern ist es zwar zukunftsweisend, aber kein momentan wirklich relevanter "Vorteil".

LovesuckZ
2010-05-19, 22:45:01
Ist ja alles schön und gut, was du da vorrechnest, aber das ändert meiner Ansicht nach nichts daran, dass man das erst brauchen kann, wenn zwei oder gar drei Jahre ins Land gezogen sind und es dann schon weit bessere Hardware gibt. Insofern ist es zwar zukunftsweisend, aber kein momentan wirklich relevanter "Vorteil".

Kein Vorteil? Aus welchem Grund? Cypress ist in dieser Hinsciht komplett veraltet. Ungefähr vergleichbar mit CineFX in Bezug auf FP Berechnungen.
GF100 wird bezüglich Tessellation in den nächsten 12 Monaten mit zum absoluten Non-Plus-Ultra gelten. Und in den nächsten 12 Monaten wird es auch aufgrund fehlender kleinerer Fertigung nichts wirklich schnelleres in Bezug auf Pixelberechnungen geben.
Guckt man sich die jüngste Vergangenheit an, ist High-End sehr langlebig von der Leistung. Eine 8800GTX war über 18 Monate mit an der Spitze. Eine GTX280 wurde erst von AMD mit der 5870 nach 15 Monaten abgelöst.
Man muss sich also die Frage stellen: Wieviel Wert ist mir die Unsicherheit, die ich beim Kauf von Cypress erhalte.

derguru
2010-05-19, 22:50:06
was heißt in 2-3 jahren,es gibt heute schon spiele die so fordernd sind das eine einzige karte nicht zum spielen ausreicht wie in metro2033 unter dx11 und max details.wer so naiv ist und denkt damit für die zukunft ausgesorgt zu haben wird sich wundern.was mit einem fermi flüssig spielbar ist wird auch mit einer 5er karte spielbar sein und andersrum.als ob tess der einzige dx11 feature ist das fordernd ist.

Fetter Fettsack
2010-05-19, 22:51:53
Bitte sieh in mir nicht jemanden, der nVidia-Karten kritisiert, um ATi Karten besser dastehen lassen zu können.

Um einen allseits beliebten Autovergleich zu bemühen (was für ein Sündenfall^^): wenn ich eine 60% Steigung (Spiele in zwei, drei Jahren) nicht mit einem 50 PS Motor (GF100 in punkto Tesselation) erklimmen kann, dann geht das halt nicht. Nichtsdestotrotz werde ich mit einem 10PS Motor (Cypress) ebensowenig raufkommen. So hatte ich das gemeint.

Der Grund, warum sich in letzter Zeit die Hardware so lange halten konnte, war und sind die Konsolen. Wenn deren Möglichkeiten steigen, dann werden auch die Anforderungen an PCs steigen und das Aufrüstspiel geht von vorne los.

mapel110
2010-05-19, 22:52:23
.was mit einem fermi flüssig spielbar ist wird auch mit einer 5er karte spielbar sein und andersrum.
Die Realität sieht doch jetzt schon anders aus. Siehe AVP3, wo Fermi in entsprechenden Szenen doppelt so schnell ist.

Schlammsau
2010-05-19, 22:52:54
@LZ

Du weisst also wie schnell die kommende ATi Generation sein wird!? :)

Die Generation die schon in 3 Monaten dein Haus aus haltlosen Behauptungen zum Einsturz bringen könnte.

derguru
2010-05-19, 22:54:56
Die Realität sieht doch jetzt schon anders aus. Siehe AVP3, wo Fermi in entsprechenden Szenen doppelt so schnell ist.
absolut lächerlich ,quelle bitte.

Bucklew
2010-05-19, 22:55:53
http://www.brightsideofnews.com/news/2010/5/19/final-nvidia-geforce-gtx-465-specs-are-out.aspx

Du weisst also wie schnell die kommende ATi Generation sein wird!? :)

Die Generation die schon in 3 Monaten dein Haus aus haltlosen Behauptungen zum Einsturz bringen könnte.
War da nicht die Rede von 10-20% schneller als die Vorgängergeneration, was somit nur zu einem Gleichstand mit der GTX480 führen würde?

Schlammsau
2010-05-19, 23:01:10
http://www.brightsideofnews.com/news/2010/5/19/final-nvidia-geforce-gtx-465-specs-are-out.aspx


War da nicht die Rede von 10-20% schneller als die Vorgängergeneration, was somit nur zu einem Gleichstand mit der GTX480 führen würde?

Ich habe von einer Verfünffachung der Tesselationleistung gelesen....ist aber nur mit Vorsicht zu geniessen. Steht irgendwo im R900 Speku Thread.

LovesuckZ
2010-05-19, 23:06:07
Bitte sieh in mir nicht jemanden, der nVidia-Karten kritisiert, um ATi Karten besser dastehen lassen zu können.

So liest es sich jedoch. :frown:


Um einen allseits beliebten Autovergleich zu bemühen (was für ein Sündenfall^^): wenn ich eine 60% Steigung (Spiele in zwei, drei Jahren) nicht mit einem 50 PS Motor (GF100 in punkto Tesselation) erklimmen kann, dann geht das halt nicht. Nichtsdestotrotz werde ich mit einem 10PS Motor (Cypress) ebensowenig raufkommen. So hatte ich das gemeint.

Dieser Vergleich ist unpassend. Stone Giant bricht um 20% ein mit hTessellation. o-Ton Raff: Tessellation wird in perverser Weise eingesetzt.
Man sollte wirklich verstehen, dass GF100 ein Chip ist, der für Geometrieerzeugung durch die GPU gebaut wurde.


Der Grund, warum sich in letzter Zeit die Hardware so lange halten konnte, war und sind die Konsolen. Wenn deren Möglichkeiten steigen, dann werden auch die Anforderungen an PCs steigen und das Aufrüstspiel geht von vorne los.

Diese Aussage macht kein Sinn. Zwischen der 8800GTX und der GTX280 gab es nur eine 10% Steigerung durch die 9800gtx. Zwischen der GTX280 und der 5870 nur eine 10% Steigerung durch die GTX285.
Jetzt gibt es nichtmal einen kleineren Fertigungsprozeß in zeitlicher Nähe. Woher gedenkst du, soll eine erhebliche Steigerung der Pixelberechnungen erfolgen?

http://www.brightsideofnews.com/news/2010/5/19/final-nvidia-geforce-gtx-465-specs-are-out.aspx


This will be the most affordable Fermi-based card to date, priced at around $249 / €269.

Mal sehen, ob der Preis stimmt. Wie von mir erwartet.

Spasstiger
2010-05-19, 23:11:17
Die Benchmarks bei PC-Online sind teilweise seltsam. Crysis auf Seite 9 unten z.B.:

http://www.abload.de/img/2126267_crysis_thumbgfmz.jpg

Die HD 5770 nur ca. halb so schnell wie die HD 5830 mit 4xAA? Und die GTX 275 um 74% schneller als die GTX 260?
In Stone Giant (S.11) passt das Verhältnis der GTX 470 zur GTX 465 nicht so recht:

http://www.abload.de/img/2126267_stonegiant_thu3clr.jpg

Wie kann die GTX 470 mit 27% mehr SMs, gleichem Chiptakt und 30% mehr Speicherbandbreite um 46% schneller sein?

hq-hq
2010-05-19, 23:17:41
jupp das stinkt gewaltig

Byteschlumpf
2010-05-19, 23:19:12
Keine Ahnung, ob die oder das heißt. Müsste wohl das Tessellieren heißen...
Aber zum Thema: Man sollte verstehen, dass Tessellieren (^^) andere Anforderung an die Architektur stellt als Pixelberechnungen. nVidia hat die Geometrieleistung gegenüber Cypress um das 3,5 fache und gegenüber GT200 um das 8fache gesteigert. Beim Tessellieren ist man sogar bis zu 7,5x so schnell als Cypress. Es ist doch offensichtlich, dass Tessellieren (man, was für ein Wort) mit der heutigen Hardware in Form von GF100 im vollen Umfang einsetzbar ist.
Schaut man sich die Unigine Heaven Grafik ohne Tesselation an, sieht das überaus undetailiert und fade aus - Treppen als "Rutschen" und Dachziegel als glatte Flächen! Tesselation kann nicht als Ersatz herhalten, um primitiv gestaltete Objekte "Schönzurendern"! Der GF100 kann auch nicht als Standard-Ausrüstung für Tesslation gelten, da das Leistungs/Watt-Verhältnis deutlich zu schlecht ist.
Die kleinen NV DX11 Karten werden ohnehin für Tesselation viel zu schwach sein.

Gute gestaltete Objekte benötigen auch kein Schönrendern - wie z.B. anhand von Crysis gut zu sehen ist!

Ich bin kein Fanboy von ATI oder NV - damit das schonmal klar ist!

LovesuckZ
2010-05-19, 23:28:05
Schaut man sich die Unigine Heaven Grafik ohne Tesselation an, sieht das überaus undetailiert und fade aus - Treppen als "Rutschen" und Dachziegel als glatte Flächen! Tesselation kann nicht als Ersatz herhalten, um primitiv gestaltete Objekte "Schönzurendern"!


Dann schau dir Stone Giant an. Die verwendet auch andere Techniken, um Fake-Geometrie zu erzeugen: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8026814&postcount=5673


Der GF100 kann auch nicht als Standard-Ausrüstung für Tesslation gelten, da das Leistungs/Watt-Verhältnis deutlich zu schlecht ist.

Und? Ich bezahle den Stromverbrauch und nun? Davon abgesehen ist die Karte mit Tessellation soviel schneller, wie sie mehr verbraucht. Nur kann dies in spielbar und unspielbar sich entwickeln.


Die kleinen NV DX11 Karten werden ohnehin für Tesselation viel zu schwach sein.


Nein. Eine GTX465 sollte in Stone Giant mit High-Tessellation ca. 40% schneller sein als eine 5870. Eine GTX460 mit 2GPC sollte dann immernoch auf ca. 15-20% kommen.

hq-hq
2010-05-19, 23:28:58
ich glaub aber das man mit tesselation, ob derzeit overpowered nv oder sparflamme ati, viel arbeit
sparen könnte um objekte schöner aussehen zu lassen als auf gewöhnlichem weg

die gtx465 wird ihr plätzchen schon finden, auch wenn sie nicht trumpf gegenüber 5850 ist

Botcruscher
2010-05-19, 23:33:14
Möglich ist das schon. Den breiten Einsatz werden wir aber so schnell nicht sehen. Zum einen muss der Content für Nicht-DX11 Hardware eh da sein und zum anderen bleiben uns die Konsolen bis irgendwo 2015 erhalten.

Byteschlumpf
2010-05-19, 23:34:50
ich glaub aber das man mit tesselation, ob derzeit overpowered nv oder sparflamme ati, viel arbeit
sparen könnte um objekte schöner aussehen zu lassen als auf gewöhnlichem weg
Ähem, ohne Tess wäre die Grafik dann wieder auf dem Niveau von vor 10 Jahren!
Denkt doch mal an ältere Karten, die das nicht darstellen können! Somit dürfen Objekte niemals so sehr verstümmelt werden, dass sie ohne die SupiDupi-Technik wie billiger Krams aussehen!

hq-hq
2010-05-19, 23:36:13
auch wieder wahr !
für die consolen wärs aber gut, die spiele hätten eine polygonarmut wie in WoW - und liefen supi flutschig - aber aufm PC wäre alles vom feinsten - meine heile welt

Botcruscher
2010-05-19, 23:43:54
Warte mal wie schnell die Konsoleros die Grafikqualität entdecken wenn die nur noch WoW Grafik vorgesetzt bekommen. :freak:

LovesuckZ
2010-05-20, 00:10:30
Und hier mal der Qualitätsunterschied zwischen Tessellation medium und off in Stone Giant, wenn man von der falschen Seite auf die Texturen guckt:
http://www.abload.de/thumb/stone_giant2010-05-2002z9x.png (http://www.abload.de/image.php?img=stone_giant2010-05-2002z9x.png)
http://www.abload.de/thumb/stone_giant2010-05-200lbn9.png (http://www.abload.de/image.php?img=stone_giant2010-05-200lbn9.png)

LovesuckZ
2010-05-20, 01:18:51
Da angeblich ein GTX-470-PCB genutzt wird, sollte zumindest die Undervolting-Option gesichert sein. Und wenn nicht ... lässt sie sich auch nicht übermäßig gut übertakten. ;)

MfG,
Raff

Sicher? Laut hexus.net (http://www.hexus.net/content/item.php?item=24703) sind es 10". Auch das PCB scheint eine eigene Anfertigung zu haben und nicht von der GTX470 genommen zu sein. Nur 10 Speichersteine, statt 10+1 freie Stelle. Scheint wohl, dass nVidia die Karte längerfristig plant.

Iruwen
2010-05-20, 01:47:03
jaja der 255 wird alles richten .:rolleyes:

Jo, so wie Catalyst 10.3a. Äh, 10.4a. Äh... :freak:

Tesselation kann nicht als Ersatz herhalten, um primitiv gestaltete Objekte "Schönzurendern"!

Würden die nicht primitiv gestalteten Objekte nicht für Prä-DX11 Hardware benötigt wäre das doch gerade einer der möglichen Einsatzzwecke für Tesselation oder nicht?

derguru
2010-05-20, 01:54:35
Jo, so wie Catalyst 10.3a. Äh, 10.4a. Äh... :freak

gabs da was zu verrichten?nicht das ich wüsste aber wenn du mehr weiß erzähl.:wink:

Byteschlumpf
2010-05-20, 02:05:27
Jo, so wie Catalyst 10.3a. Äh, 10.4a. Äh... :freak:



Würden die nicht primitiv gestalteten Objekte nicht für Prä-DX11 Hardware benötigt wäre das doch gerade einer der möglichen Einsatzzwecke für Tesselation oder nicht?
Würden die Objekte normal ansprechend gestaltet sein, wie in unzähligen Spielen bisher zu beobachten ist, bräuchte man keine "zusätzlichen Kraftwerke" bauen müssen, um etwas hübschere Grafik zu sehen zu bekommen!
Ich verweise gerne nochmals auf Crysis! Dafür ist kein Tess und damit eine Stromfresser-Fermi von Nöten! ;)

Tess scheint dem einen oder anderen hier wie Hochprozentiges in den Kopf gestiegen zu sein!

LovesuckZ
2010-05-20, 02:10:56
Würden die Objekte normal ansprechend gestaltet sein, wie in unzähligen Spielen bisher zu beobachten ist, bräuchte man keine "zusätzlichen Kraftwerke" bauen müssen, um etwas hübschere Grafik zu sehen zu bekommen!
Ich verweise gerne nochmals auf Crysis! Dafür ist kein Tess und damit eine Stromfresser-Fermi von Nöten! ;)

Gehen wir ganz weit zurück:
Früher brauchten wir nur zwei Balken, einen Rahmen, eine gestrichelte Linie und ein Viereck und hatten Spaß.

Byteschlumpf
2010-05-20, 02:15:29
Back to the roots! :D
Spaß hatten wir doch zu jeder Zeit - nur hat sich die Qualität der Grafik und des Sounds doch ein wenig verbessert - und damit unsere Ansprüche! :)

Gast
2010-05-20, 04:22:58
Es ist doch offensichtlich, dass Tessellieren (man, was für ein Wort) mit der heutigen Hardware in Form von GF100 im vollen Umfang einsetzbar ist.

Klar, mit einer HD 5870 auch. Die ist mit 2 GB sogar in Metro schneller als eine GTX 470.

Gast
2010-05-20, 04:34:40
Dann erklär uns doch mal was an Fermi so "unterirdisch" sein soll?

In erster Linie der Stromverbrauch. Eine HD 5850 verbraucht was? 150 Watt? Und ist seit 9 Monaten draußen? Und kaum langsamer als eine GTX 470, die 230 Watt verbraucht, um 10 % schneller zu sein? WTF?! Dank Fermi kann AMD die HD 5850, 9 Monate nach Release (und 220 € Launchpreis) immer noch für 280 € absetzen. Danke, nVidia, wirklich großartig.

Mr. Lolman
2010-05-20, 04:47:02
, in Stalker 3015% und in Metro2033 wohl auf dem Niveau der 5870.

Korrektur: Im Stalker Benchmarktool und in Metro2033 mit MSAA.

Fetter Fettsack
2010-05-20, 07:20:24
Zitat von LovesuckZ

Diese Aussage macht kein Sinn. Zwischen der 8800GTX und der GTX280 gab es nur eine 10% Steigerung durch die 9800gtx. Zwischen der GTX280 und der 5870 nur eine 10% Steigerung durch die GTX285.
Jetzt gibt es nichtmal einen kleineren Fertigungsprozeß in zeitlicher Nähe. Woher gedenkst du, soll eine erhebliche Steigerung der Pixelberechnungen erfolgen?


Oh doch, sie macht Sinn, wie ich finde. Denn ich rede davon (vielleicht hab ich es wie so oft wieder einmal falsch rübergebracht^^), dass sich die Hardware EBEN TROTZ dieser "kleinen" Sprünge so lange hielt, liegt meiner Ansicht nach daran, dass die Anforderungen der Spiele im Allgemeinen nicht mehr dermaßen rapide gestiegen sind. Darauf habe ich abgestellt, nicht auf eine Steigerung der Rechenleistung in Sachen Pixel.
Allerdings wird mir gerade klar, was du zu meinen scheinst. Da du in naher Zukunft kein großes Potenzial in Sachen Pixelberechnungsleistungssteigerung zu sehen scheinst, nimmst du an, dass daher auch die Tesselationslast nicht ansteigen wird. Liege ich damit so ungefähr richtig?


Zitat von LovesuckZ

Man sollte wirklich verstehen, dass GF100 ein Chip ist, der für Geometrieerzeugung durch die GPU gebaut wurde.

Das ist mir schon klar und das wollte ich auch nie in Frage stellen, ich habe bis jetzt nur immer die Meinung vertreten, dass ich es für wahrscheinlich halte, dass ein GF100 veraltet sein wird, wenn die breite Masse an Spielen dies dann auch nutzen wird (und dann vermutlich nicht zu wenig leistungsfressend, wenn man sich die Qualität in sachen effizienter Ressourcennutzung bei Spielen ansieht). Sicher ist er dafür gebaut, aber meiner Einschätzung nach (für die ich aber keinen absoluten Richtigkeitsanspruch erhebe) ist er seiner Zeit voraus. Jetzt kann man nicht wirklich etwas damit anfangen (der Tesselationsleistung, da in dem momentanen Spielen nicht wirklich allzu bombig umgesetzt wurde imo) und später auch wieder nicht.

Hoffe, dass das halbwegs verständlich war, was ich rüberbringen wollte.

V2.0
2010-05-20, 08:21:00
Warten wir doch erste Tests ab. Im Endeffekt kann das Ding irgendwo ziwschen absolut grausam und ganz ok werden.

Gast
2010-05-20, 08:21:30
http://www.gamestar.de/hardware/news/grafikkarten/2314867/nvidia_geforce_gtx_460.html

Die Karte soll ca. 300€ Kosten und somit teurer als ein HD 5850 sein.

Gast
2010-05-20, 08:23:39
http://www.gamestar.de/hardware/news/grafikkarten/2314867/nvidia_geforce_gtx_460.html

Die Karte soll ca. 300€ Kosten und somit teurer als ein HD 5850 sein.

Bezweifle ich. 320 € kostet ja schon die GTX 470.

Gast
2010-05-20, 08:25:04
Bezweifle ich. 320 € kostet ja schon die GTX 470.

lol, ich nehme es zurück. Die ist ja sogar schon für 311 € lieferbar. :ulol:

Gast
2010-05-20, 08:38:52
lol, ich nehme es zurück. Die ist ja sogar schon für 311 € lieferbar. :ulol:

Da siehst du wie schlecht das P/L-Verhältnis dieser Karte ist.

PulsarS
2010-05-20, 10:21:00
Wenn die Karte mit den angegebenen Daten so kommt, dann ist sie einfach nur Schrott, genauso wie die 5830 von AMD/ATI. :D

Iruwen
2010-05-20, 14:44:20
http://www.gamestar.de/hardware/news/grafikkarten/2314867/nvidia_geforce_gtx_460.html

Die Karte soll ca. 300€ Kosten und somit teurer als ein HD 5850 sein.

Die GTX 480 sollte bei den ersten Händlerlistings auch mal 550€ kosten, jetzt ist sie bei 420€.

derguru
2010-05-20, 14:57:14
genauso wenig eine 480gtx mit 420euro gelistet ist,beides mumpitz.

boxleitnerb
2010-05-20, 15:07:07
http://www.zack-zack.eu/html/detail/zackzack.html?itemId=4252
419 Euro ;)

derguru
2010-05-20, 15:10:31
du sagst es,es gab eine und das wird gleich verallgemeinert mit
händlerlisten,schöne werbung für alternate;)

boxleitnerb
2010-05-20, 15:11:06
Shit, ausverkauft. Naja, bis 420 ist es nicht mehr weit. Woher weißt du, dass es nur eine gab?

derguru
2010-05-20, 15:12:34
woher weiß du das es 2 oder mehr gab?

boxleitnerb
2010-05-20, 15:13:31
Weiß ich nicht - ebensowenig wie du weißt, dass es bloß eine war ;)
Jedenfalls finde ich es schon erstaunlich, wie günstig Nvidias Highend ist. Erfreulich für den Kunden.

derguru
2010-05-20, 15:15:19
ich find es nicht erstaunlich,komisch.:rolleyes:
aber egal ot ausartung.

LovesuckZ
2010-05-20, 15:28:35
Korrektur: Im Stalker Benchmarktool und in Metro2033 mit MSAA.

Nö.

PingpiN
2010-05-20, 16:27:06
Für leute die nur 200 euro zu verfügung haben bestimmt nicht schlecht.Man sollte aber eher gleich ne 5850 kaufen und die dann irgend wann prügeln wenns knapp wird.:eek:

Spasstiger
2010-05-20, 16:30:35
Ich finds schade, dass das Radeon-HD-5850-Leistungsniveau nicht so bald unter 250€ fallen wird. Die GTX 265 ist nun wirklich keine Veranlassung für AMD, zu handeln. Lediglich der Druck auf die "Schweinekarte" HD 5830 erhöht sich etwas, sofern NV die GTX 265 preislich unterhalb der HD 5850 platziert. Aber wer will schon die HD 5830 kaufen? ;)

Mr. Lolman
2010-05-20, 18:58:23
Nö.

Warts ab...

LovesuckZ
2010-05-20, 19:14:36
Warts ab...

Na, ich will sehen, dass AMD in Stalker im Spiel mit Tessellation schneller ist als nVidia. Immerhin hat Computerbase.de da schon Ergebnisse veröffentlicht:
http://www.computerbase.de/artikel/grafikkarten/2010/bericht_nvidia_geforce_gtx_400/9/#abschnitt_stalker__call_of_prypiat

Und da soll sich die Moderation noch beschweren, dass man hier Parteilichkeit vorwirft. :rolleyes:

Spasstiger
2010-05-20, 19:17:53
Na, ich will sehen, dass AMD in Stalker im Spiel mit Tessellation schneller ist als nVidia. Immerhin hat Computerbase.de da schon Ergebnisse veröffentlicht:
http://www.computerbase.de/artikel/grafikkarten/2010/bericht_nvidia_geforce_gtx_400/9/#abschnitt_stalker__call_of_prypiat
Ist es wirklich glaubwürdig, dass die GTX 480 mit Tessellation in Stalker genau null komma gar nicht einbricht? Das Ergebniss bei 4xAA ist jeweils 45,7 fps.
/EDIT: Ok, im Verlaufsdiagramm ist die GTX 480 mit Tessellation hier und da mal um 1 fps langsamer als ohne (33 fps min. statt 34 fps min). Auf die avg. fps wirken sich die geringen Unterschiede aber nicht aus.

LovesuckZ
2010-05-20, 19:19:25
Ist es wirklich glaubwürdig, dass die GTX 480 mit Tessellation in Stalker genau null komma gar nicht einbricht? Das Ergebniss bei 4xAA ist jeweils 45,7 fps.

Nein, ist eher unwahrscheinlich. Aber darum ging es mir nicht.
Computerbase.de hat einen Vorsprung in den 15 Sekunden von 72% ermittelt, wo Tessellation ohne AA stark genutzt wird.
Darauf beruht meine Aussage.

y33H@
2010-05-20, 19:42:33
Offenbar limitiert etwas anderes, HWT ist ergo 4 free.

Mr. Lolman
2010-05-20, 19:43:45
In dem Innenraum/Stalkerlager ist die GTX480 auch ein bisschen flotter als die HD5870 - ich hab nämlich zufälligerweise den gleichen Raum wie CB als Ausgangspunkt für meine Benchmarks verwendet. Allerdings hab ich mich nicht wie CB auf 25 Sekunden im Innenraum beschränkt, sondern bin auch raus ins Freie gelaufen und war insgesamt 80 Sekunden unterwegs. Außerdem hab ich über die Konsole Transparenz Antialiasing aktiviert gehabt. Die paar fps* die die GTX480 indoor flotter ist, hat sie Outdoor sofort wieder verloren.

*natürlich stellt sich die Frage, wie die 'paar' Mehrfps zustandekommen. Im Falle von CB legte man den Benchmark wohl als Tessellationstest aus und schaute, dass man immer möglichst viele Leute möglichst groß im Bild hat => dann ist durchaus der Vorsprung den CB erbencht hat, natürlich auch drinnen...

Offenbar limitiert etwas anderes, HWT ist ergo 4 free.

Bei den GTXen limitiert hier ziemlich sicher die Texelfillrate.


/EDIT: Ok, im Verlaufsdiagramm ist die GTX 480 mit Tessellation hier und da mal um 1 fps langsamer als ohne (33 fps min. statt 34 fps min). Auf die avg. fps wirken sich die geringen Unterschiede aber nicht aus.

Das Problem bei den Verlaufsdiagrammen ist, dass sie genau auf 25 Meßpunkte aufbauen, den allen jew. ganzzahlige fps-Werte zugrunde liegen. Dementsprechend können auch bald mal wo 33 fps stehen, wo im gleichen run vorher 34 fps standen...

corvus
2010-05-20, 20:02:21
und immer an 16 AF denken....zb. auch Dirt2..(ATI) das hast du auch erst wenn du es über den Treiber einstellst<>Haken raus :-) sonst kannste die Hälfte deine Benchmaratons eh vergessen....

Userxy
2010-05-20, 20:10:19
Haben die GTX nicht einen Bug bei der Verwendung von Transparenz Antialiasing in DX 10 bzw. DX 11? Oder wirkt der sich nicht bei Stalker aus?

Mr. Lolman
2010-05-20, 20:11:40
und immer an 16 AF denken....zb. auch Dirt2..(ATI) das hast du auch erst wenn du es über den Treiber einstellst<>Haken raus :-) sonst kannste die Hälfte deine Benchmaratons eh vergessen....

Ich hab AF prinzipiell immer Ingame aktiviert gehabt (und das klappt auch einwandfrei, wie man dann auf den Screenshots sehen wird) - und zwar aus dem Grund, dass beim Treiber-AF noch viel stärker optimiert werden kann, als beim Ingame-AF => da brauchts nur ein passendes Spieleprofil und schon werden ein paar TS auf denen zB LUTs abgelegt sind nicht mehr gefiltert - ohne dass man direkt einen optischen Unterschied merken würde. Außerdem müsste ich mir sonst von gewissen Leuten dann wieder vorhalten lassen, dass ich nicht mit default-Treibersettings gebencht hab - und das wollt ich mir auf keinen Fall nachsagen lassen (ich hab zB auch nicht LOD-Clamp, oder Prerenderlimit umgestellt, wobei gerade letzteres auf 0 mir bei ein paar low-fps Benchmarks enorm helfen hätte können).

Haben die GTX nicht einen Bug bei der Verwendung von Transparenz Antialiasing in DX 10 bzw. DX 11? Oder wirkt der sich nicht bei Stalker aus?

Du meinst, dass SGSSAA verwendet wird? Nein keine Sorge, dss ist TRAA auf A2C-Basis, der Bug kommt also nicht zum Tragen.

Blaire
2010-05-20, 20:19:07
Ich hab AF prinzipiell immer Ingame aktiviert gehabt (und das klappt auch einwandfrei, wie man dann auf den Screenshots sehen wird) - und zwar aus dem Grund, dass beim Treiber-AF noch viel stärker optimiert werden kann, als beim CP AF => da brauchts nur ein passendes Spieleprofil und schon werden ein paar TS auf denen zB LUTs abgelegt sind nicht mehr gefiltert - ohne dass man direkt einen optischen Unterschied merken würde. Außerdem müsste ich mir sonst von gewissen Leuten dann wieder vorhalten lassen, dass ich nicht mit default-Treibersettings gebencht hab - und das wollt ich mir auf keinen Fall nachsagen lassen (ich hab zB auch nicht LOD-Clamp, oder Prerenderlimit umgestellt, wobei gerade letzteres auf 0 mir bei ein paar low-fps Benchmarks enorm helfen hätte können).

Bei AVP3 ist Ingame AF schlechter, ich nutze grundsätzlich TreiberAF da es in den meisten Fällen besser ist. Bei Ati mag das anders sein keine Ahnung...

Mr. Lolman
2010-05-20, 20:24:03
Bei AVP3 ist Ingame AF schlechter, ich nutze grundsätzlich TreiberAF da es in den meisten Fällen besser ist. Bei Ati mag das anders sein keine Ahnung...

Das liegt eben daran, dass manche ISVs der Meinung sind, dass gewisse TS kein AF brauchen, obwohl es bei denen doch einen optischen Zugewinn geben würde. (ist mir auch schon vor Ewigkeiten bei Stalker:SOC aufgefallen und zuletzt erst wieder bei Assassins Creed 2 - aber das hab ich eh nicht gebencht). Trotzdem hab ich der Einheitlichkeit und der Transparenz der Settings zuliebe auf CP-AF verzichtet und mich darauf beschränkt es Ingame aufs Maximum zu stellen. Spiele die garkein AF verwendet, gibts ohnehin kaum - und es wurde eben auch u.a. deswegen so entschieden, dass es nachher nicht wieder heißt, warum ich im Treiber nicht dieso und jene Settings auch umgestellt hab -> alled klar?

corvus
2010-05-20, 20:24:07
[QUOTE=Mr. Lolman;8038078]Ich hab AF prinzipiell immer Ingame aktiviert gehabt (und das klappt auch einwandfrei, wie man dann auf den Screenshots sehen wird) - und zwar aus dem Grund, dass beim Treiber-AF noch viel stärker optimiert werden kann, als beim CP AF => da brauchts nur ein passendes Spieleprofil und schon werden ein paar TS auf denen zB LUTs abgelegt sind nicht mehr gefiltert - ohne dass man direkt einen optischen Unterschied merken würde. Außerdem müsste ich mir sonst von gewissen Leuten dann wieder vorhalten lassen, dass ich nicht mit default-Treibersettings gebencht hab - und das wollt ich mir auf keinen Fall nachsagen lassen (ich hab zB auch nicht LOD-Clamp, oder Prerenderlimit umgestellt, wobei gerade letzteres auf 0 mir bei ein paar low-fps Benchmarks enorm helfen hätte können).



zb. in Dirt2 stellst du alles auf max (BenchFred) und bist der Ansicht das dies 16AF ist..auch siehst du das so....<>dann siehts du eigendlich nix :-) 16AF hast du dort erst über den Treiber und dann sieht man auch den Unterschied....
Und so Dinge gibt es bei ATI zu hauf.....
Auch will ich dir bei Leibe nix "unterstellen" aber solch Einstellungen und ATI...die Hälfte aller Bench Ergebnisse Weltweit kann man vergessen....Bescheißen ist "IN", wenn ich zb. mit der 480er loslege.... ich weiß wie die Leutchen (Einstellungen zb. Quarkmark) benchen...deswegen geb ich auf Benches (außer sie finden auf meinem Rechner statt) EGAL VON WEM schon lange nichts mehr.

PulsarS
2010-05-20, 20:29:56
Bei AVP3 ist Ingame AF schlechter, ich nutze grundsätzlich TreiberAF da es in den meisten Fällen besser ist. Bei Ati mag das anders sein keine Ahnung...
Ist richtig.
Bei ATI würde ich auch eher InGame-AF nehmen, wenn möglich.
Bei Nvidia eher das Treiber-AF.
Bei Nvidia stellt sich die Frage aber eigentlich nicht, da man durch eigene Eintellungen im Treiber die BQ steigern kann (Clamp usw.) und auch sollte, da der Performanceimpact doch recht überschaubar ist.
Wobei ich auch mit dem ATI-AF noch klarkomme.
Den Unterschied merkt man in recht wenigen Spielen und es fällt auch beim Spielen nicht so extrem auf, dass einem auf einmal das Spiel weniger Spass machen würde. :)

Mr. Lolman
2010-05-20, 20:31:15
Ich hab AF prinzipiell immer Ingame aktiviert gehabt (und das klappt auch einwandfrei, wie man dann auf den Screenshots sehen wird) - und zwar aus dem Grund, dass beim Treiber-AF noch viel stärker optimiert werden kann, als beim CP AF => da brauchts nur ein passendes Spieleprofil und schon werden ein paar TS auf denen zB LUTs abgelegt sind nicht mehr gefiltert - ohne dass man direkt einen optischen Unterschied merken würde. Außerdem müsste ich mir sonst von gewissen Leuten dann wieder vorhalten lassen, dass ich nicht mit default-Treibersettings gebencht hab - und das wollt ich mir auf keinen Fall nachsagen lassen (ich hab zB auch nicht LOD-Clamp, oder Prerenderlimit umgestellt, wobei gerade letzteres auf 0 mir bei ein paar low-fps Benchmarks enorm helfen hätte können).

zb. in Dirt2 stellst du alles auf max (BenchFred) und bist der Ansicht das dies 16AF ist..auch siehst du das so....<>dann siehts du eigendlich nix :-) 16AF hast du dort erst über den Treiber und dann sieht man auch den Unterschied....
Und so Dinge gibt es bei ATI zu hauf.....
Auch will ich dir bei Leibe nix "unterstellen" aber solch Einstellungen und ATI...die Hälfte aller Bench Ergebnisse Weltweit kann man vergessen....Bescheißen ist "IN", wenn ich zb. mit der 480er loslege.... ich weiß wie die Leutchen (Einstellungen zb. Quarkmark) benchen...deswegen geb ich auf Benches (außer sie finden auf meinem Rechner statt) EGAL VON WEM schon lange nichts mehr.




Aber geh. Nutzt du überhaupt die aktuellste Dirt2 Version? Außerdem hab ich fürn Zweifelsfall extra jew. von ATi und von NV jew. einen Ingamescreenshot angefertigt, wo dann auch jeder pixelweise Vergleiche anstellen darf. Wenn dir was auffällt, darfst ja dann gerne schreien. Aber bis dahin, halt mal besser die Füße still (eben weil das Cheatpotential über CP Settings deutlich höher ist) ;)

EDIT: Und unterstell mir nicht, dass ich nix seh. Es ist 16xAF aktiv - glaubs mir. Vielleicht nicht über alle Texturstages, aber es ist so aktiv, wie es der Spielehersteller vorgesehen hat. Wenns jetzt übers CP besser geht, dann soll das so sein - sag ich ja nix dagegen - aber zugunsten der Vergleichbarkeit hab ich mich eben - zum x-ten Mal sag ich das jetzt - auf die Ingamesettings beschränkt. Ich schalt ja auch nicht auf den NV-Karten pauschal SGSSAA und HQ-AF ein, nur weil die Grafik damit besser ist. :|

Ist richtig.
Bei ATI würde ich auch eher InGame-AF nehmen, wenn möglich.

Na was jetzt? Corvus meinte ja, dass man bei Ati eher Treiber-AF nehmen soll :biggrin:

corvus
2010-05-20, 20:35:23
1. schreie ich nicht... und
2. haste mit einer ATI 16 AF erst über den Treiber ENDE UND AUS.
und
3........ kannste machen was du willst.... und immer daran denken ich hatte ein halbes Jahr eine 5870.

Mr. Lolman
2010-05-20, 20:38:20
1. schreie ich nicht... und
2. haste mit einer ATI 16 AF erst über den Treiber ENDE UND AUS.
und
3........ kannste machen was du willst.... und immer daran denken ich hatte ein halbes Jahr eine 5870.

Weißt du wie AF funktioniert und was Texturstages sind?

corvus
2010-05-20, 20:42:10
:lol:
was willste mir erklären wie AF "geht" oder wie man es mir einer HD5 zb. in Dirt2 bekommt?

Vergiß es.... ich freu mich auf deinen Bench....und ich hab noch Bilder mit und ohne 16AF mit ner 5870.

Deine Antwort oder Frage verleidet mir allerdings jetzt schon den Bench :D

PulsarS
2010-05-20, 20:43:46
2. haste mit einer ATI 16 AF erst über den Treiber ENDE UND AUS.
und
Das ist Quatsch.
Es sei denn das Spiel spricht das AF nicht korrekt an, und das wage ich mal zu bezweifeln.
Das passiert höchstens, wenn man sich nicht an der DX-Standard hält.
Wenn man sich an den DX-Standard hält, dann kann es gar nicht anders als korrekt sein.
Und man spart sich mögliche Treibercheats, wie Mr. Lolman ja schon angemerkt hat.
Ist schon richtig, wie er das macht, wenn er bei Treiberdefault bleibt.
Bei Treiberdefault ist die BQ ja noch am meisten vergleichbar, deswegen ist diese Eintellung vorzuziehen.

corvus
2010-05-20, 20:45:45
was für Treibercheats?
Seid wann hat Dirt2 inGame einen AF Schalter?

PulsarS
2010-05-20, 20:58:30
was für Treibercheats?
Wenn man das AF über den Treiber forciert (bei ATI), hast du mehr Optimierungspotenzial als InGame, da du ja die Treibereinstellungen komplett umgehtst, wenn man es auf Anwendungsgesteuert läßt.

Blaire
2010-05-20, 21:00:49
Es ist 16xAF aktiv - glaubs mir. Vielleicht nicht über alle Texturstages, aber es ist so aktiv, wie es der Spielehersteller vorgesehen hat. [/I]


Trotzdem ist Treiber 16xAF auch in Dirt2 deutlich besser, kostet entsprechend auch mehr Leistung. Einserseits verständlich vergleichbar zu benchen, dann verstehe ich allerdings nicht warum du dann TRAA noch extra über Konsole aktivierst?

Mr. Lolman
2010-05-20, 21:05:13
Trotzdem ist Treiber 16xAF auch in Dirt2 deutlich besser, kostet entsprechend auch mehr Leistung. Einserseits verständlich vergleichbar zu benchen, dann verstehe ich allerdings nicht warum du dann TRAA noch extra über Konsole aktivierst?

1. Weils geht.
2. Weils die Grafik enorm verbessert.
3. Weil die Settings dadurch trotzdem vergleichbar sind

Ich hab auch bei GTAIV + ENB 0.79Sora an den Ingamedetails herumgeschraubt gehabt, sodass eh guter Mix zw. BQ und fps entsteht ohne dass die Grafik in unspielbare fps abdriftet. Aber keine Sorge, die Ingamesettings werden im Review natürlich nachvollziehbar dokumentiert sein.

Gast
2010-05-20, 21:05:51
Wenn man das AF über den Treiber forciert (bei ATI), hast du mehr Optimierungspotenzial als InGame, da du ja die Treibereinstellungen komplett umgehtst, wenn man es auf Anwendungsgesteuert läßt.

kannst Du lesen?

PulsarS
2010-05-20, 21:13:59
kannst Du lesen?
Ja und?
Dann ist Dirt2 aber eine Ausnahme.
Habe das Spiel (noch) nicht, aber normal ist das nicht, dass ein Spiel das AF nicht korrekt anspricht, da die "Engine" sicherlich besser weiß (oder wissen sollte) als der Treiber, wie man das AF einsetzen soll.
Wenn du überhaupt verstehst, was ich damit meine...

LovesuckZ
2010-05-20, 21:18:55
1. Weils geht.
2. Weils die Grafik enorm verbessert.
3. Weil die Settings dadurch trotzdem vergleichbar sind

Ich hab auch bei GTAIV + ENB 0.79Sora an den Ingamedetails herumgeschraubt gehabt, sodass eh guter Mix zw. BQ und fps entsteht ohne dass die Grafik in unspielbare fps abdriftet. Aber keine Sorge, die Ingamesettings werden im Review natürlich nachvollziehbar dokumentiert sein.

Lass mich raten: Selbst in diesem "GTA4" ist die GTX480 nicht so viel schneller wie es in anderen Test gezeigt wurde?!

PulsarS
2010-05-20, 21:32:31
Und 2. mußt du mir nicht mit irgendeinem Quark kommen! Es gibt zig Spiele die kein inGame AF haben....Dragon age ... Mass2 ? Eins von Beiden..?

Hast du eigentlich gelesen, was ich geschrieben habe?
"Bei ATI würde ich auch eher InGame-AF nehmen, wenn möglich."
Die Betonung liegt auf "wenn möglich" ;)
Ist klar, dass wenn ein Spiel kein AF unterstützt, man es im Treiber einstellen sollte.
Welch eine Erkenntnis... :rolleyes:
Zum Rest von dir schreibe ich lieber nichts...:freak:

corvus
2010-05-20, 21:36:27
oha...
Danke für deine Erkenntniß...
"Ist klar, dass wenn ein Spiel kein AF unterstützt, man es im Treiber einstellen sollte".......

Außer in einigen Tests oder Benches...den auf High hat man ja 16AF......

zum totlachen....

PulsarS
2010-05-20, 21:38:15
@corvus

Was genau von dem, was ich geschrieben habe, hast du nicht verstanden?

LovesuckZ
2010-05-24, 23:35:39
Xbitlabs hat ein Preview der GTX465 online gestellt: http://www.xbitlabs.com/articles/video/display/geforce-gtx-465_3.html#sect1

Fazit: Auf dem Niveau der GTX275, mit Ausflügen nach (deutlich) oben.

Fetter Fettsack
2010-05-24, 23:54:22
Sieht ja recht gut aus. Allerdings würden mich die Verbrauchswerte auch recht interessieren, denn von Phyrussiegen hat man nicht immer was.

LovesuckZ
2010-05-25, 00:01:10
Stromverbrauch wird wie die Leistung auf GTX275/GTX285 Niveau sein.

Gast
2010-05-25, 07:18:23
Fazit: Auf dem Niveau der GTX275, mit Ausflügen nach (deutlich) oben.

Ich sehe keine Ausflüge nach oben. Einzig Battleforg und das auch nur wegen dem deutliche schnelleren DX11-Mode. Die 5850 ist schneller und Stromsparender, einen Preis wird man damit nicht gewinnen.

Gast
2010-05-25, 08:56:36
Stromverbrauch wird wie die Leistung auf GTX275/GTX285 Niveau sein.

Optimist

V2.0
2010-05-25, 08:58:11
Deutlich unter 5850 und kaum 10% billiger aber in einigenen Tests mehr als 20% langsamer. Grausame Karte.

dllfreak2001
2010-05-25, 10:05:01
Tja das war wohl nix!

Eine 5850 bleibt bei dem Preis immer noch die bessere Wahl.

Bioshock
2010-05-25, 10:55:09
Man könnte aber evtl. da ein 470er bios drauf machen und viel Spaß haben :D
Und das dann zu dem preis schauen wir mal.

mfg

Gast
2010-05-25, 11:00:10
Stromverbrauch wird wie die Leistung auf GTX275/GTX285 Niveau sein.
Das ist dann aber wegen der neuen Fertigung (40nm) sehr schlecht.
ATI zeigt es, was man mit 40nm erreichen kann.
Deutlich schneller als die Vorgänger und dabei noch weniger Energieverschwendung. :up:

Gast
2010-05-25, 11:02:30
Dass die 3 deaktivierten SMs und dann noch die ROP-Partition funktionieren, ist imo nicht so wahrscheinlich.
Und die Hersteller werden wohl auch recht schnell auf PCBs mit nur 1024MB verbauten Speicher setzen.

An sich ist die Karte durchaus eine brauchbare Ergänzung des Portfolios, nur ist die preisliche Einordnung und auch der Name GTX 465 mit 60-70% der Leistung einer 480 daneben.
GTX 460 und ein Kampf-MSRP von $199 wären eher passend. Wenn Nvidia einen vernünftigen Preis für die GF100-Dies mit TSMC verhandelt hat, sollte eine solche stark beschnittene SKU mit entsprechendem Yield dafür wirtschaftlich verkaufbar sein.

Gast
2010-05-25, 11:28:20
Die GTX 465 ist in jedem Fall schneller als meine "olle" GTX 260 und hat alle aktuellen Features die ich haben will und ist nicht so teuer wie ne GTX 470, wenn sie erst einmal breit verfügbar ist. Der Markt richtets schon.

Und wer weiß, vielleicht lässt sich ja doch was Freischalten per Bios...

Was mich eher erstaunt hat, ist die Tatsache, dass bei den Tests die 470GTX vs 480 so abkackt, wo sie doch im Vergleich dazu recht wenig beschnitten ist.

Spasstiger
2010-05-25, 12:12:42
Was mich eher erstaunt hat, ist die Tatsache, dass bei den Tests die 470GTX vs 480 so abkackt, wo sie doch im Vergleich dazu recht wenig beschnitten ist.
Die GTX 470 hat 75-80% der Rohleistung einer GTX 480 und die GTX 465 hat 75-80% der Rohleistung einer GTX 470. Die Taktraten darf man nich außer Acht lassen.

Gast
2010-05-25, 12:24:31
Ja, die Taktraten hatte ich wohl ausser Acht gelassen. Ich denke immer nur an die Cuda Cores. Das wären ja 352 vs. 448 vs. 480, was 73% vs. 93% vs. 100% entspricht. Da GTX 465 in dieser Hinsicht wirklich stark beschnitten ist, ist mir auch der Performanceverlust bei der GTX 465 klar, aber die 470GTX hat ja 93% der bisherigen vollen Ausbaustufe und knickt aber eben gleich um 20 - 30% ein. Taktraten eben.

Danke für den Hinweis.

Dr. Cox
2010-05-25, 15:59:44
Sollte die GTX 465 auf dem Niveau einer HD 5850 liegen und dabei so viel kosten wie eine HD 5830, dann wäre sie vom P/L-Verhältnis deutlich besser als die HD 5850, welche es nicht unter 300€ lieferbar gibt. Sollte die GTX 465 dann noch deutlich leiser als eine GTX 470 sein, dann werde ich sie mir holen. Die Abzocke die ATI derzeit betreibt, möchte ich nicht noch mit meinem Urlaubsgeld unterstützen!

Spasstiger
2010-05-25, 16:02:45
Sollte die GTX 465 auf dem Niveau einer HD 5850 liegen und dabei so viel kosten wie eine HD 5830
Es ist eher umgekehrt, die GTX 465 liegt performancetechnisch auf dem Niveau der HD 5830, kostet aber fast soviel wie die HD 5850. Bei 279 US-$ liegt die MSRP der GTX 465, das macht nach aktuellem Wechselkurs inklusive Steuer in Deutschland 271€. Die HD 5850 hat afaik eine MSRP von 299 US-$, evtl. wurde sie auch auf 279 US-$ gesenkt. Die HD 5830 hat eine MSRP von 239 US-$.
ATI zockt nicht ab, das Preisniveau bei Grafikkarte ist einfach nur seit rund einem Jahr stabil. Vor einem Jahr gabs die GTX 260 für 130-170€, heute gibt es dafür die gleichschnelle HD 5770. Nvidia offeriert in diesem Preissegment nichts mehr, man bekommt aber für 100-110€ eine GTS 250 mit 1024 MiB, die in etwa mit der gleichteuren Radeon HD 5750 1024 MiB vergleichbar ist. Der Euro ist gegenüber dem Dollar auch schwächer geworden.

Dr. Cox
2010-05-25, 16:05:20
Es ist eher umgekehrt, die GTX 465 liegt performancetechnisch auf dem Niveau der HD 5830, kostet aber fast soviel wie die HD 5850.

Dafür müsste die GTX 465 aber bei knapp 300€ liegen. Allerdings soll die GTX 465 einen Einführungspreis von deutlich unter 300€ haben. Ich meine sogar gelesen zu haben, dass sie für 240-250€ geplant sei.
Beim derzeitigen Preisverfall (nur bei Nvidia-Karten) läge die Karte dann vielleicht in ein paar Wochen bei ca 200€ ;)



ATI zockt nicht ab, das Preisniveau bei Grafikkarte ist einfach nur seit rund einem Jahr stabil. Vor einem Jahr gabs die GTX 260 für 130-170€, heute gibt es dafür die gleichschnelle HD 5770. Der Euro ist gegenüber dem Dollar auch schwächer geworden.

Die Preise der HD 5870/5850 sind sogar in diesem einem Jahr angestiegen und das obwohl die Karten inzwischen weitaus besser lieferbar sind. da ich die Einkaufspreise der Cypress-Karten kenne, kann ich dir sagen, dass die hohen Preise nicht an den Händlern liegen!

PS: Die HD 5770 ist etwas langsamer als eine GTX 260 ;)

Gast
2010-05-25, 16:11:03
Dafür müsste die GTX 465 aber bei knapp 300€ liegen. Allerdings soll die GTX 465 einen Einführungspreis von deutlich unter 300€ haben. Ich meine sogar gelesen zu haben, dass sie für 240-250€
Eine 5850 gibt es ab 270€: http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=5850&v=k&plz=&dist=&pixonoff=on&xf=
Also vergleichbar zu dem was aktuell $279 umgerechnet in Euro sind.

Spasstiger
2010-05-25, 16:11:42
PS: Die HD 5770 ist etwas langsamer als eine GTX 260 ;)
Eigentlich nicht. In einigen Fällen ist die HD 5770 sogar ein Stück schneller, z.B. wenn DX11 zur Performancesteigerung genutzt wird oder bei 8xMSAA. Schau mal hier ins Rating: http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_470/18/#abschnitt_performancerating_qualitaet.
Die Preise der HD 5870/5850 sind sogar in diesem einem Jahr angestiegen und das obwohl die Karten inzwischen weitaus besser lieferbar sind. da ich die Einkaufspreise der Cypress-Karten kenne, kann ich dir sagen, dass die hohen Preise nicht an den Händlern liegen!
Der Dollar ist gegenüber dem Euro stärker geworden. ATI hat die MSRP der HD 5870 seit Release nicht angehoben. Es waren von Anfang an 379 US-$.
Ich meine sogar gelesen zu haben, dass sie für 240-250€ geplant sei.
Die MSRP beträgt 279 US-$ für die GTX 465. Das kann man in den (P)Reviews nachlesen.

Gast
2010-05-25, 16:16:00
ATI hat die MSRP der HD 5870 seit Release nicht angehoben.
ATi vielleicht nicht, aber die Hersteller haben es durchaus. ATis Vorstellung im September waren mal $379 für die 5870 aus denen dann $399 und mehr wurden.
Mittlerweile ist man mit Angeboten wieder auf dem Stand von damals: http://www.newegg.com/Product/ProductList.aspx?Submit=ENE&N=40000048&Description=HD%205870&bop=And&Order=PRICE&PageSize=20

Dr. Cox
2010-05-25, 16:17:17
Eigentlich nicht. In einigen Fällen ist die HD 5770 sogar ein Stück schneller, z.B. wenn DX11 zur Performancesteigerung genutzt wird oder bei 8xMSAA.

Laut PCGH ist die GTX 260 im Durchschnitt schneller. In einigen Spielen hat die HD 5770 sogar einen Rückstand von bis zu 20% zur GTX 260. Die GTX 260 ist derzeit einfach schneller, wie das in der Zukunft aussehen wird, das werden wir noch sehen...


Der Dollar ist gegenüber dem Euro stärker geworden. ATI hat die MSRP der HD 5870 seit Release nicht angehoben.

Und Nvidia hat sogar die Preise der GTX 4X0-Karten reduziert, während ATI die Preise gleich gelassen, oder sogar angehoben hat, sobald die Karten wieder verfügbar waren.

Spasstiger
2010-05-25, 16:17:46
ATi vielleicht nicht, aber die Hersteller haben es durchaus.
Dann ist es aber unfair, von einer Abzocke seitens ATI zu sprechen.
Laut PCGH ist die GTX 260 im Durchschnitt schneller. In einigen Spielen hat die HD 5770 sogar einen Rückstand von bis zu 20% zur GTX 260. Die GTX 260 ist derzeit einfach schneller, wie das in der Zukunft aussehen wird, das werden wir noch sehen...
Je neuer die Reviews, desto mehr ist die HD 5770 im Vorteil.
Und Nvidia hat sogar die Preise der GTX 4X0-Karten reduziert, während ATI die Preise gleich gelassen, oder sogar angehoben hat, sobald die Karten wieder verfügbar waren.
Das stimmt doch alles gar nicht. NV hat die MSRP der GTX-4xx-Karten nie gesenkt und ATI hat die MSRP der HD5800-Karten nie angehoben.

/EDIT: Die MSRP der HD 5870 wurde sogar gesenkt, denn direkt zum Release betrug sie 399 US-$ (http://www.xbitlabs.com/articles/video/display/radeon-hd5870_2.html#sect0). Kurze Zeit später dann 379 US-$, dieser Preis hat sich bis heute gehalten.

Dr. Cox
2010-05-25, 16:27:39
Dann ist es aber unfair, von einer Abzocke seitens ATI zu sprechen.

ATI hat die Möglichkeit genauso wie Nvidia bei der Preisgestaltung mit einzugreifen. Und mir als Händler/Enduser ist es letzten Endes egal weshalb die Karten zu teuer sind. Sie sind derzeit einfach zu teuer!


Je neuer die Reviews, desto mehr ist die HD 5770 im Vorteil.

Habe das bis jetzt noch nicht beobachten können. Hast du Beweise für deine Behauptung?


Das stimmt doch alles gar nicht. NV hat die MSRP der GTX-4xx-Karten nie gesenkt und ATI hat die MSRP der HD5800-Karten nie angehoben.

Der Einführunspreis seitens Nvidia lag auf jeden Fall einmal höher:

Die offizielle Preisempfehlung für die GeForce GTX 480 in Europa beläuft sich auf 479 Euro, womit die Kalifornier sicherlich nicht unabsichtlich knapp unter der magischen 500-Euro-Grenze liegen. Die GeForce GTX 470 soll etwa 349 Euro kosten und ist somit 130 Euro günstiger.

http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/28/#abschnitt_preisleistungverhaeltnis


Eine GTX 480 bekommt man derzeit für 463,90€: http://www.pcgameshardware.de/preisvergleich/a519522.html

Eine GTX 470 bekommt man derzeit für 315,99€: http://www.pcgameshardware.de/preisvergleich/a523681.html

Gast
2010-05-25, 16:30:58
Dann ist es aber unfair, von einer Abzocke seitens ATI zu sprechen.

Wobei man die 5830 mit <=$239 passend zu den gestiegenen Herstellerpreisen eingeführt hat. ;)

Spasstiger
2010-05-25, 16:35:29
Die MSRP der GTX 480 betrug von Anfang an 499 US-$ und dieser Preis gilt bis heute. Nur weil der Handel bzw. die Hersteller diesen Preis nicht immer 1:1 umsetzen, heißt das nicht, dass irgendwas an der MSRP geschraubt wurde.

Wegen HD 5770 gegen GTX 260, schau dir einfach mal den Link zu CB an, den ich gepostet habe. Die GTX 260 gewinnt lediglich in 3DMark Vantage (mit 5% Vorsprung), in Batman (wegen PhysX), in Red Faction und in World in Conflict. Die anderen 8 Spiele gehen zu Gunsten der HD 5770 aus. Im Fall von Stalker CoP sogar mit einem Vorsprung von bis zu 43%.

LovesuckZ
2010-05-25, 16:41:25
Im CB.de Test ist die GTX260 im Gesamtrating (1920x1200 mit 4A/16AF) 2% schneller. Dabei profitiert die 5770 von DX11 in Battleforge und Stalker. Das heißt also, dass die GTX260 mindesten immer ebenbürtig bis (deutlich) schneller ist, wenn man <DX11 miteinander vergleicht.

Gast
2010-05-25, 16:44:07
Wegen HD 5770 gegen GTX 260, schau dir einfach mal den Link zu CB an, den ich gepostet habe. Die GTX 260 gewinnt lediglich in 3DMark Vantage (mit 5% Vorsprung), in Batman (wegen PhysX), in Red Faction und in World in Conflict. Die anderen 8 Spiele gehen zu Gunsten der HD 5770 aus. Im Fall von Stalker CoP sogar mit einem Vorsprung von bis zu 43%.
In Anno gewinnt keiner oder 260.
In Crysis gewinnt keiner.
In Colin gewinnt die 260.
....

Ich hab jetzt auf spielbare Settings geachtet und 8xMSAA ignoriert. ;)

Dr. Cox
2010-05-25, 16:47:44
Im CB.de Test ist die GTX260 im Gesamtrating (1920x1200 mit 4A/16AF) 2% schneller. Dabei profitiert die 5770 von DX11 in Battleforge und Stalker. Das heißt also, dass die GTX260 mindesten immer ebenbürtig bis (deutlich) schneller ist, wenn man <DX11 miteinander vergleicht.

Dito ;)



Ich hab jetzt auf spielbare Settings geachtet und 8xMSAA ignoriert. ;)

8xMSAA ist eh nur Cherrypicking ;)

Spasstiger
2010-05-25, 16:48:18
Man kann sich die Benchmarks auch zurechtbiegen (Settings, die der GTX 260 nicht liegen, weglassen; Vorteile durch DX11 ignorieren). Ich sehe die HD 5770 auf einem Level mit der GTX 260 und die GTX 260 definitiv nicht um 20% in Front. Dann wäre die HD 5770 ja gerademal so schnell wie die GTS 250, die auf einem Level mit der HD 5750 liegt. Aber wenn es nach manchen hier geht, ist die Radeon HD 5750 langsamer als die GeForce 9800 GT ... und damit auf einem Niveau mit der HD 5670. :freak:

Klingone mit Klampfe
2010-05-25, 17:00:09
Je neuer die Reviews, desto mehr ist die HD 5770 im Vorteil.

Aus meiner Sicht sind für DX9/DX10-Spiele zum jetzigen Zeitpunkt die GTX260-Karten der jüngsten Generation (260+, 2602 usw.) nach wie vor besser geeignet als der Juniper.

Ich bin erst kürzlich von einer 5770 auf eine solche GTX260+ (http://www.neoseeker.com/Articles/Hardware/Reviews/winfastgtx260/) gewechselt und gegen die sieht meine HD5770 schlicht kein Land. Crysis, Witcher, Just Cause 2, Mass Effect 2, Oblivion - in allen Fällen präsentiert sich die GTX260 bei 16xAF/4xMSAA in 1680x1050 deutlich kraftvoller, vor allem im Bereich der "minfps", wo die HD5770 gerne mal stellenweise einbricht. Bei den "maxfps" tut sich nicht so viel, die sind für mich als VSync-Nutzer aber ohnehin weitgehend irrelevant.

Es hat schon seinen Grund, warum man für die ewigen "GTX260 vs. 5770"-Debatten immer nur Metro 2033, AVP3 und Dirt 2 heranzieht und die "minfps" unter den Teppich fallen lässt.

Schlammsau
2010-05-25, 17:13:02
Also da muss ich den meisten hier Recht geben, die 5770 liegt im Schnitt leistungsmässig leicht unter der GTX260². Ich würde mal GTX260 Niveau sagen. Ausreisser nach oben und unten gibt es zur genüge!
Bei der Leistungsaufnahme aber sieht wiederrum die GTX260² absolut kein Land mehr....knappe 70 Watt (http://ht4u.net/reviews/2010/gesamtvergleich_leistungsaufnahme_grafikkarten/index4.php) liegen zwischen den beiden Karten unter Last, und 25 Watt (http://ht4u.net/reviews/2010/gesamtvergleich_leistungsaufnahme_grafikkarten/index3.php) im Idle.

Undertaker
2010-05-25, 17:21:04
Das da idle bei dem Testmuster etwas gewaltig schief gelaufen ist - man vergleiche mit der MSI GTX260 oder der GTX285 im Test - sollte allerdings jeder sehen. Realistisch sind etwa 10W Differenz.

y33H@
2010-05-25, 17:24:08
@ Schlammsau

Du vergleichst eine Karte vom Dezember 2008 mit einer Karte vom Oktober 2009. Zu ihrer Zeit war die GTX260-260 sparsamer - eine HD48x0 schluckt idle das Doppelte und vom Furmark fang ich erst gar nicht an :ulol:

Gast
2010-05-25, 17:27:24
@ Schlammsau

Du vergleichst eine Karte vom Dezember 2008 mit einer Karte vom Oktober 2009. Zu ihrer Zeit war die GTX260-260 sparsamer - eine HD48x0 schluckt idle das Doppelte und vom Furmark fang ich erst gar nicht an :ulol:

Das spielt doch keine Rolle, wenn man heute vor der Frage GTX 260+ oder HD5770 kaufen?
Man vergleicht eben Das was käuflich ist.

y33H@
2010-05-25, 17:29:10
Bei der Feature-Keule die NV auffährt ... schwierig. Dennoch würde ich wohl keine GTX 260 mehr kaufen [zu lahm *g*].

Schlammsau
2010-05-25, 17:31:24
@ Schlammsau

Du vergleichst eine Karte vom Dezember 2008 mit einer Karte vom Oktober 2009. Zu ihrer Zeit war die GTX260-260 sparsamer - eine HD48x0 schluckt idle das Doppelte und vom Furmark fang ich erst gar nicht an :ulol:

Was aber nur am Speicher liegt, schliess mal nen 2. Moni am der GTX an, dann siehst du was ich meine. :)

Aber das der Stromverbrauch im Grunde sch**** egal ist, sieht man ja an der GTX400er Serie. Hauptsache mehr FPS, alles andere ist egal.

Ich hätte die HD4000 Serie komplett übersprungen, wenn man sie manuell nicht auf ein drittel ihres normalen Idle-Stromverbrauchs hätte trimmen können.

Leider ist die Green-IT noch nicht in jedem Kopf angekommen.

Bei der Feature-Keule die NV auffährt ... schwierig. Dennoch würde ich wohl keine GTX 260 mehr kaufen [zu lahm *g*].
Wenn du jetzt ernsthaft darüber nachdenkst, kann ich dich überhaupt nicht mehr ernstnehmen.
Die GTX260² ist nur minimal schneller, bietet kein DX11, ist teurer, lauter und verbraucht deutlich mehr Strom als die 5770.

Gast
2010-05-25, 17:31:38
@ Schlammsau

Du vergleichst eine Karte vom Dezember 2008 mit einer Karte vom Oktober 2009. Zu ihrer Zeit war die GTX260-260 sparsamer - eine HD48x0 schluckt idle das Doppelte und vom Furmark fang ich erst gar nicht an :ulol:
Die GTX46x wird sicher viiieel sparsamer ;D

Klingone mit Klampfe
2010-05-25, 17:33:15
Bei der Feature-Keule die NV auffährt ... schwierig. Dennoch würde ich wohl keine GTX 260 mehr kaufen [zu lahm *g*].

Die bekommt man doch eh nirgends mehr, außer man will sich über den Tisch ziehen lassen und über 200€ für den alten Käse bezahlen. Ich habe meine hier auf dem MP ergattert, zu relativ humanen 125€.

Gast
2010-05-25, 17:33:47
Man vergleicht eben Das was käuflich ist.
Man glaubt es kaum, aber die 4870 ist immer noch käuflich.
Sowohl die 512er der immer noch keine 1024MiB nachgewachsen ist, als auch die 1024er.

Billig, aber verschwenderisch und Feature/BQ-mäßig unter aller Sau.

Gast
2010-05-25, 17:38:36
Aber das der Stromverbrauch im Grunde sch**** egal ist, sieht man ja an der GTX400er Serie. Hauptsache mehr FPS, alles andere ist egal.

Schwachsinn und du weisst das.
Eine X1800 bietet genug FPS.
Andere Karten bieten nur eins: Möglichkeiten für mehr BQ.


Leider ist die Green-IT noch nicht in jedem Kopf angekommen.weils kompletter Blödsinn ist.
Karte 1 Jahr einbauen und sich über 10W freuen. Wer von Green schreibt sollte Green leben und nicht einen auf heilig tun.
Herstellung, das ist ein ungrüner Punkt. Oder was machst du sonst in deinem Leben? Hübsch Bio kaufen, also Bananen die per Flugzeug quer über den Planeten geflogen werden? Fetten SUV mit 30l/100km fahren? Schön in Urlaub fliegen?

Die GTX46x wird sicher viiieel sparsamer ;DWovon träumst du nachts, von einer GTX 265 die nicht stärker als eine GTX 260 ist?
Dann gute Nacht.

LovesuckZ
2010-05-27, 18:03:45
Im XtremesystemsForum (http://www.xtremesystems.org/forums/showthread.php?t=252748) bergleicht jemand eine GTX465 mit einer GTX285 (übertaktet!).
Fazit: Die GTX465 liegt auf GTX285 Niveau.

PingpiN
2010-05-27, 20:04:23
Im XtremesystemsForum (http://www.xtremesystems.org/forums/showthread.php?t=252748) bergleicht jemand eine GTX465 mit einer GTX285 (übertaktet!).
Fazit: Die GTX465 liegt auf GTX285 Niveau.
Also trotzdem schwächer als die 5850 bei unglaublichen stromverbrauch!(wenn die vcore noch erhöht wurde)

PS:Sind ja nur paar benches....

Gast
2010-05-27, 20:11:10
Im XtremesystemsForum (http://www.xtremesystems.org/forums/showthread.php?t=252748) bergleicht jemand eine GTX465 mit einer GTX285 (übertaktet!).
Fazit: Die GTX465 liegt auf GTX285 Niveau.

Bei Xbitlabs liegt sie eindeutig bei der GTX275 und denen glaube ich doch eher als "jemanden" von irgendwo.

PingpiN
2010-05-27, 21:36:53
Bei Xbitlabs liegt sie eindeutig bei der GTX275 und denen glaube ich doch eher als "jemanden" von irgendwo.

Xbitlabs lag noch nie daneben...User benches sollte man nie trauen weil man nicht weiß wo die ader hinschwimmt.Ausserdem sind das nur 4 benches...

Gast
2010-05-27, 21:42:12
GTX275?

Ergo... für den Preis unbrauchbar.
Genauso wie die 5830.
Beides Karten, die die Welt nicht braucht.

Gast
2010-05-27, 21:44:32
GTX 285-Niveau wäre fantastisch für 200 € inkl. sämtlichen nVidia-Features wie CUDA, PhysX etc., wenn sie bei Furmark auch noch unter 200 Watt bliebe.

Schlammsau
2010-05-27, 21:48:36
GTX 285-Niveau wäre fantastisch für 200 € inkl. sämtlichen nVidia-Features wie CUDA, PhysX etc., wenn sie bei Furmark auch noch unter 200 Watt bliebe.

Das wird wohl nichts werden....sie wird so wie es aussieht nur GTX280 (unter 5850) Niveau haben und dabei um die 250€ kosten.
Stromverbrauchstechnisch könnten aber unter 200 Watt im FUR drin sein.

y33H@
2010-05-27, 21:48:37
Eine GTX470 macht "nur" 230W ;)

Gast
2010-05-27, 21:52:52
250 € fände ich zu viel, daran glaube ich nicht. Die GTX 470 kostet ja auch nicht mehr als eine HD 5870, obwohl sie so schnell ist. Warum sollte die GTX 465 bei weniger Leistung als eine HD 5850 fast genau so viel kosten? 200 €, HD 5830-Preise erscheinen mir realistischer.

Gast
2010-05-27, 21:55:52
Wie ist eigentlich die Tesselationsleistung? Theoretisch anhand der beschnittenen Einheiten müsste man das ja sagen können? Ist die GTX 465 der HD 5870 immer noch voraus?

Black-Scorpion
2010-05-27, 21:56:00
Vielleicht weil die Karte teurer in der Herstellung ist?
Der Chip ist mehr wie eine Nummer Größer.

Schlammsau
2010-05-27, 21:58:35
250 € fände ich zu viel, daran glaube ich nicht. Die GTX 470 kostet ja auch nicht mehr als eine HD 5870, obwohl sie so schnell ist. Warum sollte die GTX 465 bei weniger Leistung als eine HD 5850 fast genau so viel kosten? 200 €, HD 5830-Preise erscheinen mir realistischer.
glaub ich nicht, der Listenpreis beträgt 279$! Und bevor dieser Monsterchip auf unter 200€ fällt, fress ich nen Besen.

Aber zuzutrauen wärs nVidia ja mittlerweile.

Gast
2010-05-27, 21:59:13
GTX 285-Niveau wäre fantastisch für 200 € inkl. sämtlichen nVidia-Features wie CUDA, PhysX etc., wenn sie bei Furmark auch noch unter 200 Watt bliebe.
Wen juckt Furmark?
Was zählt, ist die Verlustleistung beim Spielen.
Und da ist die 5850 der Maßstab.
Wenn die GTX 465 mehr zieht und dabei noch langsamer ist, dann ist diese Karte genauso wertlos wie die 5830 (sollte ähnlich schnell sein)
Beides Schrottkarten.
Für um die 160-170 Euro könnte man einen zweiten Blick riskieren, sonst überteuert.

Gast
2010-05-27, 22:08:39
Wen juckt Furmark?

Mich.

Was zählt, ist die Verlustleistung beim Spielen.

Ja.

Wenn die GTX 465 mehr zieht und dabei noch langsamer ist, dann ist diese Karte genauso wertlos wie die 5830 (sollte ähnlich schnell sein)
Beides Schrottkarten.

Der Preis macht's. Für sind schon 200 € für die GTX 465 absolut ok (sofern sie GTX 285-Niveau erreicht), da sie immerhin die bessere BQ, CUDA, PhysX und keine ATi-Treiber (:D) hat. Bei der HD 5830 müssten es tatsächlich eher 160 € sein.

Gast
2010-05-27, 22:11:01
Ich gehe auch davon aus, dass sie in zukünftigen Spielen mindestens auf HD 5850-Niveau sein wird. Sieht man ja schon bei XBitlabs @ Dirt 2 @ DX 11, wo sie auf HD 5870-Niveau ist (und deutlich höhere min. FPS aufweist).

Gast
2010-05-27, 22:23:58
Mich.
Für die Praxis irrelevant.


Der Preis macht's. Für sind schon 200 € für die GTX 465 absolut ok (sofern sie GTX 285-Niveau erreicht),
Ich nicht.
Ich sehe zwischen der GTX 465 und der 5830 kaum Unterschiede.
170 Euro wären verschmerzbar, wenn man mit der hohen Verlustleistung leben kann und die Lautstärke stimmt.
Bei der 5830 ist die Lautstärke bei einigen Karten ja ganz ok, mal sehen, wie es bei der GTX 460 sein wird.

da sie immerhin die bessere BQ,
Nicht wirklich.
Beim AA ist ATI besser.

CUDA,
Für die meisten eh nicht wichtig.

PhysX
Laut der neusten 3Dcenterumfrage nicht so wichtig...

und keine ATi-Treiber (:D) hat
Wie meinen?
Was ist mit dem ATI-Treiber?

Gast
2010-05-27, 22:27:34
Ich gehe auch davon aus, dass sie in zukünftigen Spielen mindestens auf HD 5850-Niveau sein wird.
Die soll erstmal die Leistung in aktuellen Spielen beweisen, dann können wir über die Zukunft reden.
Man muss auch mehrere Spiele nehmen, da man sonst gerade Spiele erwischen könnte, die einen IHV bevorzugen.

hq-hq
2010-05-27, 22:28:22
"Beim AA ist ATI besser."

hat sich relativiert, damit bleibt nur noch das minus beim AF für ati
-> http://www.pcgameshardware.de/aid,748805/Geforce-Treiber-25715-im-Test-Mehr-Fps-mehr-Bildqualitaet-plus-Nvidia-Interview/Grafikkarten-Treiber/Test/
siehe sgssaa

Schlammsau
2010-05-27, 22:30:37
Ich gehe auch davon aus, dass sie in zukünftigen Spielen mindestens auf HD 5850-Niveau sein wird. Sieht man ja schon bei XBitlabs @ Dirt 2 @ DX 11, wo sie auf HD 5870-Niveau ist (und deutlich höhere min. FPS aufweist).

Das glaube ich auch nicht....DiRT2 liegt den GeForces allgemein wesentlich besser, daraus schlüsse zu ziehen, halte ich für sehr gewagt.
Schau dir zB mal AvP@DX11 an, da ist eine 480 zB nur 10% schneller als eine 5870. Ist auch ein neues Game....sogar neuer als DiRT2!
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=484429

Raff
2010-05-27, 22:34:54
GTX 285-Niveau wäre fantastisch für 200 € inkl. sämtlichen nVidia-Features wie CUDA, PhysX etc., wenn sie bei Furmark auch noch unter 200 Watt bliebe.

Das könnte für ein paar Euro mehr durchaus was werden. Das gute Fps-Watt-Verhältnis der Evergreen-Karten bleibt mit den A3-Fermis aber gewiss unrealistisch. Und solange die GTX 465 weniger kostet als eine HD 5850 (die gibt's ab ~280 €uro), darf sie auch etwas langsamer und stromfressender sein.

MfG,
Raff

Gast
2010-05-27, 22:37:06
"Beim AA ist ATI besser."

hat sich relativiert, damit bleibt nur noch das minus beim AF für ati
-> http://www.pcgameshardware.de/aid,748805/Geforce-Treiber-25715-im-Test-Mehr-Fps-mehr-Bildqualitaet-plus-Nvidia-Interview/Grafikkarten-Treiber/Test/
siehe sgssaa
:confused:
Und seid wann können die Nvidia-Karten ED?
SGSSAA und ED ist state of the art.
Besser geht es nicht.

hq-hq
2010-05-27, 22:47:46
:confused:
Und seid wann können die Nvidia-Karten ED?
SGSSAA und ED ist state of the art.
Besser geht es nicht.
spielst du dann in 640x480 damit du 24x ED-SGSSAA nutzen kannst ? das mein ich mit relativiert

y33H@
2010-05-27, 22:49:52
Schau dir zB mal AvP@DX11 anAm besten mit MSAA, da drehen die Geforces nämlich Kreise ;D
SGSSAA und ED ist state of the art.
Besser geht es nicht. Auf ED kann ich zugunsten des besseren AFs und SGSSAA unter DX10/11 verzichten - wenngleich ED sehr geil ist.

Schlammsau
2010-05-27, 22:52:49
Am besten mit MSAA, da drehen die Geforces nämlich Kreise ;D
Ok...dann stimmt der Benchmark wohl nicht!? Ich meine die Frage ernst!

hq-hq
2010-05-27, 22:54:12
der da? http://www.computerbase.de/artikel/grafikkarten/2010/bericht_nvidia_geforce_gtx_400/3/

treiberprobs damals, ist aber dennoch bedenklich

LovesuckZ
2010-05-27, 22:59:01
der da? http://www.computerbase.de/artikel/grafikkarten/2010/bericht_nvidia_geforce_gtx_400/3/

treiberprobs damals, ist aber dennoch bedenklich

Bezweifel ich. Leider weiß man ja nicht, was Computerbase.de dort testet. Wenn es eher eine Außenaufnahme sein könnte, läge es vielleicht daran.
Man sollte eben nicht vergessen, dass der AvP Benchmark ein von AMD in auftaggebener ist, somit man genüßlich sich die besten Stellen heraussuchen bzw. erstellen konnte.
Dazu hat sich auch der Reviewer von http://www.hardwarecanucks.com geäußert

DX11 only and from where I am standing, not a very good representation of the actual in-game performance.

It's a shame too because we're sure to see AvP benchmarks using this tool to start popping up in numerous reviews due to its ease of use. Meanwhile, it doesn't give accurate results in relation to actual gameplay so hopefully sites will realize this and either use the game itself or not include AvP at all in their reviews.

http://www.xtremesystems.org/forums/showpost.php?p=4407786&postcount=42

y33H@
2010-05-27, 23:01:07
AvP erschien Mitte Februar. Der CB-Artikel ist von Ende April. Wenn AMD in einem von ihnen gesponserten DX11-Titel auch nach 2,5 Monaten mit MSAA abkackt dann bin ich nicht gewillt von einem Treiber-Bug zu sprechen. Und sollte es doch einer sein, spricht es nicht wirklich für AMD, dass es ihn gibt :rolleyes:

Und dieses Bench-Tool hat einen ****** scheiß mit ingame zu tun.

Schlammsau
2010-05-27, 23:10:45
AvP erschien Mitte Februar. Der CB-Artikel ist von Ende April. Wenn AMD in einem von ihnen gesponserten DX11-Titel auch nach 2,5 Monaten mit MSAA abkackt dann bin ich nicht gewillt von einem Treiber-Bug zu sprechen. Und sollte es doch einer sein, spricht es nicht wirklich für AMD, dass es ihn gibt :rolleyes:

Und dieses Bench-Tool hat einen ****** scheiß mit ingame zu tun.

Gut und wie siehts dann in Wirklichkeit Ingame aus?
So wie bei den Werten von CB? :freak:

hq-hq
2010-05-27, 23:13:17
hast du es denn original/gecrackt ?

wenn ja dann leih ich mir mal den steam acc vom kumpel aus dann könnten wir ein paar stellen raussuchen ;)

y33H@
2010-05-27, 23:27:09
Gut und wie siehts dann in Wirklichkeit Ingame aus?Die Fps-Charakteristik ist eine ganz andere als mit dem Tool. Das meinte ich. CB bencht übrigens ingame.

Userxy
2010-05-27, 23:27:53
@HQ
AVP kostet noch nicht mal 20EUR und du fragst nach gecrackt? Es sollte der gleiche aktuelle Patchlevel der gekauften Version verwendet werden.

hq-hq
2010-05-27, 23:32:17
ich habs schon daliegen das avp, ich brauchs nicht laden. allerdings muss ich mir noch die steam zugangsdaten geben lassen ;)
-> ich meinte den schlammi
-> avp kostet bei gameware €27.99 ohne versand

Schlammsau
2010-05-28, 09:21:44
hast du es denn original/gecrackt ?

wenn ja dann leih ich mir mal den steam acc vom kumpel aus dann könnten wir ein paar stellen raussuchen ;)
Ne hab ich nicht, weil ich es eigentlich ziemlich häßlich finde. Habs bei nem Kumpel kurz angezockt, taugt mir auch nicht wirklich.

Die Fps-Charakteristik ist eine ganz andere als mit dem Tool. Das meinte ich. CB bencht übrigens ingame.

Gut....also wenn dem so ist und das Tool unrealistische Werte raushaut, nehme ich meine Aussage natürlich zurück und erkläre die Geforce 400 Serie zum klaren Sieger!

V2.0
2010-05-28, 09:31:42
realistisch und unrealistisch ist relativ. Das Tool ist realistisch, da die Karten vergleichbar sind, wenn sie mit dem Tool getestet werden. Natürlich gibt es stellen im Spiel, die das Tool nicht repräsentativ darstellt, aber das ist bei jedem Gamebench so.

Gast
2010-05-28, 10:08:27
Auf ED kann ich zugunsten des besseren AFs und SGSSAA unter DX10/11 verzichten - wenngleich ED sehr geil ist.

SSAA ohne LoD Anpassung ist Verschwendung.

Gast
2010-05-28, 10:14:15
Kein SSAA oder wenigstens SSAAA und HQAF in D3D10/11 ist Verschwendung.

Raff
2010-05-28, 10:21:01
SSAA ohne LoD Anpassung ist Verschwendung.

Probiert das doch bitte erst mal aus, bevor immer wieder sowas gepostet wird. Das Supersampling soll doch eh der Bildberuhigung dienen. Dafür ist ein 0.0-LOD besser geeignet als ein angepasstes, weil ein negatives LOD wieder mehr Textur-/Shader-Informationen freilegt, die es zu beruhigen gilt. 4x MSAA plus 2x "unangepasstes" SGSSAA sieht sehr gut aus und läuft auch so.

Ab (mehr als) 4 Supersamples wäre es schön, ein angepasstes LOD zu bekommen, da es sonst zur vielzitierten "Unschärfe" kommt.

Kein SSAA oder wenigstens SSAAA und HQAF in D3D10/11 ist Verschwendung.

Wenn du mit mindestens 2x SGSSAA spielst, brauchst du kein HQ-AF mehr. Auf einer GeForce ist fast nie Banding zu sehen und das Q-Flimmern wird vom SSAA weggebügelt.

MfG,
Raff

Gast
2010-05-28, 10:28:45
Wenn du mit mindestens 2x SGSSAA spielst, brauchst du kein HQ-AF mehr. Auf einer GeForce ist fast nie Banding zu sehen und das Q-Flimmern wird vom SSAA weggebügelt.

HQ ist quasi umsonst. Doppelten Kosten von Umsonst sind immer noch quasi umsonst.

Es ging mir darum, das eine Redeon HQAF und SSAAA dringend bräuchte, damit D3D10 und 11 endlich kommen können.
Den die SSAA bügelt alles zu Tode Methode läuft nicht, wenns kein SSAA gibt.

Raff
2010-05-28, 10:31:09
HQ ist auf einem Furby vieles (zum Beispiel hübsch), aber nicht kostenlos. Das zieht dir die Fps um mindestens 5, manchmal sogar um 10 Prozent gegenüber Q herunter. Eine GTX 200 verliert aufgrund ihrer in Relation zur Arithmetik hohen Texturfüllrate weniger durch HQ.

Wenn ich auf meiner HD 5870 8x SGSSAA (und vielleicht noch CFAA) fahre, schalte ich auch auf A.I. Erweitert. Warum? Weil das die Fps um 2-3 Prozent anhebt, man aber dank des Supersamplings keine negativen BQ-Auswirkungen sieht. Davon ausgenommen sind Fälle, wo das Radeon-AF schon mit A.I. Standard gruseliges Banding (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=482069) produziert, etwa Crysis (Warhead). Dagegen hilft bedauerlicherweise auch der Messias SSAA nicht zufriedenstellend ... ;(

MfG,
Raff

Fallacy
2010-05-28, 11:30:05
Das mit den 5-10% konnten wir in einem vergangen Test nicht im Ansatz antreffen, die Abstände lagen in der Regel im Bereich der Messtoleranzen, maximal im Bereich von 5%:

http://ht4u.net/reviews/2010/msi_n470gtx_nvidia_geforce_gtx_470/index7.php

Und unter Quality ist auf NVIDIA-Karten standardmäßig die trilineare Optimierung aktiv. Und das Banding, was dadurch auftritt ist m.E. deutlich heftiger, als das was man auf einer Radeon-Karte mit AI-Standard antrifft.

y33H@
2010-05-28, 11:41:32
@ Fallacy

Wenn ihr mit 4x MSAA usw. testet, limitieren ja auch andere Chipteile ;)

Fallacy
2010-05-28, 12:10:15
Nur um das einmal vorweg klarzustellen, das Posting mit den "gesponserten PCGH-Redakteuren", hat nichts mir zu tun (weil du von "ihr" sprichst). Mir ging es lediglich darum, dass wir die genannten 5-10% in unseren Benchmarks nicht angetroffen haben, und dass ich das Banding bei NV mit triniliearer Optimierung als schlimmer empfinde als AI-Standard bei den Radeons.

@y33h: Ich habe hier auch die Ergebnisse ohne AA/AF vorliegen, die spiegeln exakt das gleiche wieder. Dass wir nur die 4x/16x Ergebnisse präsentiert haben hat den Grund, dass wir 16x AF zeigen wollten, ohne den Leser mit Ergebnissen totzuschlagen. Schließlich muss bei 16xAF deutlich mehr gefiltert werden, als bei trilinearer Filterung. Und ohne MSAA aber mit 16xAF sehen wir als praxisfernes Szenerio, deshalb 4x/16x.

Hier mal ohne AA/AF-Ergebnisse in 1680x1050:

HQ vs. Q
------
Crysis: 37.13 vs. 37.30
FarCry2: 119.92 vs 119.38
Riddick: 166.07 vs. 166.06
Battleforge: 72.7 vs. 73.0
CoD5: 167.2 vs. 173.2
Dirt2: 103.0 vs. 104.9
Stalker: 75.1 vs. 75.0
WiC: 77 vs. 76

Edit: Diese Ergebnisse nur der Vollständigkeit halber, weil nachgefragt wurde. Die Ergebnisse mit 4x/16x, lassen sich im oben verlinkten Artikel (http://ht4u.net/reviews/2010/msi_n470gtx_nvidia_geforce_gtx_470/index7.php) einsehen.

y33H@
2010-05-28, 12:14:31
@ Fallacy

HQ vs. Q ohne AF? :freak: Und nur HQ, also nicht die Optimierungen noch deaktiviert?

Fallacy
2010-05-28, 12:21:58
Warum sollte sich die "trilineare Optimierung" bei rein trilinearer Filterung denn bitte nicht auswirken? Das der Unterschied ohne AF geringer ausfällt sollte klar sein, ich habe die Ergebnisse nur gepostet, weil y33h den Einwand brachte MSAA würde limitieren. Und die anderen Ergebnisse mit 16xAF und 4xAA sieht man doch im Artikel, verstehe eure Kommentare jetzt nicht wirklich.

@y33h: HQ deaktiviert standarmäßig automatisch die Optimierung, und ja das haben wir überprüft.

Gast
2010-05-28, 12:26:05
Vielleicht sollte Raff erst einmal zeigen, bei welcher Messreihe er auf -10 % kommt, anstatt dass Fallacy nun das Gegenteil beweisen soll.

Gast
2010-05-28, 12:28:18
Wenn MSAA limitiert sollte man Ergebnisse ohne MSAA angucken und nicht gleich noch alles andere z.b. AF ausschalten. ;)
Nur testet irgendwie kaum jemand dies.

hq-hq
2010-05-28, 12:35:48
Hier mal ohne AA/AF-Ergebnisse in 1680x1050:

HQ vs. Q
------
Crysis: 37.13 vs. 37.30


jo in crysis scheint es egal zu sein ob man HQ oder HighPerformance nimmt. nur die min fps waren vielleicht 1-2fps auseinander... - bei 16xAF
und im avp benchmark hat es bei den avg fps nur 0,1fps unterschied gemacht zwischen Q und HQ @1680x1050 4x msaa und 16x af

Fallacy
2010-05-28, 12:37:32
Was für ein Niveau unter Redakteuren, echt beschämend. Da wundert einen so manchen nichts mehr.

Als seltener Gast hier, bin ich rein zufällig über die "5-10%" gestoßen, und wollte lediglich darauf hinweisen, dass wir das in unserem Benchmark-Parcours eben nicht so festhalten konnten. Das sollte kein Angriff oder sonst etwas sein. Im Gegenteil, eigentlich ist das Verhältnis zur PCGH sehr gut, auch wenn ich Raff (höchstens vom sehen) nicht persönlich kenne.

Wenn MSAA limitiert sollte man Ergebnisse ohne MSAA angucken und nicht gleich noch alles andere z.b. AF ausschalten. ;)
Nur testet irgendwie kaum jemand dies.

Wir wollten hier kein theoretisches Spektakel abfeiern, sondern in praxisnahen Settings mit 4x/16x zeigen wie die Unterschiede sind.

y33H@
2010-05-28, 12:39:18
Richtig, HT4U und PCGH kommen super klar =)

Und keiner zweifelt Tests, es werden schlicht Werte hinterfragt.

Armaq
2010-05-28, 12:41:32
Trotzdem ist der Ton ausfallend und unprofessionell.

Fetter Fettsack
2010-05-28, 12:49:22
Trotzdem ist der Ton ausfallend und unprofessionell.

Solange es sie selber nicht stört, warum sollen sie nicht? Gibt doch viele Leute, die sich mit ihren besten Freunden blendend verstehen und diese dabei teils bis zum Hals mit Verbaliniurien eindecken, ohne das da in irgendeiner Weise böses Blut aufkommt. :)

y33H@
2010-05-28, 12:51:25
@ Armaq

Ausfallend und unprofessionell? Ähm ... nein.

Fetter Fettsack
2010-05-28, 13:15:04
Es gibt doch wahrlich schlimmeres als die Frage, wo welche Einstellung schlechter ist. Faktum ist, dass bei ATi u.U. Situationen auftreten können, die einem AI @ Standard verleiden. Im Sinne dessen, dass dafür Abhilfe geschaffen wird, finde ich es durchwegs nötig, dies zu kritisieren (wiewohl es mir selber noch nie wirklch aufgefallen ist, was aber auch an der stark eingeschränkten Anzahl meiner Spiele liegen mag).
Da es bei den Grünen ohnedies schon einen HQ-Schalter gibt, ist das dort ja obsolet (in dieser Hinsicht, dass das gegebenenfalls zu Unstimmigkeiten in Benches führen kann, ist ein anderes Thema etc. etc).

Außerdem, wenn man meint, dass jemand nicht ganz neutral sei, dann kann man sich ohnedies dessen Äußerungen mit Vorbehalt zu Gemüte führen.

Klingone mit Klampfe
2010-05-28, 13:30:05
@ Fallacy

HQ vs. Q ohne AF? :freak: Und nur HQ, also nicht die Optimierungen noch deaktiviert?

Sobald man auf "Hiqh Quality" stellt, sind die Optimierungen im CP ausgegraut und gar nicht mehr zugänglich. Du kannst höchstens noch im nHancer herumklicken, einen Effekt hat das aber nicht.

Nebenbei bemerkt habe ich neulich wieder Q ohne Optimierungen mit HQ verglichen. Auf Bildschirmfotos habe ich keinen Unterschied bemekrt, die Performanz ist um 0,5-1 FPS gesunken (GTX260). Aber dann kann man auch gleich HQ nehmen. Ich habe jetzt wieder die HD5770 drin und so schlecht ist die Filterung dort gar nicht, selbst unter "A. I. Standard".

Die GTX465 ist im Übrigen für mich als Upgrade von GTX260/HD5770 völlig uninteressant. Die Hitzeentwicklung und der Stromverbrauch stehen zur Mehrleistung offenbar in einem sehr schiefen Verhältnis.

Gast
2010-05-28, 13:48:51
"HT4U" sagt, man merkt bei GTX400 keinen Performanceunterschied zwischen HQ und Q.

"PCGH" sagt, GTX400 leidet (im Gegensatz zu GTX200) deutlich und verliert ~10%.

"HT4U" verneint und verlinkt gleichlange Balken.

"PCGH" sagt daraufhin, "HT4U" habe Mist gemessen, weil sie mit aktiviertem 4xAA angetreten sind und dadurch andere Chipbereiche statt der TMUs limitiert haben.

"HT4U" erwidert, dass sie auch einen Test ohne AA und ohne AF durchgeführt haben und ebenfalls keinen Unterschied feststellen konnten.

"PCGH" kontert, dass man ohne AF auch keinen Unterschied feststellen kann.

"Ht4U" meint, ein Performanceunterschied zwischen Q und HQ müsse sich auch ohne AF zeigen, wenn auch nicht so ausgeprägt.

"PCGH" bleibt bislang die Antwort schuldig, warum 4xAA/16xAF genau so untauglich ist, wie Ergebnisse ohne AA/AF.

"HT4U" zieht sich auf "praxisnahe Settings" zurück und preist noch einmal die gleichlangen Balken.

Spasstiger
2010-05-28, 14:34:42
CB misst von Q zu HQ keinen nennenswerten Einbruch (<1%): http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/5/#abschnitt_skalierungstests.
Bei der GTX 285 war der Einbruch durch HQ größer. Allerdings kostet AF im Allgemeinen bei der GTX 480 mehr als bei der GTX 285. Von noAF zu 16:1 HQ-AF liegt der Einbruch der GTX 480 bei 11-24%, die GTX 285 verliert nur 6-11%.

hq-hq
2010-05-28, 19:47:29
na also,
10. "Computerbase" ist unvertreten und hat recht. ;)

AnarchX
2010-05-29, 18:11:27
Einige GTX 465 für $279 bei Newegg: http://www.newegg.com/Product/ProductList.aspx?Submit=ENE&N=2010380048%20106793413&bop=And&Order=PRICE&PageSize=20
Palit und Gigabyte setzen wohl direkt auf Alternativkühler.

In Dtl. sollte sich das preislich doch eher bei ~250€ für die günstigste 465 einpegeln, ausgehend von 300€ für eine 470.

Spasstiger
2010-05-29, 18:17:15
Einige GTX 465 für $279 bei Newegg: http://www.newegg.com/Product/ProductList.aspx?Submit=ENE&N=2010380048%20106793413&bop=And&Order=PRICE&PageSize=20
Also entsprechend der MSRP. Bei dem derzeitigen Dollarkurs würde ich in Deutschland eher mit 270€ als mit 250€ rechnen. Wenn die Karten 250€ inkl. Steuer kosten würde, würde es sich für US-Händler schon lohnen, die Karten aus Europa zu (re)importieren.

Gast
2010-05-29, 18:24:24
Wer kauft denn dann für 270 € eine GTX 465, wenn eine GTX 470 nur 30 € mehr kostet? :usad:

Spasstiger
2010-05-29, 18:29:45
Die GTX 470 kostet im Schnitt 330€, nur die Palit fällt etwas aus dem Rahmen (Eigendesign?).

LovesuckZ
2010-05-29, 18:41:50
Die sind lieferbar bei newegg. Dann wird es wohl Montag die Reviews geben.

hq-hq
2010-05-29, 18:45:21
immerhin in geizhals schon gelistet http://geizhals.at/deutschland/a536141.html

Spasstiger
2010-05-29, 18:48:11
Mit 30€ Frühbucherzuschlag. :D
Ich fürchte, dass wir so schnell keine 200€-Karte mit High-End-GPU außer der HD 5830 sehen werden. Und die HD 5830 finde ich performancetechnisch zu durchwachsen, um dafür 70-80€ Aufpreis gegenüber einer HD 5770 zu zahlen.

Gast
2010-05-29, 18:51:54
Die GTX 470 kostet im Schnitt 330€, nur die Palit fällt etwas aus dem Rahmen (Eigendesign?).

Ähm, 330 €? Nein:

Point of View: 312 €: http://geizhals.at/deutschland/a519536.html
Colorful: 315 €: http://geizhals.at/deutschland/a523681.html
Gainward: 317 €: http://geizhals.at/deutschland/a519532.html

etc.

Tarkin
2010-05-29, 22:01:47
http://www.newegg.com/Product/Product.aspx?Item=N82E16814133323

$279.99 ... $10 günstiger als eine 5850 :|

ziemlich mutiger Preis für eine 200W Karte die ca. auf 5830 Niveau landen dürfte

Gast
2010-05-30, 00:43:21
http://www.newegg.com/Product/Product.aspx?Item=N82E16814133323

$279.99 ... $10 günstiger als eine 5850 :|

ziemlich mutiger Preis für eine 200W Karte die ca. auf 5830 Niveau landen dürfte

Ich prophezeie 230 € in ein paar Wochen. Für über 250 € kauft die schlicht und ergreifend niemand. Die GTX 470 kostete auch zu Beginn 359 €. Jetzt ist sie schon bei 300 €.

Spasstiger
2010-05-30, 01:01:23
Der Markt hat reagiert, weil die Karten wie Blei in den Regalen lagen. Kaum einer war bereit, für eine GTX 470 genausoviel auszugeben wie für eine HD 5870. Ist natürlich ein gutes Omen für die GTX 265.

Dr. Cox
2010-05-30, 11:25:53
Erschreckend ist jedoch wie viele Leute bereit sind knapp 400€ für eine HD 5870 auszugeben. Wäre dem nicht so, dann wäre die HD 5870 inzwischen auch schon günstiger zu haben.
Ich hoffe zumindest, dass aus der GTX 465 doch noch eine brauchbare und günstige Grafikkarte wird ;)

Gast
2010-05-30, 11:33:59
Erschreckend ist jedoch wie viele Leute bereit sind knapp 400€ für eine HD 5870 auszugeben. Wäre dem nicht so, dann wäre die HD 5870 inzwischen auch schon günstiger zu haben.
Ich hoffe zumindest, dass aus der GTX 465 doch noch eine brauchbare und günstige Grafikkarte wird ;)

Der Preis ist noch immer zu niedrig. Die Händler schlagen noch immer fast 10% drauf und trotzdem haben sie zu wenig Karten. AMD muss endlich entweder den Preis anheben oder die Liefermenge stark erhöhen. Ansonsten ist das witzlos.

V2.0
2010-05-30, 11:34:51
Erschreckend ist jedoch wie viele Leute bereit sind knapp 400€ für eine HD 5870 auszugeben. Wäre dem nicht so, dann wäre die HD 5870 inzwischen auch schon günstiger zu haben.
Ich hoffe zumindest, dass aus der GTX 465 doch noch eine brauchbare und günstige Grafikkarte wird ;)

Was ist daran erschreckend? Mit geänderter Kühllösung sind viele 5870, leise, schnell und halbwegs sparsam. Die BQ ist gut und die Karte liefertordentlich FPS in allen Spielen. Die 5870 ist die ausgewogenste High-End-Karte.

Dr. Cox
2010-05-30, 11:55:40
Was ist daran erschreckend? Mit geänderter Kühllösung sind viele 5870, leise, schnell und halbwegs sparsam. Die BQ ist gut und die Karte liefertordentlich FPS in allen Spielen. Die 5870 ist die ausgewogenste High-End-Karte.

Nun die GTX 470 ist ungefähr gleich schnell, zukunftssicherer, bietet eine bessere Bildqualität und kostet derzeit knapp 90€ weniger ;)

Bucklew
2010-05-30, 12:15:23
Nun die GTX 470 ist ungefähr gleich schnell, zukunftssicherer, bietet eine bessere Bildqualität und kostet derzeit knapp 90€ weniger ;)
Und in Massen und problemlos lieferbar...

nagus
2010-05-30, 12:15:40
Nun die GTX 470 ist ungefähr gleich schnell, zukunftssicherer, bietet eine bessere Bildqualität und kostet derzeit knapp 90€ weniger ;)

90 euro? hmhm, alles klar. (http://geizhals.at/eu/?cat=gra16_512&sort=p&bpmax=&asuch=&v=l&plz=&dist=&pixonoff=on&bl1_id=100&xf=891_GeForce+GTX+470~132_1024~891_Radeon+HD+5870)

es sind zwar nur ca. 30 euro aber wen jucken schon 60 euro, gell?

außerdem ist die 470er nur in ausgesuchten spielen (minimal) schneller. im schnitt ist sie langsamer. aber dafür lauter, heißer und stromfressender.

Gast
2010-05-30, 12:21:29
Und in Massen und problemlos lieferbar...

Und das in ein paar Wochen vermutlich um 250€, weil sie keiner will.

Schlammsau
2010-05-30, 12:27:33
Nun die GTX 470 ist ungefähr gleich schnell, zukunftssicherer, bietet eine bessere Bildqualität und kostet derzeit knapp 90€ weniger ;)

90€? Also ich sehe einen Unterschied von 38€ zugunsten der 470!
Aber für 340€ kann auch ich keine 5870 mehr empfehlen. Nicht bei den günstigen 470!
Und in Massen und problemlos lieferbar...
Wen interessierts?
Stimmt, ich kauf auch immer 20 Karten im Vorrat, wenn mal eine defekt geht. :freak:
Ein Blick in Geizhals verrät (mal wieder), auch die 5800 Serie ist sehr gut verfügbar. Ob der Händler jetzt 50 oder 100 Stück auf einmal auf Lager hat, ist doch Jacke wie Hose oder? ;)

Dr. Cox
2010-05-30, 12:27:57
Und das in ein paar Wochen vermutlich um 250€, weil sie keiner will.

Wenn dem so wäre, dann würde wahrscheinlich sehr viele die Karte kaufen und sie entsprechend modifizieren um sie leiser und stromsparender zu bekommen. Ich würde sie jedenfalls für 250€ kaufen und entsprechend modden ;)

Bucklew
2010-05-30, 12:33:40
90 euro? hmhm, alles klar. (http://geizhals.at/eu/?cat=gra16_512&sort=p&bpmax=&asuch=&v=l&plz=&dist=&pixonoff=on&bl1_id=100&xf=891_GeForce+GTX+470~132_1024~891_Radeon+HD+5870)

es sind zwar nur ca. 30 euro aber wen jucken schon 60 euro, gell?
Erst Pixmania, dann irgendein komischer UK-Händler, dann Pixmania und wenn man dann mal einen Händler mit vernünftigen Bewertungen hat, kostet die HD5870 schwupps 360-370€.

Und das in ein paar Wochen vermutlich um 250€, weil sie keiner will.
Gab bereits einen Fudzilla-Artikel, dass sich die GTX470 gut verkauft.

Ein Blick in Geizhals verrät (mal wieder), auch die 5800 Serie ist sehr gut verfügbar. Ob der Händler jetzt 50 oder 100 Stück auf einmal auf Lager hat, ist doch Jacke wie Hose oder? ;)
Wenn die Händler 50 oder 100 Stück am Lager hätten, würden die Preise schon ganz woanders sein. Angebot/Nachfrage. Sieht man ja auch daran, dass die HD-Karten vorallem bei irgendwelchen obskuren Händlern lieferbar und billig ist, wer weiß ob das überhaupt stimmt?

Dr. Cox
2010-05-30, 12:35:56
90 euro? hmhm, alles klar. (http://geizhals.at/eu/?cat=gra16_512&sort=p&bpmax=&asuch=&v=l&plz=&dist=&pixonoff=on&bl1_id=100&xf=891_GeForce+GTX+470~132_1024~891_Radeon+HD+5870)

es sind zwar nur ca. 30 euro aber wen jucken schon 60 euro, gell?

außerdem ist die 470er nur in ausgesuchten spielen (minimal) schneller. im schnitt ist sie langsamer. aber dafür lauter, heißer und stromfressender.

Die günstigste HD 5870 ist erst für 369€ gelistet und nicht einmal lieferbar:

http://www.pcgameshardware.de/preisvergleich/a465649.html


Lieferbare HD 5870 gibt es eben erst ab knapp 400€ (bei seriösen Händlern):

http://www.pcgameshardware.de/preisvergleich/?fs=hd+5870&x=0&y=0&in=


Ich jedenfalls würde den Fanboyaufschlag für die HD 5870 nicht zahlen wollen. Denn die 60-90€ die man für eine HD 5870 mehr zahlt, wird man ganz sicher nicht über eine günstigere Stromrechnung wieder reinholen, jedenfalls nicht innerhalb eines Jahres! Zumal die GTX 470 bis auf die Lautheit und den Stromverbrauch das insgesamt bessere Paket liefert: Besser Treiber (auch alte Spiele laufen problemlos), weniger Treiberbugs, deutlich besseres AF, SGSSAA in DX9, DX10, DX11, viel höhere Tesselationsleistung, PhysX und kein Grey-Screen ;)

DrFreaK666
2010-05-30, 12:40:07
Erst Pixmania, dann irgendein komischer UK-Händler, dann Pixmania und wenn man dann mal einen Händler mit vernünftigen Bewertungen hat, kostet die HD5870 schwupps 360-370€.
...

Dafür sind diese dann schön leise :)

Mancko
2010-05-30, 12:42:06
Die günstigste HD 5870 ist erst für 369€ gelistet und nicht einmal lieferbar:

http://www.pcgameshardware.de/preisvergleich/a465649.html


Lieferbare HD 5870 gibt es eben erst ab knapp 400€ (bei seriösen Händlern):

http://www.pcgameshardware.de/preisvergleich/?fs=hd+5870&x=0&y=0&in=


Lol 400 Euro?? Da leg ich lieber nochmal 50 Euro drauf und kaufe gleich die GTX 480. Die 5870 ist viel zu teuer. Wahrscheinlich hat AMD sich bei den Kapazitäten verkalkuliert oder Nvidia hat sie ausgesperrt bzw. sich große Teile bei TSMC gesichert.

Spasstiger
2010-05-30, 12:43:00
Wenn die Händler 50 oder 100 Stück am Lager hätten, würden die Preise schon ganz woanders sein. Angebot/Nachfrage. Sieht man ja auch daran, dass die HD-Karten vorallem bei irgendwelchen obskuren Händlern lieferbar und billig ist, wer weiß ob das überhaupt stimmt?
Da wo ich arbeite, waren in den letzten Wochen immer HD 5850er und HD 5870er auf Lager. Von einer Knappheit merke ich nix.
Und die GTX 470 lag zwei oder drei Wochen wie Blei in den Regalen zum Preis einer HD 5870. Keine einzige 470er wurde verkauft. Nach der Preisreduzierung stieg auch das Kaufinteresse.

Gast
2010-05-30, 12:43:18
Was kann die 5870 besser, außer das sie sparsamer ist?
Das ist die entscheidende Frage, sie bietet neben der Sparsamkeit keinen Grund.
Sie ist weder schneller, noch zukunftstauglicher. Sie hat auch keine schicken extras, die man bei der Geforce vermissen würde.
Ah mir fällts ein, sie kann einen dritten Bildschirm betreiben. Ok, aber ist das 90€ wert, zusammen mit dem Stromvebrauch, das man dafür wieder auf andere Dinge verzichtet.
Beim selben Preis könnte man darüber reden, aber nicht solange sie teurer ist.

Mancko
2010-05-30, 12:45:01
Dafür sind diese dann schön leise :)
Auch die 470 ist leise und mit bisserl Veränderung im Gehäuse kein Unterschied zur 5870.
Das Argument leise ist zudem ausgelutscht. Zu allererst zählen Features, Performance, Treiber und Preis. Also wegen "leise" gibt kein Mensch 50 Euro mehr aus zumal die meissten beim Zocken andere Geräusche hören dürften als die Lüfter und die große Masse hat irgendwelche billigen Gehäuselüfter, die lauter als die Graka sind.
Sorry aber Silent Freaks sind nicht mal 5% der Käufer so leids mir tut. Aktuell ist die 470 die Karte der Wahl - so einfach ist das.

DrFreaK666
2010-05-30, 12:45:14
Die günstigste HD 5870 ist erst für 369€ gelistet und nicht einmal lieferbar:

http://www.pcgameshardware.de/preisvergleich/a465649.html


Lieferbare HD 5870 gibt es eben erst ab knapp 400€ (bei seriösen Händlern):

http://www.pcgameshardware.de/preisvergleich/?fs=hd+5870&x=0&y=0&in=


...

400€? so ein Quatsch
http://www.hoh.de/default.aspx?CF=preisvergleiche&CFID=geizhals&TY=item&ST=1&IT=117147&CT=9021&tduid=b09ab4255a867ccde4e1bc3687e7a9f4

Spasstiger
2010-05-30, 12:46:08
Was kann die 5870 besser, außer das sie sparsamer ist?
Das ist die entscheidende Frage, sie bietet neben der Sparsamkeit keinen Grund.
Sie ist weder schneller, noch zukunftstauglicher.

Die HD 5870 ist nicht schneller?

http://www.abload.de/img/587015uz.png

http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_470/13/#abschnitt_crysis_warhead

dildo4u
2010-05-30, 12:48:57
Die HD 5870 ist nicht schneller?

http://www.abload.de/img/587015uz.png

http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_470/13/#abschnitt_crysis_warhead
Mit AF Gemogel lasst doch Crysis einfach raus.

DrFreaK666
2010-05-30, 12:51:55
Auch die 470 ist leise und mit bisserl Veränderung im Gehäuse kein Unterschied zur 5870.
Das Argument leise ist zudem ausgelutscht. Zu allererst zählen Features, Performance, Treiber und Preis. Also wegen "leise" gibt kein Mensch 50 Euro mehr aus zumal die meissten beim Zocken andere Geräusche hören dürften als die Lüfter und die große Masse hat irgendwelche billigen Gehäuselüfter, die lauter als die Graka sind.
Sorry aber Silent Freaks sind nicht mal 5% der Käufer so leids mir tut. Aktuell ist die 470 die Karte der Wahl - so einfach ist das.

Leise sein ist kein Feature (Eigenschaft, Merkmal)??
Die HD5870 ist bis zu 15% schneller als eine GTX470 und kostet ca. 12% mehr.

Gast
2010-05-30, 12:54:10
Auch die 470 ist leise und mit bisserl Veränderung im Gehäuse kein Unterschied zur 5870.
Das Argument leise ist zudem ausgelutscht. Zu allererst zählen Features, Performance, Treiber und Preis. Also wegen "leise" gibt kein Mensch 50 Euro mehr aus zumal die meissten beim Zocken andere Geräusche hören dürften als die Lüfter und die große Masse hat irgendwelche billigen Gehäuselüfter, die lauter als die Graka sind.
Sorry aber Silent Freaks sind nicht mal 5% der Käufer so leids mir tut. Aktuell ist die 470 die Karte der Wahl - so einfach ist das.

Und warum ist dann die GTX470 so billig?
Wenn sie so eine gute Karte ist, müsste Sie sich locker für den Preis der 5870 verkaufen.
Und die große Masse kauft weder 5870 noch GTX 470.

Schlammsau
2010-05-30, 12:55:43
Die günstigste HD 5870 ist erst für 369€ gelistet und nicht einmal lieferbar:

http://www.pcgameshardware.de/preisvergleich/a465649.html


Lieferbare HD 5870 gibt es eben erst ab knapp 400€ (bei seriösen Händlern):

http://www.pcgameshardware.de/preisvergleich/?fs=hd+5870&x=0&y=0&in=


Ich jedenfalls würde den Fanboyaufschlag für die HD 5870 nicht zahlen wollen. Denn die 60-90€ die man für eine HD 5870 mehr zahlt, wird man ganz sicher nicht über eine günstigere Stromrechnung wieder reinholen, jedenfalls nicht innerhalb eines Jahres! Zumal die GTX 470 bis auf die Lautheit und den Stromverbrauch das insgesamt bessere Paket liefert: Besser Treiber (auch alte Spiele laufen problemlos), weniger Treiberbugs, deutlich besseres AF, SGSSAA in DX9, DX10, DX11, viel höhere Tesselationsleistung, PhysX und kein Grey-Screen ;)

Noch ganz bei der Sache?
http://www.pixmania.com/de/de/5020086/art/pixmania/radeon-hd-5870-vapor-x-1.html?srcid=47&Partenaire=geizhals&CodePromo=oui
VaporX ab 340€ lieferbar....Pursche! ;)

Aber nochmal, trotzdem ist die 5870 zu teuer, ich würde sie erst wieder empfehlen, wenn sie unter 320€ ist!

Und ja ich würde bei Pix bestellen, ich hab dort schon mal eine Grafikkarte für sehr wenig Geld geschossen.

DrFreaK666
2010-05-30, 12:56:52
Noch ganz bei der Sache?
http://www.pixmania.com/de/de/5020086/art/pixmania/radeon-hd-5870-vapor-x-1.html?srcid=47&Partenaire=geizhals&CodePromo=oui
VaporX ab 340€ lieferbar....Pursche! ;)

Pixmania ist für manche kein Händler wegen den Bewertungen...

Gast
2010-05-30, 12:57:39
Die HD 5870 ist nicht schneller?

http://www.abload.de/img/587015uz.png

http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_470/13/#abschnitt_crysis_warhead
CB misst am Ende wenige % Vorteil für die 5870.
Dabei wird ohne HQ oder sonstiger BQ relevanter Settings getestet.

Dein Crysis ist ein Titel, indem sogar pervers viel seitens AMD gecheatet wird. Ich kann mich noch an die 3DMark Zeiten erinnern, damals war cheaten unbeliebt.
Jedenfalls spielt dieses vercheatete Crysisresultat mit ins Ranking.

Angenommen CBs Ranking wäre korrekt, was ich wegen obigen nicht akzeptiere, das sind lächerlich wenige %, kein Grund für diesen Aufpreis.