PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 480 und 470: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 [23] 24 25 26 27 28

Gast
2010-05-13, 10:24:53
In Summe ist die 470 aber gute 5% unter der 5870 im Schnitt.
Da hilft kein schönreden, der Preis ist mittlerweile auch in diesen Regionen angekommen. 5870 ab ~350€ und die 470 ab 320€ lieferbar....


was ist denn 5% inGame schneller und wo inGame....ohman....ATI Leute das Hirn mit Balken zugerammelt.
So einige können einem wirklich nur Leid tun..

Was ist 5% OC von 600mhz.....und es wird 1:1 umgesetzt.

Schlammsau
2010-05-13, 10:32:26
Das ist schon richtig, Schlammsau nur:

1. 5% sind weit entfernt von "nicht den Hauch einer Chance" - und um diese Formulierung vom "Guru" ging es mir.

2. ist es interesant wie die 5% zustande kommen, DX9 vs DX11, min. FPS vs. avg. FPS usw:wink:

3. ist die 470 trotz der durchschnittlichen (siehe Punkt 2) 5% 30€ preiswerter als die 5870.

Ich find es halt nur unschön, wie Fermi, und speziell die GTX470 auf Teufel komm raus schlechtgeredet wird. Sie ist ein gutes Angebot und eine echte Alternative zur HD5870 - die auch eine sehr gute Grafikkarte ist - Nicht mehr und nicht weniger wollte ich sagen:)

Gruß Sam

Ich habe diese Aussage nie getroffen. 5% ist in Schlagweite zur 5870.

Aber das eigentliche Totschlagargument ist im Grunde ja nicht die Performance, sondern die Verlustleistung und die damit einhergehende Lautstärke. Auch wenn sie auf Augenhöhe mit der 5870 ist.

Gast
2010-05-13, 10:33:00
In Summe ist die 470 aber gute 5% unter der 5870 im Schnitt.
Da hilft kein schönreden, der Preis ist mittlerweile auch in diesen Regionen angekommen. 5870 ab ~350€ und die 470 ab 320€ lieferbar....

Ich halte die 5%, die sich auf die Avg. Fps beziehen, noch für sehr schmeichelhaft für NV. Dies ist auch ok so, denn durch die viel häufiger auftretenden Framedrops bei Ati wäre die HD5870 sonst gar nicht zur GTX470 konkurrenzfähig.
Ich frag mich auch teilweise bei welchen unseiösen Läden ihr Preise heraussucht. Bei ner HD5870 für 350€ bekomme ich wahrscheinlich einen mehrfachen Rückläufer oder muss 8 Wochen warten bis die Lieferbar ist. :rolleyes:

SamLombardo
2010-05-13, 10:46:29
Aber das eigentliche Totschlagargument ist im Grunde ja nicht die Performance, sondern die Verlustleistung und die damit einhergehende Lautstärke. Auch wenn sie auf Augenhöhe mit der 5870 ist.

Lautstärke ist wie vieles eine Frage des persönlichen Empfindens - Meine Gainward GTX470 ist im Win unhörbar und unter Vollast muss ich schon genau hinhören um sie zu "identifizieren". Sie ist definitiv merklich leiser als meine Vorgängerkarte (HD3870X2). Die Lautstärke ist mit die größte Überraschung gewesen, nach all den Horrorgeschichten die man so im Netz gelesen hat.

Stromverbrauch hingegen ist ein akzeptables Argument, geb ich zu (auch wenn der nun auch nicht sooo viele Prozente über der 5870 liegt)

Gruß Sam

Schlammsau
2010-05-13, 10:50:28
Lautstärke ist wie vieles eine Frage des persönlichen Empfindens - Meine Gainward GTX470 ist im Win unhörbar und unter Vollast muss ich schon genau hinhören um sie zu "identifizieren". Sie ist definitiv merklich leiser als meine Vorgängerkarte (HD3870X2). Die Lautstärke ist mit die größte Überraschung gewesen, nach all den Horrorgeschichten die man so im Netz gelesen hat.

Stromverbrauch hingegen ist ein akzeptables Argument, geb ich zu (auch wenn der nun auch nicht sooo viele Prozente über der 5870 liegt)

Gruß Sam

70 Watt (http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_470/21/#abschnitt_leistungsaufnahme) mehr Verlustleistung unter Last in Warhead bei 5-20% (http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_470/13/#abschnitt_crysis_warhead) weniger Leistung (abhängig von Auflösung und AA), als die 5870 ist schon arg inakzeptabel.
Aber auch die Lautstärke ist nicht von schlechten Eltern, sie ist satte 8db (http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_470/19/#abschnitt_lautstaerke) lauter als das Referenzmodell der 5870.

Da hilft wirklich kein schönreden mehr!

derguru
2010-05-13, 10:55:29
Das ist schon richtig, Schlammsau nur:

1. 5% sind weit entfernt von "nicht den Hauch einer Chance" - und um diese Formulierung vom "Guru" ging es mir.

2. ist es interesant wie die 5% zustande kommen, DX9 vs DX11, min. FPS vs. avg. FPS usw:wink:

3. ist die 470 trotz der durchschnittlichen (siehe Punkt 2) 5% 30€ preiswerter als die 5870.

Ich find es halt nur unschön, wie Fermi, und speziell die GTX470 auf Teufel komm raus schlechtgeredet wird. Sie ist ein gutes Angebot und eine echte Alternative zur HD5870 - die auch eine sehr gute Grafikkarte ist - Nicht mehr und nicht weniger wollte ich sagen:)

Gruß Sam

1.war die formilierung auf das review bezogen.

2.sind es im durchschnitt 10% wenn man sich noch andere reviews dazu stellt,wie kommt man eigentlich auf 5% aussage?

3.würde ich die 30 euro unterschied jetzt nicht so hervorheben,vor paar tagen gabs noch 5870 karten für 330 euro.

und beim stromverbrauch gerade im idle wird mir schlecht vorallem im 2 monitorbetrieb.(selbst ein 5870 triple sollte kaum mehr im idle verbrauchen wie eine 480gtx) unter last stört mich der mehr verbrauch nicht so,sie leistet auch mehr und hat mehr ram.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8021896&postcount=408

Raff
2010-05-13, 11:13:02
70 Watt (http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_470/21/#abschnitt_leistungsaufnahme) mehr Verlustleistung unter Last in Warhead bei 5-20% (http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_470/13/#abschnitt_crysis_warhead) weniger Leistung (abhängig von Auflösung und AA), als die 5870 ist schon arg inakzeptabel.
Aber auch die Lautstärke ist nicht von schlechten Eltern, sie ist satte 8db (http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_470/19/#abschnitt_lautstaerke) lauter als das Referenzmodell der 5870.

Da hilft wirklich kein schönreden mehr!

Cherry Picking. Crysis ist der einzige Totalausfall des Furby. Zwar ein gewichtiger, aber dennoch bleibt es Selektion, das Watt/Fps-Verhältnis gerade an diesem einen Spiel festzumachen. Wie sieht's denn in GTA 4 aus? ;) Ich hoffe ja immer noch, dass kommende "Wundertreiber" die enttäuschende Crysis-Leistung etwas anheben. Wobei sich diese "Leistung" auch aus AF zusammensetzt ...

MfG,
Raff

Gast
2010-05-13, 11:13:08
70 Watt (http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_470/21/#abschnitt_leistungsaufnahme) mehr Verlustleistung unter Last in Warhead bei 5-20% (http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_470/13/#abschnitt_crysis_warhead) weniger Leistung (abhängig von Auflösung und AA), als die 5870 ist schon arg inakzeptabel.
Aber auch die Lautstärke ist nicht von schlechten Eltern, sie ist satte 8db (http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_470/19/#abschnitt_lautstaerke) lauter als das Referenzmodell der 5870.

Da hilft wirklich kein schönreden mehr!

Wow echt genialer Vergleich:

1. Hast Du einen Spiel ausgesucht, bei dem Ati extrem überdurchschnittlich gut abscheidet.
2. Hast Du ein Spiel ausgesucht, bei dem man nachweislich deutlich sieht, dass Ati Performanceschummeleien auf Kosten der Bildqualität eingebaut hat.
3. Sind die Finalen Karten mittlerweile deutlich leiser als die ersten Modelle die getestet wurden.

Bioshock
2010-05-13, 11:17:37
Warum geht ihr auf Schlammsau´s geTr00Le überhaubt noch ein?

Gast
2010-05-13, 11:17:47
2.sind es im durchschnitt 10% wenn man sich noch andere reviews dazu stellt,wie kommt man eigentlich auf 5% aussage?

Bei den 10% kann ich nur zustimmen. Man sollte aber auch erwähnen, dass die GTX470 troz der 10% oftmals das flüssigere Spielerlebnis bietet. Denn ich spiele lieber mit 45 Avg. Fps und seltenen Framedrops auf 30Fps, anstatt mit 50 Avg. Fps und häufigen Framedrops auf 25Fps. :P

SamLombardo
2010-05-13, 11:19:55
2.sind es im durschnitt 10% wenn man sich noch andere reviews dazu stellt,wie kommt man eigentlich auf 5% aussage?


Laut PCGH Benches liegen die Karten gleich auf
http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/?page=19

Dass die 470 woanders 5-10 Prozent langsamer ist liegt einfach an der Auswahl der Games. Wie gesagt, ist es interesant wie die 5, 10 oder was auch immer Prozent zustande kommen (DX9 vs DX11, min. FPS vs. avg. FPS usw.)
Ein Haufen DX9 Games in die Benchliste aufzunehmen und dann festzustellen, dass die 5870 schneller ist, ist nur wirklich keine Kunst, weil sie das unter DX9 nunmal ist (mit Ausnahmen - siehe GTA4). Nur spielt das bei 70 vs 80 fps keine Rolle, bei 20 vs 30 fps in DX11 dagegen durchaus.

@Schlammsau, die 20% mehr Verbrauch unter Last sind nicht schön, sicher. Aber das Totschlagsargument zu dem es gemacht wird ist es auch nicht. Das ist weniger, als wenn Du beim Zocken eine Nachttischlampe anmachen würdest. Der Mehrpreis an Strom ist am Ende nicht mehr als ein einstelliger Eurobetrag. Schön ist es natürlich trotzdem nicht.

Sam

Raff
2010-05-13, 11:20:03
Warum geht ihr auf Schlammsau´s geTr00Le überhaubt noch ein?

Ich lasse falsche oder grenzwertige Aussagen nicht mehr unkommentiert stehen. Das war mal. Sowas hilft niemandem weiter, es entsteht nur ein falsches Bild.

MfG,
Raff

Schlammsau
2010-05-13, 11:24:07
Ich lasse falsche oder grenzwertige Aussagen nicht mehr unkommentiert stehen. Sowas hilft niemandem weiter, es entsteht nur ein falsche Bild.

MfG,
Raff

Habt ihr auch den Stromverbrauch von GTA4 getestet?

Raff
2010-05-13, 11:27:27
Nein. Aber ich schätze, dass das Spiel niedrigere Verbrauchswerte provoziert als Crysis – kein AA, relativ große CPU-Abhängigkeit, recht schwache Texturen, etc. PCGH nutzt nicht umsonst Race Driver: Grid, das lastet nach wie vor sehr gut aus.

MfG,
Raff

Schlammsau
2010-05-13, 11:30:14
Nein. Aber ich schätze, dass das Spiel niedrigere Verbrauchswerte provoziert als Crysis – kein AA, relativ große CPU-Abhängigkeit, recht schwache Texturen, etc. PCGH nutzt nicht umsonst Race Driver: Grid, das lastet nach wie vor sehr gut aus.

MfG,
Raff
Und warum habt ihr dann keine Grid FPS Vergleichwerte im Test, wenn ihr schon mit dem Game, den Stromverbrauch ermittelt!?

Ich habe nur die Warhead Vergleichwerte herangezogen, weil CB es auch getestet hat.

LovesuckZ
2010-05-13, 11:33:32
Die GTX470 kostet zZ deutlich weniger. Da ist das Stromverbrauchsagument vollkommender Bogus.

derguru
2010-05-13, 11:34:04
Laut PCGH Benches liegen die Karten gleich auf
http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/?page=19

Dass die 470 woanders 5-10 Prozent langsamer ist liegt einfach an der Auswahl der Games. Wie gesagt, ist es interesant wie die 5, 10 oder was auch immer Prozent zustande kommen (DX9 vs DX11, min. FPS vs. avg. FPS usw.)
Ein Haufen DX9 Games in die Benchliste aufzunehmen und dann festzustellen, dass die 5870 schneller ist, ist nur wirklich keine Kunst, weil sie das unter DX9 nunmal ist (mit Ausnahmen - siehe GTA4). Nur spielt das bei 70 vs 80 fps keine Rolle, bei 20 vs 30 fps in DX11 dagegen durchaus.

@Schlammsau, die 20% mehr Verbrauch unter Last sind nicht schön, sicher. Aber das Totschlagsargument zu dem es gemacht wird ist es auch nicht. Das ist weniger, als wenn Du beim Zocken eine Nachttischlampe anmachen würdest. Der Mehrpreis an Strom ist am Ende nicht mehr als ein einstelliger Eurobetrag. Schön ist es natürlich trotzdem nicht.

Sam

pcgh ist aber nicht maß der dinge und was soll diese dx9 these,das hat null damit zutun.nehme z.b. das guru3d review,da ist es nur ein dx9 game von 10,mach die augen auf.

PCGH_Raffael
2010-05-13, 11:34:54
Und warum habt ihr dann keine Grid FPS Vergleichwerte im Test, wenn ihr schon mit dem Game, den Stromverbrauch ermittelt!?

Ich habe nur die Warhead Vergleichwerte herangezogen, weil CB es auch getestet hat.

Der Benchmark-Parcours und das Testsystem wurden in Vorbereitung auf den Furby-Launch umgestellt (http://www.pcgameshardware.de/aid,707129/Grafikkarten-Test-mit-ueber-200-Benchmarks-Vorbereitung-auf-GTX-470/480/Grafikkarte/Test/). RD: Grid, bewährt und reproduzierbar, blieb zum Zwecke der Vergleichbarkeit mit älteren Verbrauchswerten.

MfG,
Raff

Mr. Lolman
2010-05-13, 11:43:36
Cherry Picking. Crysis ist der einzige Totalausfall des Furby.

Naja. Bei Crysis Warhead steht Fermi unter DX10 64bit eigentlich garnicht so schlecht da. (Gerade mit 8xAA hilft u.a. der zusätzliche Speicher). Und Crysis Warhead ist (momentan*) auch das einzige Spiel, wo die GTX480 beim Downsampling (3840x2400=>1920x1200) mit der HD5870 mithalten kann (auch wenn sich beide im absolut unspielbaren Bereich bewegen).


*Tests sind noch nicht alle durch.

pcgh ist aber nicht maß der dinge und was soll diese dx9 these,das hat null damit zutun.nehme z.b. das guru3d review,da ist es nur ein dx9 game von 10,mach die augen auf.

Bei Guru3D sind die NV-Karten im Schnitt immer schneller als bei anderen Reviewseiten. :|

derguru
2010-05-13, 11:48:31
Bei Guru3D sind die NV-Karten im Schnitt immer schneller als bei anderen Reviewseiten. :|

streich das guru3d und füge pcgh rein,dann passt es.

Gast
2010-05-13, 11:48:51
70 Watt (http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_470/21/#abschnitt_leistungsaufnahme) mehr Verlustleistung unter Last in Warhead bei 5-20% (http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_470/13/#abschnitt_crysis_warhead) weniger Leistung (abhängig von Auflösung und AA), als die 5870 ist schon arg inakzeptabel.

Da hilft wirklich kein schönreden mehr!

Gibt es denn in der Praxis überhaupt 5870er die so wenig verbrauchen?

http://www.computerbase.de/artikel/grafikkarten/2010/kurztest_zwei_radeon_hd_5870/5/#abschnitt_sonstige_messungen

30W mehr bei 3% mehr Chiptakt?

Da hilft wirklich kein schönreden mehr, die 5870 ist auch kein Sparwunder.

Gast
2010-05-13, 11:51:54
Gibt es denn in der Praxis überhaupt 5870er die so wenig verbrauchen?

http://www.computerbase.de/artikel/grafikkarten/2010/kurztest_zwei_radeon_hd_5870/5/#abschnitt_sonstige_messungen

30W mehr bei 3% mehr Chiptakt?

Da hilft wirklich kein schönreden mehr, die 5870 ist auch kein Sparwunder.

Wahrscheinlich hat Powercolor die Spannung erhöht.
Ein Sparwunder ist die 5870 sowieso nicht. Nur weil die Konkurrenz totale Stromverschwender am Markt hat, wird eine andere Karte nicht zum Sparwunder.

puntarenas
2010-05-13, 11:51:56
Downsampling (3840x2400=>1920x1200)

Besonders spannend fände ich in dem Zusammenhang, ob man mit "Q" gegenüber "HQ" im Zusammenhang mit Downsampling einen kleinen Schub herausholen kann, denn laut SSAA-Artikel sollen ja gerade die TMUs hier stark limitieren. Dazu müsste man natürlich auch anschließend einen Bildqualitätsvergleich durchführen, denn wenn das Ergebnis nicht ansprechend ist, nutzt auch die Performance nichts.

Mr. Lolman
2010-05-13, 11:52:25
Gibt es denn in der Praxis überhaupt 5870er die so wenig verbrauchen?

http://www.computerbase.de/artikel/grafikkarten/2010/kurztest_zwei_radeon_hd_5870/5/#abschnitt_sonstige_messungen


Liegt wohl eher daran, dass höher getaktete Nichtreferenzmodelle tw. auch mit ner höheren GPU-Spannung ausgeliefert werden.

Gast
2010-05-13, 11:52:53
Naja. Bei Crysis Warhead steht Fermi unter DX10 64bit eigentlich garnicht so schlecht da. (Gerade mit 8xAA hilft u.a. der zusätzliche Speicher). Und Crysis Warhead ist (momentan*) auch das einzige Spiel, wo die GTX480 beim Downsampling (3840x2400=>1920x1200) mit der HD5870 mithalten kann (auch wenn sich beide im absolut unspielbaren Bereich bewegen).


*Tests sind noch nicht alle durch.

Das ändert aber nichts daran, dass bei Crysis Warhead in 1920x1200 die TMUs die GTX470 limitieren und die HD5870 keine Probleme dieser Art hat. Es kann ja sein, dass bei 3840x2400 irgendwas die HD5870 limitiert, dass hat aber nichts mit der Diskussion zu tun. Bei 8xAA scheiden die Fermis ja immer besser ab, als bei 4x oder ohne.



Bei Guru3D sind die NV-Karten im Schnitt immer schneller als bei anderen Reviewseiten. :|

Warum schneidet die GTX470 dann bei dem Test von Guru3D, über den wir reden nicht so gut ab? :rolleyes:

Mr. Lolman
2010-05-13, 11:57:17
Besonders spannend fände ich in dem Zusammenhang, ob man mit "Q" gegenüber "HQ" im Zusammenhang mit Downsampling einen kleinen Schub herausholen kann, denn laut SSAA-Artikel sollen ja gerade die TMUs hier stark limitieren. Dazu müsste man natürlich auch anschließend einen Bildqualitätsvergleich durchführen, denn wenn das Ergebnis nicht ansprechend ist, nutzt auch die Performance nichts.

Ich teste die Fermis alle mit Defaulteinstellungen, also Q+TriOpt. Fürn AF Vergleich werd ich wahrscheinlich Just Cause 2 heranziehen und default vs. HQ in 1920x1200 und in 3840x1200 testen.

puntarenas
2010-05-13, 11:58:52
Thx. :up:

Gast
2010-05-13, 11:58:57
16xAF ist nicht Default.

Mr. Lolman
2010-05-13, 12:01:57
16xAF ist nicht Default.

Ich stell ich Treiber auch nix um. AF kommt nur über die Ingamesettings zustande (hat den Grund, dass etwaige, ggf. unsichtbare (!) TS-Optimierungen die Leistung nicht verzerren können, und natürlich, dass sich Gäste nicht darüber mokieren können, dass ich nicht mit Treiberdefaultsettings teste*)



*ausgenommen JustCause 2 und Bioshock2 => bei beiden hab ich 8xQ im Treiber aktiviert, da ersteres ingame nur 8xCSAA anbietet und zweiteres garkeine AA Optionen mitbringt. Aber den AF-Regler hab ich nicht angegriffen. ;)

Raff
2010-05-13, 12:09:28
Just Cause 2 bietet ingame "8x" und "8x CSAA". Du hast Bilder und Benchmarks gemacht, die besagen, dass das gleiche Ergebnis vorliegt?

MfG,
Raff

Gast
2010-05-13, 12:09:48
@Mr. Lolman: Ist aber irgendwie ein denkbar ungünstiger Zeitpunkt für ein Review. In ca. einer Woche erscheint der 256ger Treiber und dann muss eh alles neu begutachtet werden.

Mr. Lolman
2010-05-13, 12:12:29
@Mr. Lolman: Ist aber irgendwie ein denkbar ungünstiger Zeitpunkt für ein Review. In ca. einer Woche erscheint der 256ger Treiber und dann muss eh alles neu begutachtet werden.

Der Treiber hätte schon längst erscheinen sollen, und momentan gibts nichtmal eine Preview Version...

Eigentlich hatten wir alle damit gerechnet, dass wir schon mit dem 256er Testen können, v.a. nachdem sich die GraKalieferung um fast ne Woche verzögert hat. ;(

Just Cause 2 bietet ingame "8x" und "8x CSAA". Du hast Bilder und Benchmarks gemacht, die besagen, dass das gleiche Ergebnis vorliegt?

MfG,
Raff
Bei der Version 1.0.0.1 gibts bei mir nur 2x, 4x, 8x und 16xAA...

Raff
2010-05-13, 12:20:57
Bei der Version 1.0.0.1 gibts bei mir nur 2x, 4x, 8x und 16xAA...

Ist das eine Non-Steam-Ausgabe? Bei mir, stets aktuelle Steam-Version, gibt's beides.

MfG,
Raff

Gast
2010-05-13, 12:24:31
Der Treiber hätte schon längst erscheinen sollen, und momentan gibts nichtmal eine Preview Version...

Am 3.5 hat ein NV Mitarbeiter geschrieben, dass es wohl noch 2 Wochen dauern wird. Hängt halt davon ab wie lange das QA Team braucht. Ich hoffe mal er behält recht und die Beta kommt nächste Woche. Eigentlich sollte der Treiber ja schon zum Release der GTX480/470 fertig sein. :freak:

Eigentlich hatten wir alle damit gerechnet, dass wir schon mit dem 256er Testen können, v.a. nachdem sich die GraKalieferung um fast ne Woche verzögert hat. ;(

Hoffentlich wird der 256ger dann auch der erste Performancetreiber.

Mr. Lolman
2010-05-13, 12:25:22
Ist das eine Non-Steam-Ausgabe?

Jepp.

derguru
2010-05-13, 12:29:18
bei just cause 2 gibt es bei mir auch nur 2x,4x,8x,16x.

csaa gibt es in der demo.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7915830&postcount=26

Klingone mit Klampfe
2010-05-13, 12:58:52
[...]

corvus
2010-05-13, 13:01:20
ich hab im idle (geändertes Bios) mit einem und 2 Monitore 0.852v anliegen...bei ATI geht das glaube nicht mit 2 Monitoren....
Ich weiß auch ehrlich gesagt nicht wie man sich aufregen kann über Verbrauch wenn man CF + NV Karte für PHx hat.
Oder eine 5870 OC mit über 2Volt.....


Zum Crisis und WH Test denn kann man doch vergessen (ich jedenfalls, weis ja nicht wie es bei anderen ist), hier fängt der 1. Durchlauf immer um ~ 14 FPS an......ab dem zweiten sind das schon an der Stelle um 30.......und das schlägt sich sich nieder, wenn ich nach dem Bench gehen würde und der hätte ne Aussage könnte ich nicht in 1920 spielen.

Wenn dann macht das nur Sinn inGame zu testen.

Gast
2010-05-13, 13:44:08
Gibt es denn in der Praxis überhaupt 5870er die so wenig verbrauchen?

http://www.computerbase.de/artikel/grafikkarten/2010/kurztest_zwei_radeon_hd_5870/5/#abschnitt_sonstige_messungen

30W mehr bei 3% mehr Chiptakt?

Da hilft wirklich kein schönreden mehr, die 5870 ist auch kein Sparwunder.

Gibt Karten mit 1,16V und mit 1,21V meistens die Coustomdinger

Raff
2010-05-13, 14:04:53
bei just cause 2 gibt es bei mir auch nur 2x,4x,8x,16x.

csaa gibt es in der demo.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7915830&postcount=26

Auf der Radeon? :ulol:

Sehr kurios. Auf meiner GTX 280 hier (W7n x64) habe ich in der Steam-Full, die sich auch als 1.0.0.1 meldet, 8x und 8x CSAA ...

ich hab im idle (geändertes Bios) mit einem und 2 Monitore 0.852v anliegen...

Mit was hast du das gemacht? Nibitor?

Gibt Karten mit 1,16V und mit 1,21V meistens die Coustomdinger

So ist es. Neue Custom-Designs mit OC werden gern mit mehr VGPU befeuert. Powercolor fällt besonders durch relativ hohe Verbrauchwerte auf.

MfG,
Raff

derguru
2010-05-13, 14:10:47
ich hab im idle (geändertes Bios) mit einem und 2 Monitore 0.852v anliegen...bei ATI geht das glaube nicht mit 2 Monitoren....
Ich weiß auch ehrlich gesagt nicht wie man sich aufregen kann über Verbrauch wenn man CF + NV Karte für PHx hat.

du sagst es bei 3 karten;)

Auf der Radeon? :ulol:


nö auf einer nv,würde ja sonst nicht viel sinn machen;D

corvus
2010-05-13, 14:35:59
@Raff
zb.
http://www.abload.de/thumb/unbenannt6b44.png (http://www.abload.de/image.php?img=unbenannt6b44.png)
mittlerweile als Version wo der 2 shader Eintrag auto angepaßt wird.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=482122
schreib ihn an, da bekommste auch den Editor, wer brauch Nibitor fürne Spende von 25 Ören und dabei ist max 10% auf seinem Mist gewachsen der DrecksSchnulli.

corvus
2010-05-13, 14:37:30
[QUOTE=derguru;8024286]du sagst es bei 3 karten;)

ich hab zwar nicht dich gemeint :D aber viel weniger :D Verbrauch haste nicht als ich mit 1x 900mhz und 1.1 Voltchen :D

booaaahhhh was kost die Welt fürn Feature um Posts auto zusammen zufügen....manman

hq-hq
2010-05-13, 14:49:52
Cherry Picking. Crysis Wie sieht's denn in GTA 4 aus? ;)

denke man sollte world of warcraft nehmen weil es wohl so einen hohen verbreitungsgrad hat. es soll immerhin 11 millionen süchtige geben.:freak:
http://www.pcgameshardware.de/aid,743499/Geforce-GTX-470-und-480-im-Benchmark-Test-mit-World-of-Warcraft/Crosspromo-PCG/Test/

Blaire
2010-05-13, 20:37:07
GTX 480 SLI / 3 WaySLI / 4Way SLI Review

http://lab501.ro/placi-video/nvidia-gtx480-performanta-in-configuratii-multi-card

LovesuckZ
2010-05-13, 22:34:11
"With our new Fermi-class GPUs in full production, NVIDIA's key profit drivers are fully engaged," said Jen-Hsun Huang, NVIDIA CEO and president. "We shipped a few hundred thousand Fermi processors into strong consumer demand. Our Quadro business for workstations grew strongly, fueled by pent up demand from enterprise customers and new growth markets like video editing. And we had record revenue from Tesla processors for high-end servers. We anticipate continued strength in these businesses over the coming quarters."
http://phx.corporate-ir.net/phoenix.zhtml?c=116466&p=irol-newsArticle&ID=1426701&highlight=

nVidia kann Stolz sein: Im zweitschwächsten Quartal haben sie 1 Milliarde Umsatz generiert und sind gegenüber dem stärksten Quartal gewachsen.
Schade, man kann nicht aus dem PDF kopieren, dann so: nVidia sagt, dass die zurückgegangenen Verkäufe im Mainstream durch GF100 aufgefangen wurden und dass man vorallem am ende des Finanzquartals bessere Yields erzielt hat als man erwartete.
Nazulesen hier: http://phx.corporate-ir.net/External.File?item=UGFyZW50SUQ9NDYxNTV8Q2hpbGRJRD0tMXxUeXBlPTM=&t=1

Raff
2010-05-13, 22:53:24
Die richtige Kohle (und Marktanteile) wird aber erst mit dem GF104 gemacht. Die "Brot und Butter"-Karten, auf die jeder Nvidia-Partner wartet, folgen erst noch.

MfG,
Raff

LovesuckZ
2010-05-13, 22:55:13
Die richtige Kohle wird aber erst mit dem GF104 gemacht.

MfG,
Raff

Noch mehr Kohle? Dieses Q1 Ergebnis müsste das dritt bzw. viertbeste in ihrer Geschichte sein. Q1 wohlbemerkt. Das zweitschwächste im ganzen Jahr.

Gast
2010-05-13, 23:19:07
Für 320 € ist die GTX 470 ja eigentlich ein Schnäppchen, dafür dass sie im Mittel so schnell wie eine HD 5870 ist, die ja für unter 350 € nirgends lieferbar ist und noch einige Nachteile gegenüber der GTX 470 hat: schlechteres AF, fehlendes CUDA, PhysX, Treiber, geringerer VRAM etc. Bleibt eigentlich nur ein Nachteil: der Stromverbrauch. Ich habe nur ein Enermax Liberty 400 Watt und einen i7 @ OC (mäßig, 2,53 GHz @ 3,2 GHz mit "Undervolting", also 130 Watt knackt die CPU wohl nicht) im Rechner. Daher interessiert mich, wieviel "Undervolting" bei der GTX 470 @ Standardtaktraten möglich ist und wieviel Watt das letztendlich auch ausmacht. Hat hier irgendjemand ein Energiemessgerät und eine GTX 470 und könnte das netterweise mal ausprobieren? Ist da noch viel Luft nach unten?

mapel110
2010-05-13, 23:27:03
@Gast
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8011527&postcount=5203
Hier hats jemand mit der 480er getestet.

LovesuckZ
2010-05-13, 23:29:51
Ich habe folgendes System:
Deneb X3@3400Mhz
8GB DDR2
GTX480
500GB Festplatte
780a Motherboard

Stromverbrauch unter Furmark ist ca. 460-480 Watt. Beim Spielen komme ich auf ca. 410Watt. Eine GTX470 sollte ca. 70 Watt weniger verbrauchen.
Mit 0,938V statt 1V verringert sich der Verbrauch um ca. 50 Watt - jeweils in Furmark und Spielen.

Gast
2010-05-13, 23:33:14
@Gast
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8011527&postcount=5203
Hier hats jemand mit der 480er getestet.

Den Test verstehe ich nicht. Er schreibt "Windows idle" und dann sowas wie "135 MHz Memory statt 1848 MHz". Aber im Windows-Idle taktet die Karte doch sowieso niemals auf 1848 MHz hoch? Die hat doch gewisse "Idle-Taktraten"?!

Gast
2010-05-13, 23:35:34
Mit 0,938V statt 1V verringert sich der Verbrauch um ca. 50 Watt - jeweils in Furmark und Spielen.

Das wäre ja phänomenal. Damit wäre die GTX 470 unter Furmark bei etwa 180 Watt. Gibt's irgendwo eine Quelle dafür bzw. eine Statistik, wie wahrscheinlich es ist, dass sich die GTX 470 mit 0,938 V stabil betreiben lässt?

LovesuckZ
2010-05-13, 23:38:49
Das wäre ja phänomenal. Damit wäre die GTX 470 unter Furmark bei etwa 180 Watt. Gibt's irgendwo eine Quelle dafür bzw. eine Statistik, wie wahrscheinlich es ist, dass sich die GTX 470 mit 0,938 V stabil betreiben lässt?

Standardspannung der GTX470 ist irgendwo bei 0,95V. Der größte Undervolting-Stopper ist der Speicher, dessen Spannung ist an die Core-Spannung gekoppelt. Ist daher schwer zu sagen, wo man bei einer GTX470 landen könnte.

hq-hq
2010-05-13, 23:42:57
unterhalb 0,950v macht bei mir der speicher in zumindest einer anwendung (unigine) sichtbar probleme.

das absenken von 0,975v auf 0,950v bringt in 3d vielleicht 10 watt ersparnis. ein 400watt liberty wird sehr wahrscheinlich auf dauer leiden.

aber eigentlich sieht es nicht schlecht aus wenn man auf die daten schaut:
http://www.hardware-mag.de/artikel/380/04.jpg

vermutlich wird es laufen, 30amp auf 12v sollten reichen, aber OC wird 100%ig ein problem

-> mein amacrox mit 2x18amp auf 12v (schätze so 30amp max) hat ohne OC der graka ausgereicht hab mir dann aber ein 750watt seasonic geholt... sicher ist sicher weil mit oc gabs resets in metro und vantage

Gast
2010-05-13, 23:51:39
hq-hq: Wir haben ja recht ähnliche Systeme. Gigabyte-P55-Boards (ich habe das P55A-UD3R), einen Lynnfield (ich habe einen X3440 @ 3,2 GHz @ 1,14 V), 4 GB G.Skill-RAM (ich habe die ECOs @ 1,45 V mit 7-8-7-22-1-Timings @ 800 MHz). Du hast wohl kein Energiemessgerät. Mich würde ja brennend interessieren, was dein System mit der GTX 470 so verbraucht.

Funktionieren würde es vermutlich schon bei mir, aber eben sehr eng werden. 130 Watt CPU + 230 Watt GPU (@ default) = 360 Watt auf der 12-V-Schiene und schon voll belastet. Ich habe auch noch 3 HDDs, 2 Gehäuselüfter und eine X-Fi ...

hq-hq
2010-05-13, 23:58:06
ich hab eins, der rechner braucht idle 149watt und unter last das höchste was das lahme messgerät bisher angezeigt hat waren 399watt mit OC 1,050v 815/1630/1970mhz

gtx @ stock gibts peaks bis vielleicht 320watt (altes NT 340watt ~84% effizienz, das neue hat so ~89%) wäre das messgerät nicht so lahm würde es aber sicher deutlich mehr anzeigen

wenn ich zocke mit gtx @ 745/1490/1750mhz sinds jetzt im schnitt 290-350watt in games und benchis

---

auf dauer würd ich lieber ein neues nt holen, ich hab auch 7 gehäuselüfter, 3 interne festplatten, 10 usb geräte, audigy2 und ne nexus-s am/im rechner hängen und es hat halt ohne oc der graka ausgereicht. falls du dir überlegst ein sparsameres und stärkeres nt zu holen ein paar tipps hätten wir hier auf lager

Gast
2010-05-14, 00:06:10
ich hab eins, der rechner braucht idle 149watt und unter last das höchste was das lahme messgerät bisher angezeigt hat waren 399watt mit OC 1,050v 815/1630/1970mhz

Moment, damit ich das richtig verstehe: Mit einer GTX 470 @ OC und dem Lynnfield aus deiner Signatur @ 4,2 GHz? Aber wohl kaum Furmark + LinX, oder? Sonst würde es bei mir ja locker reichen, zumal das nur sekundärseitige Werte sind. Bei 80 % WG wären das am NT ja nur 320 Watt.

hq-hq
2010-05-14, 00:06:53
nein kein furmark, das war mir damals schon klar das das zum reset führen würde. mit dem neuen nt könnte ich allerdings mal furmark laufen lassen...

die spitzenwerte die grössten hatte ich bei vantage im ersten 3d bensch wenn die schnalle ins wasser klatscht und den höchsten dauerhaften bei 3dmark06 bei dem wie hiess das ... das flugschiff mit dem wasserdrachen - canyon flight genau

-> genau, die genannten leistungsaufnahmen sind lediglich praxiswerte die ich unterm zocken oder benchen abgelesen hab

Gast
2010-05-14, 00:12:38
nein kein furmark, das war mir damals schon klar das das zum reset führen würde. mit dem neuen nt könnte ich allerdings mal furmark laufen lassen...

Ja, das würde mich mal brennend interessieren. Ich gebe auch schonmal eine Schätzung ab für deinen i5 @ 4,2 GHz + GTX 470 @ OC: 500 Watt ± 20 Watt.

hq-hq
2010-05-14, 00:23:36
also furmark läuft grad, furmark lastet nur einen core zu 100% aus, es schwankt zwischen 339-360watt... hmmm

die gpu ist wärmer geworden, liegt jetzt bei 89°C... jetzt schwankt es zwischen 353-375watt

ich such mal diesen super pi verschnitt moment

ja das verträgt sich nicht gut weil 1 core für furmark gebraucht wird ... moment das muss anderst gehen...

3x super pi auf 3 cores aufgeteilt + 1x furmark sind rund 400watt peak 422watt

gtx470@745/1490/1750mhz und core i5@4200mhz

ich kann mich täuschen, aber ist es hier gerade spürbar wärmer geworden ??

---> mit deinem alten liberty würde da wohl 440-480watt stehen

Gast
2010-05-14, 00:24:50
Du brauchst LinX: http://www.xtremesystems.org/forums/showthread.php?t=201670

LovesuckZ
2010-05-14, 00:26:39
Das interessanteste ist: Selbst mit nur einer Core-Auslastung erzeugt Furmark die meiste Last. Irgendwie logisch, da in Spielen entweder die CPU oder die GPU limitiert.

Gast
2010-05-14, 00:32:11
ja das verträgt sich nicht gut weil 1 core für furmark gebraucht wird ... moment das muss anderst gehen...

Achso, dann würde ich Prime95 nehmen. Unter Custom auf 3 Threads einstellen.

Gast
2010-05-14, 00:38:28
ich kann mich täuschen, aber ist es hier gerade spürbar wärmer geworden ??

;D :ulol:

Also 422 peak fände ich ja auch super, dafür, dass dein i5 @ 4,2 GHz sicher mehr verbraucht als mein i7 @ 3,2 GHz und deine GTX 470 auch @ OC ist (und ich sie sogar noch undervolten will). Das wären ja gerade mal 360 Watt primärseitig bei 85 % WG.

hq-hq
2010-05-14, 00:55:11
hehe, also mit furmark wird die thermi zum heizlüfter ^^
was mir aufgefallen ist das die fps in furmark zwischen ca 60 und 120 rauf und runterschwanken,
bei 120fps hat's natürlich am meisten angezeigt, also die 422watt.
(hatte im treiber unter anderem 8xfsaa +4x supersampling aktiviert, glaub das übergeht furmark wohl)

wenn man also meinem supergeilen leistungsmesser vertraut klappts auch mit deinem alten liberty.

wenn es mal soweit ist und die gtx drinsteckt lass mal vantage laufen, klappt das dann ist vermutlich alles supi

Byteschlumpf
2010-05-14, 01:32:32
Wie laut ist denn eine GTX470 nun wirklich?
Es wird ja behauptet, dass die Serienmodelle leiser sein sollen, als die Testmodelle. Da es für mich eine sehr wichtige CUDA-Anwendung gibt, die mindestens Version 1.1 und über 768MB VRAM benötigt und keine meiner G80 und G92 Karten diesen Anforderungen genügt, bin ich sehr an der GTX470 interessiert.
Meine 8800GTS640 nutze ich als PhysX-Karte, somit stellt sich die Frage nach dem IDLE-Verbrauch wohl nicht mehr wirklich für mich und mein Corsair TX750W kommt bestens mit den übertakteten Komponenten klar! ^^

hq-hq
2010-05-14, 01:41:19
in 3d ist sie klar hörbar. laut ist relativ...
http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/?page=2

Byteschlumpf
2010-05-14, 01:59:41
Bei 37° Lüfterdrehzahl ist die HD5850 jedenfalls auch aus dem Gehäuse eindeutig rauszuhören. Laut ist wirklich relativ! ;)
Seit meinem neuen Gehäuse, ein "Antec Three Hundred", dreht der GPU-Lüfter Dank voller Lüfterausstattung, z.B. bei "Unigine Heaven 2.0", kaum noch über 30% auf - trotz OC auf 810/1110, was natürlich allen anderen Grakas gut bekommen sollte. :)
Wie bist du mit deinem Exemplar bisher insgesamt zufrieden (Pro und Contra)?

hq-hq
2010-05-14, 02:28:01
hmm... im vergleich zur gtx260 be

+8x fsaa und/oder supersampling bei guten fps nutzbar
+nicht wirklich lauter als meine gtx260
+super OC mit fast 1:1 mhz/fps erhöhung
+niedriger idle verbrauch
+vollversion von dark void oder streetfighter ist mit dabei, eine vollversion ist pflicht find ich
+cuda, tesselation
+dx11

-finde ich ist sie in 3d entweder zu heiss ~92°C oder mit modifizierter lüftersteuerung zu laut ^^ ich hab mich für die erhöhte lautstärke entschieden
-in metro2033 reicht eine gtx nicht auf max einstellungen
-/+für höheres OC musste ich mir ein stärkeres NT holen, dafür ist in idle der stromverbrauch um ca 10watt gefallen dank besserer effizienz
-hängt der beamer mit an der graka ist der idle verbrauch böse

ja bin insgesamt zufrieden :) preis leistung ist gut

ob es sich lohnt auf leisere custom kühler zu warten würde ich vermuten, die verfügbarkeit
scheint gut zu bleiben also vielleicht noch etwas ausharren. schätze du würdest das
referenz-modell aber gut überleben ^^
- nach dem pcgh vergleich wär die gtx470 aber in 3d wohl leiser als deine 5850...

corvus
2010-05-14, 08:03:13
wieso machts du dir kein passendes Bios, du mußt doch nur rausfinden was deine Karte in P3 und P8 schafft, das ist jeweils ein Unigine Durchlauf.

skampi
2010-05-14, 08:59:44
Bei 37° Lüfterdrehzahl ist die HD5850 jedenfalls auch aus dem Gehäuse eindeutig rauszuhören. Laut ist wirklich relativ! ;)
Seit meinem neuen Gehäuse, ein "Antec Three Hundred", dreht der GPU-Lüfter Dank voller Lüfterausstattung, z.B. bei "Unigine Heaven 2.0", kaum noch über 30% auf - trotz OC auf 810/1110, was natürlich allen anderen Grakas gut bekommen sollte. :)
Wie bist du mit deinem Exemplar bisher insgesamt zufrieden (Pro und Contra)?



Ich bin von der 5850 umgestiegen, die GTX470 ist idle wie auch unter Last deutlich lauter. In 3D wäre das Geräusch bei gleicher Lautstärke angenehmer, da tiefer. Allerdings bricht nach einer Weile wirklich ein kleiner Orkan im Rechner los...

skampi
2010-05-14, 09:02:01
wieso machts du dir kein passendes Bios, du mußt doch nur rausfinden was deine Karte in P3 und P8 schafft, das ist jeweils ein Unigine Durchlauf.

Unigine wie auch die ganzen anderen Bechmarks geben nur Auskunft ob es eben in Unigine etc. stabil läuft. Spiele mal 1-2 Stunden ArmA2 und die Kiste k*ckt mit wunderschönen Regenbogenfarben auf dem Monitor weg...

PCGH_Raffael
2010-05-14, 12:07:07
Wie laut ist denn eine GTX470 nun wirklich?
Es wird ja behauptet, dass die Serienmodelle leiser sein sollen, als die Testmodelle.

Ich kann nur für die PC Games Hardware sprechen, aber bei uns ist's so: Die Retailkarten des Typs GTX 480 sind deutlich leiser als das Testmuster von Nvidia, während alle von uns getesteten Handelskarten der GTX 470 deutlich lauter sind als das Sample.

In Zahlen: Eine Retail-480 rauscht mit 4,6 bis 4,8 Sone unter Spielelast. Die GTX 470 bringt es unerfreulicherweise auf ähnliche Werte zwischen 4,7 und 4,9 Sone. Die sparsamere GPU im Vergleich zur GTX 480 muss aufgrund des anderen Kühldesigns (kleinere, nicht hervorstehende Heatpipes, kein exponiertes Kühlmetall) lautstärker belüftet werden.

Im Heft 06/2010 führen wir alle Beobachtungen aus und testen Retailkarten. Mittlerweile haben wir uns anhand von 7 Karten davon überzeugt, dass stets die genannten Werte erreicht werden.

MfG,
Raff

Megamember
2010-05-14, 12:11:23
Das mit der Lautstärke liegt bestimmt nur an der Biosversion, gibt ja schon ein paar (10.00.0X,1A.00.0X, 21.00.0X). Mit dem Afterburner kann man sein Lüfterprofil ja auch genauso anpassen wie es einem gefällt.

corvus
2010-05-14, 15:32:36
http://itshootout.com/r-343/asus-gtx-480-15gb-vs-sapphire-toxic-radeon-hd-5870-2gb/

Bissel Futter für die Fan Abteilungen :-)

hq-hq
2010-05-14, 15:40:19
naja für die lautstärke/oc brauch ich nicht unbedingt ein anderes bios, der afterburner ist ziemlich klasse find ich, man kann super damit spielen.
einzig der dual moni betrieb, das werd ich bald mal anpacken...

Schlammsau
2010-05-14, 16:10:30
http://itshootout.com/r-343/asus-gtx-480-15gb-vs-sapphire-toxic-radeon-hd-5870-2gb/

Bissel Futter für die Fan Abteilungen :-)


http://itshootout.com/ben/gtx480v5870/avp.gif

Wo ist der DX11-Vorteil hin? :freak:

y33H@
2010-05-14, 16:11:37
In eine HTW-lastigere Szene entflohen :P

Schlammsau
2010-05-14, 16:12:22
In eine HTW-lastigere Szene entflohen :P

Der war gut! :tongue:

Kann es sein, dass DX11 (Tesselation) Titel überdurchschnittlich stark von mehr VRAM profitieren?
Kommt mir mittlerweile so vor, weil AvP jetzt ein ähnliches Verhalten wie Metro zeigt.

Edit: Argh ich sehe gerade, die Radeons sind allgemein in AvP stärker als die GeForces. Hab den Test von Hardwarecanucks gerade gelesen.

LovesuckZ
2010-05-14, 16:17:52
naja für die lautstärke/oc brauch ich nicht unbedingt ein anderes bios, der afterburner ist ziemlich klasse find ich, man kann super damit spielen.
einzig der dual moni betrieb, das werd ich bald mal anpacken...

Hab mein Fanprofil auch angepasst. Mit 0,938V bleibt meine Karte bei maximal 80°C und 66%.

/edit: Wird PCGH.de kein DX11 Special bringen? ich habe echt gedacht, man bencht GF100 durch Metro2033 und AVP wie Cypress. Schade.

corvus
2010-05-14, 16:20:45
http://itshootout.com/ben/gtx480v5870/avp.gif

Wo ist der DX11-Vorteil hin? :freak:

keine Ahnung, ich zock das nur mit + 2x SGASSAA und 16 AF HQ.... allerding hab ich da auch noch mehr FPS...OC glaube :-)

DrFreaK666
2010-05-14, 16:20:56
Hab mein Fanprofil auch angepasst. Mit 0,938V bleibt meine Karte bei maximal 80°C und 66%.

/edit: Wird PCGH.de kein DX11 Special bringen? ich habe echt gedacht, man bencht GF100 durch Metro2033 und AVP wie Cypress. Schade.

Spielt überhaupt jemand noch AVP und Metro?? :freak:

hq-hq
2010-05-14, 16:23:30
avp müsst ich noch, metro schon 2x durch :(
habs schon daliegen das avp aber brauch noch kumpel sein steam acc.
is ziemlich geil mit wirbelsäule rausreissen usw...

@LovesuckZ der kühler ist zu klein bei mir, für 80°C brauch ich eher 70%

Schlammsau
2010-05-14, 16:26:27
Der vielversprochene DX11-Vorteil ist.....naja.....ein Witz.

LovesuckZ
2010-05-14, 16:29:36
Die Karte hat keinen DX11 Vorteil, sondern ein Geometrievorteil. Und da Tessellation in Verbindung mit DM DAS DX11 Feature ist, hat man in Spielen mit DX11 und Tessellation einen (erheblichen) Vorteil. PCGH.de hatte zwei schöne Tessellationszenen in Metro2033 und AvP. Leider haben sie dort keinen GF100 durchgebencht.

Mr. Lolman
2010-05-14, 16:30:25
In Zahlen: Eine Retail-480 rauscht mit 4,6 bis 4,8 Sone unter Spielelast. Die GTX 470 bringt es unerfreulicherweise auf ähnliche Werte zwischen 4,7 und 4,9 Sone. Die sparsamere GPU im Vergleich zur GTX 480 muss aufgrund des anderen Kühldesigns (kleinere, nicht hervorstehende Heatpipes, kein exponiertes Kühlmetall) lautstärker belüftet werden.


Testet mal mit Bad Company 2. Bei dem Spiel war die GTX480 die ich getestet hat, deutlich lauter als bei Dirt2, o.ä....

Gast
2010-05-14, 16:31:14
Der vielversprochene DX11-Vorteil ist.....naja.....ein Witz.
Vorsicht!
Falls du die Tesselation meinst, dann ok, ist bei der jetzigen technischen Umsetzung unbrauchbar. 1-2 Jahre warten und weitersehen.

Aber... Tesselation ist nur ein Teil von DX11.
Viel interessanter als die Tesselation dürften die Möglichkeiten der Compute Shader in DX11 sein. :)

corvus
2010-05-14, 16:31:57
Der vielversprochene DX11-Vorteil ist.....naja.....ein Witz.

jo vorallem gegenüber deiner Karte :lol:

http://geizhals.at/deutschland/a522054.html

nochmal :lol:

Mr. Lolman
2010-05-14, 16:33:18
Der war gut! :tongue:

Kann es sein, dass DX11 (Tesselation) Titel überdurchschnittlich stark von mehr VRAM profitieren?
Kommt mir mittlerweile so vor, weil AvP jetzt ein ähnliches Verhalten wie Metro zeigt.

Edit: Argh ich sehe gerade, die Radeons sind allgemein in AvP stärker als die GeForces. Hab den Test von Hardwarecanucks gerade gelesen.

Kommt sehr draufan, was man testet. In HW-lastigen Szenen (also im Freien), bricht ne HD5870 mit aktivem AA deutlich weg (allerdings fehlt bei mir auch der Himmel, bei den GTXen - der wird schlichtweg nicht dargestellt. Na egal, jetzt sind sie eh schon wieder weg ;()

y33H@
2010-05-14, 16:35:40
@ Schlammsau

AvP mit 4x MSAA ist Fermi-Domäne.
Leider haben sie dort keinen GF100 durchgebencht. Doch, zumindest Metro 2033 *klick mich (http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/?page=13)*

Schlammsau
2010-05-14, 16:37:25
Kommt sehr draufan, was man testet. In HW-lastigen Szenen (also im Freien), bricht ne HD5870 mit aktivem AA deutlich weg (allerdings fehlt bei mir auch der Himmel, bei den GTXen - der wird schlichtweg nicht dargestellt. Na egal, jetzt sind sie eh schon wieder weg ;()
@ Schlammsau

AvP mit 4x MSAA ist Fermi-Domäne.
Doch, zumindest Metro 2033 *klick mich (http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/?page=13)*


Auch die 2GB-Version?

LovesuckZ
2010-05-14, 16:37:44
@ Schlammsau

AvP mit 4x MSAA ist Fermi-Domäne.
Doch, zumindest Metro 2033 *klick mich (http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/?page=13)*

Leider unbauchbar, da die DX11 Werte zu allgemein sind. Ich hätte gerne gesehen, wie stark GF100 mit Tessellation einbricht: http://www.google.de/url?sa=t&source=web&oi=revisions_result&ct=result&cd=1&ved=0CBYQhgIwAA&url=http%3A%2F%2Fwww.pcgameshardware.de%2Faid%2C706590%2FMetro-2033-Grafikkarten-Benchmarks-mit-DirectX-11-und-GPU-PhysX-Update-GPU-PhysX-Video%2FAction-Spiel%2FTest%2F&rct=j&q=pcgh+metro2033&ei=ImDtS__AMc35Ob6d-PsH&usg=AFQjCNED0l4WmoVWYl461KRLd-DmGKhCSA

Gast
2010-05-14, 16:39:36
Und da Tessellation in Verbindung mit DM DAS DX11 Feature ist,...
Es gibt nicht DAS DX11 Feature.
Muss jeder für sich selbst entscheiden, was für ihn wichtiger ist.
Wenn du auf optische Verzerrung der Texturen stehst (und damit verbunden schlechtere BQ), dann ist das schön für dich.
Leute die auf gute BQ stehen, sollten Tesselation aber ausschalten, zumindest bei Metro und AvP.
Bei Dirt2 geht es noch.

y33H@
2010-05-14, 16:41:23
@ LovesuckZ

Hmmm, ok. Explizite HWT-Messungen gibt's nicht.
Auch die 2GB-Version? Ja, das ist iirc eine Rechensache.

LovesuckZ
2010-05-14, 16:42:16
Natürlich nicht. Also wenn ich ein AMD Fanboy wäre. Da finde ich natürlich solche geilen Effekte wie überhaupt nicht unterscheidbare Schatten wie in Stalker oder bessere Lichtdarstellung viel cooler. Weil meine AMD Karte ist ja voll DX11 toll. :rolleyes:
Natürlich ist Tessellation das bedeutenste Feature, weil es wesentlich den Punkt aufgreift, der in der ganzen Pixelmania vergessen wurde: Mehr Geometrie.
Die Verzerrung wird man genauso wahrnehmen wie die besseren Schatten in Stalker: Garnicht.

@ LovesuckZ

Hmmm, ok. Explizite HWT-Messungen gibt's nicht.


Sollte jemand nachholen.

Schlammsau
2010-05-14, 16:46:21
Ja, das ist iirc eine Rechensache.

Ich meine nur zB wegen Metro. Da hat sich ja auch herausgestellt, dass nicht die fehlende Tesselation Power der Flaschenhals war, sondern der VRAM. Die 2GB Radeons liegen nur 20% hinter der 480 zurück. Aber das weisst du ja.

Gast
2010-05-14, 16:46:48
Die Verzerrung wird man genauso wahrnehmen wie die besseren Schatten in Stalker: Garnicht.

Genau...
Deshalb gibt es ja diesen Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=481051).

Man, du bist ja noch lustiger (und inkompetenter) als sonst... :rolleyes:

LovesuckZ
2010-05-14, 16:49:48
Genau...
Deshalb gibt es ja diesen Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=481051).

Man, du bist ja noch lustiger (und inkompetenter) als sonst... :rolleyes:

Jo, toll. Gibt auch Threads über die tollen DX11 Schatten von Stalker. Also, das man sie überhaupt mal gesehen hat.
Aber schön zu sehen, dass AMD Trolls weitermachen. Naja, bald werdet auch ihr Hardware haben, die "DX11 done right" ist. ;D

Schlammsau
2010-05-14, 16:50:53
Genau...
Deshalb gibt es ja diesen Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=481051).

Kenn den Thread ja gar nicht.
Aber das irst wirklich unschön!
http://www.abload.de/img/heaven_tess_tex_distorwycs.jpg

Gast
2010-05-14, 17:14:09
@Schlammsau

und die Verzerrung der Texturen ist noch nicht alles (negative) zur Tesselation.
Das Pumpen stört noch mehr.
Wie ich schon geschrieben habe... bei der jetzigen technischen Umsetzung ist Tesselation kein Argument für eine bessere BQ.
Sprechen wir uns zu diesem Thema in 1-2 Jahren, dann kann es wieder anders aussehen. :)

derguru
2010-05-14, 17:14:32
Kenn den Thread ja gar nicht.
Aber das irst wirklich unschön!
http://www.abload.de/img/heaven_tess_tex_distorwycs.jpg

ja grausam,tess sollte verboten werden:freak:

Gast
2010-05-14, 17:17:48
ja grausam,tess sollte verboten werden:freak:
Spar dir solche Sprüche demnächst :tongue:
Die Technologie hinter Tesselation ist schon beeindruckend.
Nur ist die Umsetzung auf jeden Fall noch stark verbesserungswürdig, wenn man wirklich bessere BQ haben will.
Das geht aber nicht von heute auf morgen. ;)

Schlammsau
2010-05-14, 17:19:24
ja grausam,tess sollte verboten werden:freak:

Nee das nicht, aber die Entwickler sollten sich dazu aber echt was einfallen lassen. Schön ist was anderes!

derguru
2010-05-14, 17:25:36
ja und wenn schon, was hat das im fermi fred verloren.

Schlammsau
2010-05-14, 17:26:53
ja und wenn schon, was hat das im fermi fred verloren.

Goar nix! :tongue:

Gast
2010-05-14, 17:30:34
ja und wenn schon, was hat das im fermi fred verloren.
Frag mal LovesuckZ.
Der kommt hier immer wieder mit Tesselation.
Vielleicht sollte er sich Tesselation auf die Stirn tätovieren lassen.
Aber genau so verzerrt, wie die Texturen, bitte. :tongue:

dllfreak2001
2010-05-14, 17:46:45
Versteh das jetzt nicht ganz, beim HD5000-Release war Tesselation noch soo das Plus, aber jetzt soll es verboten werden?

Ist doch schön wenn der Fermi etwas besonders gut kann, weil ja sonst fast garnichts für ihn sprechen würde.

Blaire
2010-05-14, 17:47:36
Versteh das jetzt nicht ganz, beim HD5000-Release war Tesselation noch soo das Plus, aber jetzt soll es verboten werden?


Was sollen sie sonst schreiben? ;D

Gast
2010-05-14, 17:49:51
Es ist nicht LovesuckZs Schuld, Tesselation nicht mehr als heiligen Gral ansehen, nachdem Nvidia mal eben AMDs Jahrelangen Vorsprung vernichtet und selbst einen Vorsprung erlangt.

Tatsache ist, das die Geometrie heitiger Titel immer noch sehr zu wünschen übrig lässt und durch einfach mehr Aufwand wirds nicht besser, man braucht einen anderen Weg.
Natürlich ist Tesselation nicht die alleinige Lösung aller Probleme. Es gibt kein Allheilmittel, ergo müsstet ihr auch daherkommen und sagen alles juckt uns nicht, wir gehen nach den 5% gemittelt aus irgendwelchen lustigen Benchmarks.
Ersetz Tesselation mit einem belieben anderen Begriff, alles wird runtergespielt werden.

BlackBirdSR
2010-05-14, 17:50:31
Frag mal LovesuckZ.
Der kommt hier immer wieder mit Tesselation.
Vielleicht sollte er sich Tesselation auf die Stirn tätovieren lassen.
Aber genau so verzerrt, wie die Texturen, bitte. :tongue:

Scharm!
Dem Entwickler muss einfach mehr Zeit gegeben werden, dieses Feature auch "sinnvoll" zu nutzen. Leider habe ich da so meine Zweifel. Zudem hat eigentlich kein Review solche Probleme direkt erwähnt, wann immer man Tess angepriesen hat. Also noch ist man in der Hinsicht blind, aber wehe die Entwickler müssen dann Qualität abliefern, dann wirds aufwändiger.

Deshalb sehe ich Tess bisher noch als absolut unausgereift an. Es braucht Erfahrung und Ermutigung in dieser Hinsicht. Da ist Fermi schon ganz gut als erster Push geeignet, aber es ist für mich noch lange kein Kaufgrund für DX11 oder speziell Fermi. Da reden wir in 1-2 Jahren nochmal.

SamLombardo
2010-05-14, 17:55:54
Wartet mal DX11 Crysis 2 inkl. Tesselation ab. Bin jetzt schon gespannt wie die Karten da abschneiden:)

LovesuckZ
2010-05-14, 18:06:14
Versteh das jetzt nicht ganz, beim HD5000-Release war Tesselation noch soo das Plus, aber jetzt soll es verboten werden?


Ist doch verständlich: Mit Stand heute sind die Evergreen-Karten veraltet. Da muss man alle Geschütze ausfahren, um sie sich schön zu reden.
Da wird dann auch DX11 nur auf die Beschleunigungseigenschaft reduziert oder sogar komplett als nutzlos tituliert.
Aber bald werden auch diese Leute ihre übliche 180° Drehung vollziehen. Nur noch ein paar Monate.

Gast
2010-05-14, 18:11:37
Ist doch verständlich: Mit Stand heute sind die Evergreen-Karten veraltet.
:confused:
Wieso das denn?
Ist nur eine Behauptung von dir, die nicht haltbar ist.


Aber bald werden auch diese Leute ihre übliche 180° Drehung vollziehen. Nur noch ein paar Monate.
Du solltest genauer lesen.
Hier war die Rede von 1-2 Jahren.
Davor kannst du Tesselation wohl vergessen.
Crysis 2 abwarten, aber ich verspreche mir da nicht zu viel von.
Man muss schon das "Texture-LOD" für die Tesselation sehr dynamisch machen, und daran glaube ich erstmal nicht.

LovesuckZ
2010-05-14, 18:19:42
:confused:
Wieso das denn?
Ist nur eine Behauptung von dir, die nicht haltbar ist.

Evergreen ist für DX11 Tessellation das, was CineFX I+II für PS2.0 war: Fast unbrauchbar. Wie kann man denn heute vorallem noch jemanden eine 5870 1GB+ Karte empfehlen, mit dem Wissen, dass sobald Tessellation ins Spiel kommt, man auf dem Niveau der zukünftigen 150€ Mittelklassenhardware fallen wird?
Wer heute kauft, kauf mit hoher Wahrscheinlichkeit in diesem Jahr nochmal.


Du solltest genauer lesen.
Hier war die Rede von 1-2 Jahren.
Davor kannst du Tesselation wohl vergessen.
Crysis 2 abwarten, aber ich verspreche mir da nicht zu viel von.
Man muss schon das "Texture-LOD" für die Tesselation sehr dynamisch machen, und daran glaube ich erstmal nicht.

Richtig. In 1-2 Jahren wird AMD auch über potente Hardware verfügen. Dann hast auch du dein Spaß mit Tessellation. :)

dllfreak2001
2010-05-14, 18:21:25
Ist doch verständlich: Mit Stand heute sind die Evergreen-Karten veraltet. Da muss man alle Geschütze ausfahren, um sie sich schön zu reden.
Da wird dann auch DX11 nur auf die Beschleunigungseigenschaft reduziert oder sogar komplett als nutzlos tituliert.
Aber bald werden auch diese Leute ihre übliche 180° Drehung vollziehen. Nur noch ein paar Monate.

Naja, veraltet nicht unbedingt. Derzeit gibt es kaum Titel die Tessellation nutzen und da wo es gemacht wird, gibt es kaum Unterschiede in der Optik.

Andersrum: Für mich hat AMD mit Tess. besser gewirtschaftet, bei Nvidia ist es jetzt noch totaler Overkill oder bringt optisch viel zu wenig.
Bis AMDs Variante wirklich veraltet ist, haben sie schon schnellere Chipsätze auf dem Markt.
Ob dem Fermi bei zukünftigen (aufwändigen) Spielen nicht eventuell an anderer Stelle die Puste ausgeht ist auch nicht geklärt.

LovesuckZ
2010-05-14, 18:31:30
Naja, veraltet nicht unbedingt. Derzeit gibt es kaum Titel die Tessellation nutzen und da wo es gemacht wird, gibt es kaum Unterschiede in der Optik.

Wir sind jedoch nicht mehr im Jahr 2009. AMD's angeblicher Herbst-Refresh soll sich diesem Problem annehmen. Das führt unweigerlich zum starken Werteeinbruch der Karten.


Andersrum: Für mich hat AMD mit Tess. besser gewirtschaftet, bei Nvidia ist es jetzt noch totaler Overkill oder bringt optisch viel zu wenig.

Es bringt deswegen optisch nichts, weil es bis zum GF100 keine Karte gab, die eine Infrastruktur für DX11-Tessellation hatte. Daher musste man sparsam umgehen. Das ist jetzt nicht mehr notwendig. Man muss schon abartig viel Geometrie erzeugen, um GF100 ins bodenlose fallen zu lassen.
In Stone Giant beträgt der Einbruch mit high ca. 23%. In Stalker sind es 10%. In Heaven 2.0 mit normal sind es ca. 15%.


Bis AMDs Variante wirklich veraltet ist, haben sie schon schnellere Chipsätze auf dem Markt.


Sie werden sich dem Problem annehmen und in anderen Bereichen nicht bis kaum zulegen. Es wird also genauso wie beim GF100 enden. Und schnellere Chipsätze bringen dem heutigen Käufer nichts, solange wie man sie nicht gegen ein bisschen Zuzahlung eintauschen kann.

Gast
2010-05-14, 18:35:08
Richtig. In 1-2 Jahren wird AMD auch über potente Hardware verfügen. Dann hast auch du dein Spaß mit Tessellation. :)

Ich hatte schon vor 7 Monaten Spaß mit Tesslation, da hast du noch auf deinen Themi gewartet. Und das habe ich auch in jedem aktuellen DX11-Spiel nach wie vor. Du darfst dich derweilen an Timedemos erfreuen. :)

Gast
2010-05-14, 18:38:30
Es bringt deswegen optisch nichts, weil es bis zum GF100 keine Karte gab, die eine Infrastruktur für DX11-Tessellation hatte. Daher musste man sparsam umgehen. Das ist jetzt nicht mehr notwendig. Man muss schon abartig viel Geometrie erzeugen, um GF100 ins bodenlose fallen zu lassen.
In Stone Giant beträgt der Einbruch mit high ca. 23%. In Stalker sind es 10%. In Heaven 2.0 mit normal sind es ca. 15%.


Und was bringt das wenn AMD 99% des DX11-Marktes hält? Papiervorteil, genau wie dynamisches Branching damals bei R5xx, da waren auch alle Fanboys ganz stolz darauf.

corvus
2010-05-14, 18:40:15
"Ich hatte schon vor 7 Monaten Spaß mit Tesslation, da hast du no......."

ich auch :D nur aufgefallen isses mir nie....wo war das nochmal?
Als dann unigine Mode wurde und Metro .... hab ich mich erstmal erschreckt..runde Kisten hä..... naja wer Tess brauch auf was für einer Karte, wie auch immer ... viel Spaß damit.

Ich vermiße sgssa in DX9 und geil mich jetzt eben an sgssaa in DX 10 auf :D

Ihr habt probs echt.....

boxleitnerb
2010-05-14, 18:45:15
So sehe ich das auch. Von veraltet zu sprechen ist einfach totaler Fanboyquatsch. Ist ja nicht so wie bei der X800er Serie, die ein bald wichtig/wichtig gemachtes SM 3.0 gar nicht an Bord hatte. Vom Techlevel her geben sich die Karten NULL, es kommt nur drauf an, wie man es für sich wertet.

Jede Karte hat ihre Vor- und Nachteile und jeder muss für sich entscheiden, auf was er mehr Wert legt. Wenn Leute wie Lovesuckz von "veraltet" oder diverse AMDler von "epic fail" sprechen, entbehrt das jeglicher Grundlage. Wie die kleinen Kinder sich grad das raussuchen, was in das begrenzte Weltbild passt und nicht akzeptieren wollen, dass andere Leute vielleicht andere Ansprüche als man selbst hat...ES NERVT!

Fast jede Kartengeneration hat ihre Schwächen (gehabt), die meist mit den Nachfolgemodellen ausgemerzt oder zumindest abgeschwächt wurden. Mein Gott, ihr tut ja gerade so, als müssten wir mit dem Megastromverbrauch oder der "miserablen Tessperformance" auf ewig leben.

BlackBirdSR
2010-05-14, 18:50:53
Jede Karte hat ihre Vor- und Nachteile und jeder muss für sich entscheiden, auf was er mehr Wert legt. Wenn Leute wie Lovesuckz von "veraltet" oder diverse AMDler von "epic fail" sprechen, entbehrt das jeglicher Grundlage. Wie die kleinen Kinder sich grad das raussuchen, was in das begrenzte Weltbild passt und nicht akzeptieren wollen, dass andere Leute vielleicht andere Ansprüche als man selbst hat...ES NERVT!

.

Guter post. Es ist schade, dass sich so manch einer das nicht zu Herzen nimmt.

LovesuckZ
2010-05-14, 18:56:10
Und was bringt das wenn AMD 99% des DX11-Marktes hält? Papiervorteil, genau wie dynamisches Branching damals bei R5xx, da waren auch alle Fanboys ganz stolz darauf.

Tessellation ist dynamisch. AMD User haben also die Möglichkeit sich wie beim AF einzureden, dass keine Unterschiede zwischen den Stufen existieren und das man Stufe x+1, x+2... garnicht benötige.
Ist alles kein Problem mit genug Fantasie. ;D

Guter post. Es ist schade, dass sich so manch einer das nicht zu Herzen nimmt.

Nein, sein Posting ist genauso beschränkt. Wer absichtlich im Mai 2010 die Tessellationleistung von Cypress und Hemlock abschwächt, der lebt genauso in einer "beschränkten Welt".

Gast
2010-05-14, 18:59:00
Tessellation ist dynamisch. AMD User haben also die Möglichkeit sich wie beim AF einzureden, dass keine Unterschiede zwischen den Stufen existieren und das man Stufe x+1, x+2... garnicht benötige.
Ist alles kein Problem mit genug Fantasie. ;D

Ja, vorallem wenn die Stufen nur in deinem Träumen existieren. :)

corvus
2010-05-14, 18:59:07
"Vollbild-Supersampling unter Dx10/11 mit Fermi"
Das wäre doch mal ein schöner Fred!?
Hat keiner Lust dazu?

Gast
2010-05-14, 19:03:02
"Vollbild-Supersampling unter Dx10/11 mit Fermi"
Das wäre doch mal ein schöner Fred!?
Hat keiner Lust dazu?

Guten Morgen!
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=482088

boxleitnerb
2010-05-14, 19:03:42
Nein, sein Posting ist genauso beschränkt. Wer absichtlich im Mai 2010 die Tessellationleistung von Cypress und Hemlock abschwächt, der lebt genauso in einer "beschränkten Welt".

Das ist so krank, dazu WILL ich gar nix sagen - das übernimmt sicher jemand anderes ;D

@corvus: Gibts doch schon hier im Forum.

Gast
2010-05-14, 19:04:21
Ja, vorallem wenn die Stufen nur in deinem Träumen existieren. :)
Die Enwickler haben die Wahl das zu ändern, so wie es üblich ist bei sämtlichen anderen Features.

Gast
2010-05-14, 19:10:15
Tessellation ist dynamisch. AMD User haben also die Möglichkeit sich wie beim AF einzureden, dass keine Unterschiede zwischen den Stufen existieren und das man Stufe x+1, x+2... garnicht benötige.
Ist alles kein Problem mit genug Fantasie. ;D

Leider nein, AMD User Boys sind bisher auf der Schiene Tesselation generell schlecht zu machen.
Wenn sie sich mit wenig zufrieden gäben würden, wärs ja weniger schlimm, dann gäbs immerhin mal Tesselation.

Leider wird aber generell alles schlecht gemacht, ich frag mich hier beim lesen täglich, was eine Grafikkarte eigentlich können muss.
Vielleicht hilft mir einer, irgendwie komme ich nicht auf die Lösung.
Effekte oder BQ sinds scheinbar nicht. Stromverbrauch ist manchmal wichtig. Lautstärke ebenso. Preis ist oft wichtig. Benchmarks, das ist es.

boxleitnerb
2010-05-14, 19:15:41
Effekte sind wichtig, keine Frage. Aber eine Karte, die sich btw schon seit Monaten hervorragend verkauft, die manche Effekte nicht so schnell darstellen kann wie eine andere, dafür aber in sonstigen Bereichen punket, praktisch als alten Schrott hinzustellen...jo dafür fehlen einem schonmal die Worte.

Und hey: Wenn Tess so toll dynamisch ist, was meckert die NV-Fanboyfraktion hier eigentlich so rum? Warum muss überhaupt jemand rummeckern? Dann wird ein Regler eingebaut und jeder hat, was er will. Der eine Michelinmännchen und aufblasbare Schreibmaschinen, der andere eckige Köpfe.
Mit der Zeit werden BEIDE Seiten in den Genuss von VERNÜNFTIG UMGESETZTER Tessellation kommen. Win-win! So what? Muss man deshalb jetzt so einen Hass- (tm Lovesuckz) und Provokationskrieg starten wegen...nichts? Jeder kauft nach seinen eigenen Präferenzen, jeder legt seine Schwerpunkte anders. Auch wenn das manche hier partout nicht verstehen oder akzeptieren wollen.

corvus
2010-05-14, 19:17:03
Guten Morgen!
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=482088

ebenso :D
scheint nix weltbewegendes zu sein....in HD5 Fred gibt es wenigstens schööne Bildchen....muß mal die Holde in Res5 nackisch machen :D

Nakai
2010-05-14, 19:19:29
Das ist so krank, dazu WILL ich gar nix sagen - das übernimmt sicher jemand anderes

Da musste ich grad wirklich schmunzeln...ansonsten wird mir bei solche Threads immer schlecht.

Leider wird aber generell alles schlecht gemacht, ich frag mich hier beim lesen täglich, was eine Grafikkarte eigentlich können muss.
Vielleicht hilft mir einer, irgendwie komme ich nicht auf die Lösung.
Effekte oder BQ sinds scheinbar nicht. Stromverbrauch ist manchmal wichtig. Lautstärke ebenso. Preis ist oft wichtig. Benchmarks, das ist es.

Nein, gar nichts ist wichtig. Nur die eigene Farbe. Ich wundere mich manchmal, wie manche ein Strommonster wie die GTX480 oder das AF von ATI-Karten schönreden können. Dann gibts noch das Produktchaos von NV und die Bugs von AMD. Es ist einfach dumm, das eine zu akzeptieren und das andere zu ignorieren. Das ist so dämlich...:freak:

Naja wer noch keine DX11-Karte hat, so wie ich, dem kann hier derzeit alles am Arsch vorbei gehen...wayne.

btw.
Wer will ein Friedensbier mittrinken...ich genehmige mir nämlich etz eins...;)


mfg

LovesuckZ
2010-05-14, 19:26:19
Effekte sind wichtig, keine Frage. Aber eine Karte, die sich btw schon seit Monaten hervorragend verkauft, die manche Effekte nicht so schnell darstellen kann wie eine andere, dafür aber in sonstigen Bereichen punket, praktisch als alten Schrott hinzustellen...jo dafür fehlen einem schonmal die Worte.

Mir fehlen auch die Worte, wie man im Mai 2010 eine Karte, die in allen Punkten gleichwertig und in einigen besser ist, aber in dem wichtigsten der neusten Feature ein CineFX hinlegt, noch im selben Maß empfehlen kann wie letztes Jahr. Und ja, eine Dx11 Karte mit dieser Tessellationleistung ist "alter Schrott". Die Implementierung ist sooooo 2001.
Das alter Schrott nicht gleichbedeutend mit nutzlos ist, steht hier auf einer komplett anderen Stufe.


Und hey: Wenn Tess so toll dynamisch ist, was meckert die NV-Fanboyfraktion hier eigentlich so rum? Warum muss überhaupt jemand rummeckern? Dann wird ein Regler eingebaut und jeder hat, was er will. Der eine Michelinmännchen und aufblasbare Schreibmaschinen, der andere eckige Köpfe.

Schönes Paradoxon: Wenn man keine Probleme hat auf Qualität zu verzichten, wieso sollte man dann 360€, 430€ oder sogar 520€ für eine neue Karte ausgeben, mit der man alle Effekte einstellen will?
Dann kann man auch bei der alten Hardware bleiben und das Geld zur Bank bringen. Mit den Zinsen schlägt man dann bei der neuen Generation zu. Da muss man keine Qualitätsabstriche hinnehmen.
Abgesehen davon meckert hier nicht die nVidia-Fraktion. Es sind die AMD Leute, die hier Tessellation herunterspielen.


Mit der Zeit werden BEIDE Seiten in den Genuss von VERNÜNFTIG UMGESETZTER Tessellation kommen. Win-win! So what? Muss man deshalb jetzt so einen Hass- (tm Lovesuckz) und Provokationskrieg starten wegen...nichts? Jeder kauft nach seinen eigenen Präferenzen, jeder legt seine Schwerpunkte anders. Auch wenn das manche hier partout nicht verstehen oder akzeptieren wollen.

Leider gehörst du dazu, sonst würdest du nicht so einem Feldzug pro Cypress hinlegen und dessen Tessellationschwäche als "naja, nicht so wild" abtun. Nochmal: Wie sind im Mai 2010. Man sollte also heute andere Ansprüche stellen als noch im Oktober 2009.

Gast
2010-05-14, 19:27:13
Wir sind jedoch nicht mehr im Jahr 2009. AMD's angeblicher Herbst-Refresh soll sich diesem Problem annehmen. Das führt unweigerlich zum starken Werteeinbruch der Karten.


Bei dir vergammeln die Grafikkarten aber schnell, ich denke vor einem halben Jahr hättest du nicht sowas abgelassen.
Nvidia hat nur die Brechstange angewandt, eine Kunst die auch AMD beherrscht. Der Fermi wäre mit entsprechender Energieeffizienz etwas für das Jahr 2011 gewesen, so sind die Karten immer noch halbgar.


Es bringt deswegen optisch nichts, weil es bis zum GF100 keine Karte gab, die eine Infrastruktur für DX11-Tessellation hatte. Daher musste man sparsam umgehen. Das ist jetzt nicht mehr notwendig. Man muss schon abartig viel Geometrie erzeugen, um GF100 ins bodenlose fallen zu lassen.
In Stone Giant beträgt der Einbruch mit high ca. 23%. In Stalker sind es 10%. In Heaven 2.0 mit normal sind es ca. 15%.


Bei Metro wird es massiv genutzt und man sieht kaum einen Unterschied.
Für Alles ist Tess. nicht brauchbar und sollte imho auch nicht eingesetzt werden. (Weil es wieder die Faulheit der Entwickler fördert)



Sie werden sich dem Problem annehmen und in anderen Bereichen nicht bis kaum zulegen. Es wird also genauso wie beim GF100 enden. Und schnellere Chipsätze bringen dem heutigen Käufer nichts, solange wie man sie nicht gegen ein bisschen Zuzahlung eintauschen kann.

Das glaubst du wohl selber nicht.

corvus
2010-05-14, 19:31:20
Du siehst in Metro keinen Unterschied.....dann aber husch husch hier weg, den seh ich sogar...mit der ATI hab ich es sogar in Zeitlupe gesehen .....

Mr. Lolman
2010-05-14, 19:46:51
Bei Metro mangelts den 1GB Cypresskarten aber eher am Speicher, als an der Tessellationsleitung. (Irgendwie hab ich den Eindruck, dass wir hier uns im Kreis drehen)

boxleitnerb
2010-05-14, 19:49:00
Mir fehlen auch die Worte, wie man im Mai 2010 eine Karte, die in allen Punkten gleichwertig und in einigen besser ist, aber in dem wichtigsten der neusten Feature ein CineFX hinlegt, noch im selben Maß empfehlen kann wie letztes Jahr. Und ja, eine Dx11 Karte mit dieser Tessellationleistung ist "alter Schrott". Die Implementierung ist sooooo 2001.
Das alter Schrott nicht gleichbedeutend mit nutzlos ist, steht hier auf einer komplett anderen Stufe.


???
Wie kann etwas in allen Punkten gleichwertig und gleichzeitig in einigen besser sein? Muss man nicht verstehen...außerdem: Beide Karten(-serien) haben ihre Vor- und Nachteile...zum 100. Mal. Gewichte selber für dich und schreib anderen nicht vor, was sie für wichtig zu erachten haben und was nicht. Capiche??
Außerdem hab ich überhaupt nix empfohlen, ich hab nur Toleranz gepredigt. Bist du blind?
Btw, der fettgedruckte Satz ist an Schwachsinn ja nicht mehr zu überbieten. Als ob gerade DU da fähig wärst, zu differenzieren! Ich lach mich tot...


Schönes Paradoxon: Wenn man keine Probleme hat auf Qualität zu verzichten, wieso sollte man dann 360€, 430€ oder sogar 520€ für eine neue Karte ausgeben, mit der man alle Effekte einstellen will?
Dann kann man auch bei der alten Hardware bleiben und das Geld zur Bank bringen. Mit den Zinsen schlägt man dann bei der neuen Generation zu. Da muss man keine Qualitätsabstriche hinnehmen.


Durchaus eine interessante Möglichkeit, die sicher viele, die von GF100 persönlich (!) enttäuscht waren und nicht zu HD5000 gegriffen haben, wahrnehmen.


Abgesehen davon meckert hier nicht die nVidia-Fraktion. Es sind die AMD Leute, die hier Tessellation herunterspielen.


Diese Leute gibt es sicher. Dann gibts aber auch so Spezialisten wie du, die das genaue Gegenteil (Extrem) darstellen. Beides ist Schwachsinn.


Leider gehörst du dazu, sonst würdest du nicht so einem Feldzug pro Cypress hinlegen und dessen Tessellationschwäche als "naja, nicht so wild" abtun. Nochmal: Wie sind im Mai 2010. Man sollte also heute andere Ansprüche stellen als noch im Oktober 2009.

Welche Pilze rauchst du bitte schön? Die will ich auch. Ich bin auf überhaupt keinem Feldzug. Mich regen nur deine provokanten beschränkten Kommentare auf ("veraltet etc). Toleranz, "lieber" Lovesuckz, Toleranz. Jedem das Seine. Keine der Karten ist so massiv besser wie die andere, dass man von "veraltet" sprechen kann.

Wie arrogant bist du eigentlich, anderen ohne Grundlage allen möglichen Scheiß zu unterstellen? Cypress interessiert mich nicht aufgrund diverser Unzulänglichkeiten, die mich persönlich stören. Fermi interessiert mich aus diesen Gründen ebenfalls nicht. Wo zum Teufel siehst du da eine Präferenz? Nur weil man gegen Extremisten wie dich, die weder einen Funken Toleranz zeigen können, noch einen Zentimeter über ihre Schuhspitzen schauen können, argumentiert, ist man auf einem Feldzug? Guter Witz ;D

Wie arrogant bist du eigentlich, dass du anderen ihre Ansprüche diktieren kannst?
:P

corvus
2010-05-14, 20:19:13
Bei Metro mangelts den 1GB Cypresskarten aber eher am Speicher, als an der Tessellationsleitung. (Irgendwie hab ich den Eindruck, dass wir hier uns im Kreis drehen)

erst seid heute? :D

ich kann nicht mit mehr bzw. konnte nicht, als mit einem 1gig bei meiner 5870 versuchen zu spielen....was eventuell mit mehr und überhaupt irgendwann....werden wir sehen....das NV schläft glaub ich allerdings auch nicht.

Nur wenn 2gig jetzt schon nicht ausreichen :D.... wieviel solls den noch sein.....

dann fehlen die aber in Unigine auch, oder?

Gast
2010-05-14, 20:26:19
Effekte sind wichtig, keine Frage. Aber eine Karte, die sich btw schon seit Monaten hervorragend verkauft, die manche Effekte nicht so schnell darstellen kann wie eine andere, dafür aber in sonstigen Bereichen punket, praktisch als alten Schrott hinzustellen...jo dafür fehlen einem schonmal die Worte.
Natürlich, aber das Problem ist doch, das jegliche Seiten schlecht geredet werden wo Nvidia gut darsteht.
Wie gesagt, Tesselation alleine reicht nicht, aber aus was besteht ein Spiel? Nicht aus nichts.
Irgendetwas gibt in vielen Variationen, das eingebaut wurde. Das verlieren die Boys aus den Augen.

Schlammsaus 5% existieren gar nicht, sie sind ein Produkt aus dem nutzen diverser Berechnungen. Das ist das Problem, was dazu führt das es nie enden wird.


Mit der Zeit werden BEIDE Seiten in den Genuss von VERNÜNFTIG UMGESETZTER Tessellation kommen. Win-win!Wie gesagt, schön wärs.
Wir können jeglichen Wege gebrauchen, die mehr BQ bedeuten.
Aber genau das müssen die Boys einsehen, es gibt nicht die Urfassung eines Spieles heutzutage, das die Grafikkarte durchrechnet. Die optischen Aufwertungen sind zahlreich, man kann sie nicht einfach alle als nichtig erklären, wie es einem passt. Man kann persöhnliche Bedürfnisse anbringen, mehr nicht.

Gast
2010-05-14, 20:29:33
Diese Leute gibt es sicher. Dann gibts aber auch so Spezialisten wie du, die das genaue Gegenteil (Extrem) darstellen. Beides ist Schwachsinn.

Es gibt nur einen der Tesselation in den Himmel lobt. Dafür eine Herrschar derer, die es für nichtig erklären.

Du hast jetzt die Wahl, bekämpfst du nur den einen, hilfst den Anderen zuzusagen, die bereits dank ihrer zahlenmäßigen Überlegenheit den Eindruck vermitteln können Recht zu haben.
Logisch ist diese Wahl nicht, aber sie ist einfach und menschlich.
Logisch wäre, Beide Seiten in die Schranken zu weisen, vermehrt die Stärkere.

LovesuckZ
2010-05-14, 20:34:14
???
Außerdem hab ich überhaupt nix empfohlen, ich hab nur Toleranz gepredigt. Bist du blind?

"Toleranz"? Es ist ignorant zu behaupten, dass Cypress nicht veraltet wäre, wenn die Tessellationleistung soviel schlechter ist. Und man sich doch in 6 Monaten einfach eine neue Karte kaufen könnte, wenn man mehr Leistung will. Wir leben im Jahr 2010. Wer heute mit gutem Gewissen für über 300€ eine Karte empfehlen kann, die im krassesten Fall in ein paar Monaten nicht nur technisch, sondern auch leistungsmäßig veraltet ist, ist mir schleierhaft. Aber wahrscheinlich muss man tolerant für solche Empfehlungen sein, geht es hier doch nicht um das eigene Geld.


Welche Pilze rauchst du bitte schön? Die will ich auch. Ich bin auf überhaupt keinem Feldzug. Mich regen nur deine provokanten beschränkten Kommentare auf ("veraltet etc). Toleranz, "lieber" Lovesuckz, Toleranz. Jedem das Seine. Keine der Karten ist so massiv besser wie die andere, dass man von "veraltet" sprechen kann.

Dein Feldzug ist doch hinsichtlich bekannt. Sobald es um etwas geht, was dir nicht passt, wird ohne Verluste die selbe Schaltplatte gespielt. Wie oft wurdest du im PhysX Thead hingewiesen, dass dein Verständnis davon falsch ist? Wie oft hast du es ignoriert? Unzählige Mal darf man immer und immer wieder das selbe lesen.
Du kommst her und haust mit Toleranz um dich, weil du anscheinend nicht begriffen hast, dass die miserable Tessellationleistung einer DX11 für über 300€ kein beiläufiger Nachteil ist, dem man ja mit einem Neukauf in ein paar Monaten ausgleichen könnte.
Die Auswirkungen lassen sich überhaupt nicht bewerten, da sie vollkommen im Dunkeln liegen. Da muss man schon sehr Tol... äh ignorant sein, um dies mit einem bewertbarem Nachteil zu vergleichen.


Wie arrogant bist du eigentlich, dass du anderen ihre Ansprüche diktieren kannst?
:P

Garnicht. Deswegen rede ich auch nichts klein. Andere dagegen machen dies ja - dauernd. Mal mit SSAA, mal mit HQ-AF, mal mit Tessellation...
Und damit weitaus weniger als du, der von Toleranz redet, aber Ignoranz lebt.

Es gibt nur einen der Tesselation in den Himmel lobt. Dafür eine Herrschar derer, die es für nichtig erklären.

Du hast jetzt die Wahl, bekämpfst du nur den einen, hilfst den Anderen zuzusagen, die bereits dank ihrer zahlenmäßigen Überlegenheit den Eindruck vermitteln können Recht zu haben.
Logisch ist diese Wahl nicht, aber sie ist einfach und menschlich.
Logisch wäre, Beide Seiten in die Schranken zu weisen, vermehrt die Stärkere.

Jeder GF100 Käufer wird nichts gegen Tessellation haben, weil es so extrem eingesetzt werden muss, um das Spiel unspielbar zu machen. Die ganzen negativen Äußerung kommen doch von denen, die über Hardware verfügen, wo schon der minimalste Einsatz in einem erheblichen Einbruch münden kann. Es liegt hier also ein persöliches Interesse die Bedeutung von Tessellation herunterzuspielen, da man bei einer schnellen und komplexen Verbreitung benachteiligt ist.
Da DX11-Tessellation das Feature mit den stärksten optischen Auswirkungen ist, wird es auch in Zukunft so eingesetzt, dass man den Unterschied sehen muss. Abseits jeglichen Sinn des Einbauens, sollte das jeder heutige und zukünftige DX11 Interessierte wissen.
Wobei, die können ja auch in 6 Monaten sich wieder eine neue Karte kaufen...

boxleitnerb
2010-05-14, 20:38:15
Natürlich, aber das Problem ist doch, das jegliche Seiten schlecht geredet werden wo Nvidia gut darsteht.
Wie gesagt, Tesselation alleine reicht nicht, aber aus was besteht ein Spiel? Nicht aus nichts.
Irgendetwas gibt in vielen Variationen, das eingebaut wurde. Das verlieren die Boys aus den Augen.

Schlammsaus 5% existieren gar nicht, sie sind ein Produkt aus dem nutzen diverser Berechnungen. Das ist das Problem, was dazu führt das es nie enden wird.


Ganz ehrlich: Ich hab dich jetzt nicht richtig verstanden :freak:

Und zum Schlechtreden:
Imo ist es dasselbe wie mit PhysX. Wenn man LZ nimmt, habe ich PhysX auch "schlechtgeredet", weil die Umsetzung meistens sehr verbesserungswürdig ist (imo). Das liegt allerdings an den Entwicklern, nicht an Nvidia. Bei Tessellation ist es genauso. Aufblasbare Schreibmaschinen braucht niemand. Dafür lässt sich mit Tessellation verdammt geile Grafik erzeugen, wenn man es nur richtig einsetzt (technisch UND künstlerisch).
Die meisten hier haben kein Problem mit Tessellation an sich, sondern sehen es im Moment als noch nicht so wichtiges Feature an (eben aufgrund der Umsetzung. Und mal ehrlich: anhand von was soll man es denn beurteilen? Ich spiele keine Techdemos, sondern Spiele). Das ist jedermanns gutes Recht. Diese Meinung darf man doch äußern, oder nicht? Ohne dass einem böswilliges Schlechtreden unterstellt wird.

Hier muss man klar differenzieren zwischen Schlechtreden und dem Äußern von persönlichen Präferenzen. Das tun die allerwenigsten, weil es viel einfacher ist, auf andere einzubashen, statt andere Meinungen und Ansichten zu akzeptieren.

Man kann persöhnliche Bedürfnisse anbringen, mehr nicht.
Man kann...wenn man sie denn als solche akzeptieren und nicht als Feldzüge etc. darstellen würde.

corvus
2010-05-14, 20:42:50
Es gibt nur einen der Tesselation in den Himmel lobt. Dafür eine Herrschar derer, die es für nichtig erklären.

Du hast jetzt die Wahl, bekämpfst du nur den einen, hilfst den Anderen zuzusagen, die bereits dank ihrer zahlenmäßigen Überlegenheit den Eindruck vermitteln können Recht zu haben.
Logisch ist diese Wahl nicht, aber sie ist einfach und menschlich.
Logisch wäre, Beide Seiten in die Schranken zu weisen, vermehrt die Stärkere.

Dummes Zeug³

Ich hatte selbst ne HD5..soll ich alles Schreibereien raussuchen nur hier und im LUXX wie TESS als der Nabel der Welt gepredigt wurde?
Und was war dann in Unigine und so weiter und so weiter.......
Das lächerlichste an euch Figuren ist das ihr noch nicht mal merkt wie beschränkt ihr seid.

Ach ja hatte ich schon geschrieben wie tess mich persöhnlich im mom juckt, mit HD5 und jetzt mit Fermi?
Darüber können wir uns unterhalten wenn die nächsten Generationen da sind oder Treiber :-)

boxleitnerb
2010-05-14, 20:52:43
"Toleranz"? Es ist ignorant zu behaupten, dass Cypress nicht veraltet wäre, wenn die Tessellationleistung soviel schlechter ist. Und man sich doch in 6 Monaten einfach eine neue Karte kaufen könnte, wenn man mehr Leistung will. Wir leben im Jahr 2010. Wer heute mit gutem Gewissen für über 300€ eine Karte empfehlen kann, die im krassesten Fall in ein paar Monaten nicht nur technisch, sondern auch leistungsmäßig veraltet ist, ist mir schleierhaft. Aber wahrscheinlich muss man tolerant für solche Empfehlungen sein, geht es hier doch nicht um das eigene Geld.


Dazu müsstest du doch erstmal definieren, was für dich veraltet überhaupt bedeutet. Veraltet hinsichtlich Features, Performance?
Nochmal: Empfohlen hab ich gar nichts.
Jeder, der mehr als sagen wir 150€ für eine Grafikkarte ausgibt, sollte sich selbst über die Stärken und Schwächen informieren. Niemand wird dem Käufer diese Verantwortung abnehmen.

Gehen wir vom Gesetz des abnehmenden Ertrags aus, kann man durchaus behaupten, dass die ersten ein oder zwei Tessellationstufen optisch das Meiste ausmachen. Dafür wird die Leistung einer 5000er vermutlich noch reichen. Wer mehr will, kauft eben Fermi. Blöd wäre es nur, wenn man "on/off" hätte.

Btw: Wieso ist Fermi dann nicht veraltet, weil er relativ wenig Texturleistung hat? Jede Architektur hat momentan ihre Schwachpunkte - so what?

"Krasseste" Fälle sind nicht maßgebend. Wenn eine Grafikkarte in der Mehrzahl der Titel ein befriedigendes Spieleerlebnis bietet, hat sie ihren Zweck voll und ganz erfüllt. Kannst aber später gerne eine Umfrage machen, wieviele HD5000 Käufer es bereut haben, ihr Tessellation-Fuck Up gekauft zu haben. Bitte poste dann die Ergebnisse, wird bestimmt interessant!


Dein Feldzug ist doch hinsichtlich bekannt. Sobald es um etwas geht, was dir nicht passt, wird ohne Verluste die selbe Schaltplatte gespielt. Wie oft wurdest du im PhysX Thead hingewiesen, dass dein Verständnis davon falsch ist? Wie oft hast du es ignoriert? Unzählige Mal darf man immer und immer wieder das selbe lesen.
Du kommst her und haust mit Toleranz um dich, weil du anscheinend nicht begriffen hast, dass die miserable Tessellationleistung einer DX11 für über 300€ kein beiläufiger Nachteil ist, dem man ja mit einem Neukauf in ein paar Monaten ausgleichen könnte.
Die Auswirkungen lassen sich überhaupt nicht bewerten, da sie vollkommen im Dunkeln liegen. Da muss man schon sehr Tol... äh ignorant sein, um dies mit einem bewertbarem Nachteil zu vergleichen.


Dein Feldzug ist doch hinsichtlich bekannt. Sobald es um etwas geht, was du für wichtig erachtest, wird ohne Verluste die selbe (Tessellation-)Schaltplatte gespielt. :P
Es ist nervig, aber du hast das Recht dazu, Tess zu gutzureden. Dann aber gleiches Recht für alle, also auch für die Schlechtreder :biggrin:

Ich habe bzgl. PhysX zugegeben, dass wir da aneinander vorbeigeredet haben und dir im Endeffekt zugestimmt. WTF willst du eigentlich noch? Einen Kniefall? Nur weil wir einmal nicht eye to eye gesehen haben, darf ich nix mehr sagen und meine Meinung zählt nix? Du bist dermaßen arrogant, du solltest dringendst mal an deinem Diskussionsstil arbeiten.
Der hohe Stromverbrauch von Fermi ist für so manchen auch kein beiläufiger Nachteil. So what? Jeder gewichtet Vor- und Nachteile anders.
Und wie willst du wissen, was man (nicht) ausgleichen kann, wenn du im nächsten Absatz schreibst, dass alles im Dunkeln liegt? Weißt du, wie SI bei Tessellation performen wird? Ich nicht!


Garnicht. Deswegen rede ich auch nichts klein. Andere dagegen machen dies ja - dauernd. Mal mit SSAA, mal mit HQ-AF, mal mit Tessellation...
Und damit weitaus weniger als du, der von Toleranz redet, aber Ignoranz lebt.

Damit wir uns endlich mal einig werden:
Kennst du den Unterschied zu "(allgemein) kleinreden" und "ist mir persönlich nicht so wichtig"? Scheinbar nicht.

Ich muss mir von dir gar nix vorwerfen lassen, aber nada, niente, nullo.

Schlammsau
2010-05-14, 21:12:51
Ich glaube die wenigsten sehen Tesselation als unwichtig an. Auch ich finde das es eine Zukunft hat, und freue mich auf Games mit diesem Feature!

Aber bis es soweit ist und Games massiv auf Tesselation setzen, wird noch viel Zeit vergehen. Mit viel Zeit meine ich 1-2 Jahre! Und auch dann, so ist meine Meinung, werden die Games nicht so stark tesseliert wie in Heaven@Extreme, wo praktisch auch glatte Flächen tesseliert werden. Overkill einfach. Eine 5870 produziert zB in Heaven@Standard ja akzeptable FPS, wenn auch noch deutlich unter dem Niveau einer 480. Aber auch hier der Tesselationeinsatz schon extrem.

Es wird noch eine ziemlich lange dauern bis es soweit ist, und bis dahin wird eine HD5000 mit Sicherheit kein veralteter Schrott sein! Es hat sich ja gezeigt, dass in Metro der VRAM einer HD5870/1GB limitiert und nicht die Tesselation Unit. DiRT2, AvP und STALKER zeigen ja recht deutlich, wo die 5870 steht. Und zwar rund 20% unter der 480.....genauso wie in Games ohne Tesselation.

corvus
2010-05-14, 21:22:17
ach hör auf!
Wenn deine ATI 2 gig Speicher hätte wäre TESS wieder der Nabel der Welt!

Lächerlich!

Hör lieber auf, sonst mach ich mir die Mühe deine pro TESS Post rauszusuchen als es noch keinen fermi gab.

Schlammsau
2010-05-14, 21:27:49
ach hör auf!
Wenn deine ATI 2 gig Speicher hätte wäre TESS wieder der Nabel der Welt!

Lächerlich!

Hör lieber auf, sonst mach ich mir die Mühe deine pro TESS Post rauszusuchen wo es noch keinen fermi gab.

Ich hab doch oben geschrieben, dass ich Tess toll finde....und ich bin der Meinung, dass meine Karte noch lange für Games mit tesseliertem Content ausreichen wird. Weil es in den nächsten 1-2 Jahren keine Games geben wird, die so stark tesseliert sind, wie Heaven@extreme. :)
Und nur bei einem derart massiven Tess Einsatz hat die HD5000 Serie ein Problem.

Also such meine alten Posts raus, ich habe kein Problem damit. ;)

Gast
2010-05-14, 21:30:55
Ich glaube die wenigsten sehen Tesselation als unwichtig an. Auch ich finde das es eine Zukunft hat, und freue mich auf Games mit diesem Feature!

Das war vor kurzem noch ganz anders.

Dummes Zeug³

Ich hatte selbst ne HD5..soll ich alles Schreibereien raussuchen nur hier und im LUXX wie TESS als der Nabel der Welt gepredigt wurde?
Und was war dann in Unigine und so weiter und so weiter.......
Das lächerlichste an euch Figuren ist das ihr noch nicht mal merkt wie beschränkt ihr seid.

Ach ja hatte ich schon geschrieben wie tess mich persöhnlich im mom juckt, mit HD5 und jetzt mit Fermi?
Darüber können wir uns unterhalten wenn die nächsten Generationen da sind oder Treiber :-)
Es geht nicht nur um Tesselation.
Es wird alles schlecht geredet.
Kinderforum Luxx juckt hier nicht. Es geht um den aktuellen Fred der von gewissen Personen kauptt gemacht wird.

Les mal richtig.



Hier muss man klar differenzieren zwischen Schlechtreden und dem Äußern von persönlichen Präferenzen. Das tun die allerwenigsten, weil es viel einfacher ist, auf andere einzubashen, statt andere Meinungen und Ansichten zu akzeptieren.
Viele der Roten sagen einfach plump, das Tesselation müll sei und unwichtig. Genauso argumentieren sie bei allen anderen Dingen.
Deshalb nochmal die Frage, was muss eine Grafikkarte können?

Du hast dich im Übrigen für die rote Seite der Macht entschieden, für die Seite die mehr Anhänger, bzw lautere Anhänger hat.
Ich habe dir mitgeteilt, das das keine logische Wahl ist. Deshalb bitte ich dich, das du neben deinem LS Feldzug auch mal die andere Seite in die Schranken verweist.

boxleitnerb
2010-05-14, 21:37:52
Viele der Roten sagen einfach plump, das Tesselation müll sei und unwichtig. Genauso argumentieren sie bei allen anderen Dingen.
Deshalb nochmal die Frage, was muss eine Grafikkarte können?

Du hast dich im Übrigen für die rote Seite der Macht entschieden, für die Seite die mehr Anhänger, bzw lautere Anhänger hat.
Ich habe dir mitgeteilt, das das keine logische Wahl ist. Deshalb bitte ich dich, das du neben deinem LS Feldzug auch mal die andere Seite in die Schranken verweist.

Ich bin auf keiner Seite der Macht ;)
Immer diese Zuordnungen, eieiei.
In meinem Dialog mit LZ ging es mir eigentlich hauptsächlich um seine provokativen Äußerungen. Dass ich in die eigentliche Tess-Diskussion gar nicht einsteigen wollte, siehst du an Post #5621 (mein erster zu dem Thema). LZ hat das aufgenommen und mich gleich dermaßen aggressiv an die Wand gefahren (beschränkt etc.), dass ich das nicht auf mir sitzen lassen konnte.

Und nur weil meine Meinung sich tendenziell mit einer "Seite" deckt, stehe ich noch lange nicht auf dieser Seite. Das ist, wie wenn man behauptet, alle Araber sind Terroristen :D

PulsarS
2010-05-14, 21:39:43
Jeder GF100 Käufer wird nichts gegen Tessellation haben, weil es so extrem eingesetzt werden muss, um das Spiel unspielbar zu machen. Die ganzen negativen Äußerung kommen doch von denen, die über Hardware verfügen, wo schon der minimalste Einsatz in einem erheblichen Einbruch münden kann.
Schon an diesen Aussagen merkt man, dass du überhaupt keine Ahnung hast, wie Tesselation richtig funktionieren sollte.

Es liegt hier also ein persöliches Interesse die Bedeutung von Tessellation herunterzuspielen, da man bei einer schnellen und komplexen Verbreitung benachteiligt ist.
Merkst du überhaupt noch, was du für ein Müll schreibst?

Da DX11-Tessellation das Feature mit den stärksten optischen Auswirkungen ist, wird es auch in Zukunft so eingesetzt, dass man den Unterschied sehen muss.
Schon wieder... du hast echt keine Ahnung.
Du hast den Sinn hinter Tesselation nicht verstanden.

So wie du es schreibst, bestätigst du, dass Tesselation selbst toll wäre, wenn es schlechter als ohne aussehen würde. :eek:

Und deine Art anderen etwas in den Mund zu legen oder Tatsachen zu verdrehen, sucht einfach ihresgleichen.

Warum kannst du es nicht einfach akzeptieren, dass das Feature Tesselation zwar toll ist, für diese Generation aber einfach noch keine Rolle spielt?

Dafür ist die Umsetzung einfach zu lausig.
Und das kann man sicherlich nicht so schnell ändern.
Wenn du Tesselation richtig einsetzen willst, dann sollte man das schon beim Entwerfen der Engine berücksichtigen.
Oder du schreibst 50% der Engine neu. Viel Spass.

Fetter Fettsack
2010-05-14, 22:09:58
Da DX11-Tessellation das Feature mit den stärksten optischen Auswirkungen ist, wird es auch in Zukunft so eingesetzt, dass man den Unterschied sehen muss. Abseits jeglichen Sinn des Einbauens, sollte das jeder heutige und zukünftige DX11 Interessierte wissen.

Natürlich sollte man es wissen, aber warum jetzt schon Hardware dafür kaufen? Momentan gibt es ja weder Spiele, die brauchbare Tesselierung aufweisen, noch Hardware, die eine solche dann auch mit spielbaren fps auf den Bildschirm zaubern könnte.

Insofern macht es (meiner Ansicht nach) eigentlich überhaupt keinen Sinn, andauernd Tesselation beim Fremi zu loben, wenn sie ohnehin erst in längerer Sicht relevant wird und dann wesentlich leistungsfähigere Karten erwerbbar sind.

Das wäre so, als ob man Patienten ein Regenerationsmittel für durch bestimmte Operationstechniken verursachte Wunden jetzt schon zum Kaufe anpreisen würde, obwohl die Technik erst in drei Jahren angewendet werden soll.

y33H@
2010-05-14, 22:25:21
Es war schon immer so, dass die erste Gen einer neuen DX- der SM-Ausbaustufe in der Praxis zu schwach war, Spiele zu schultern, die davon (massiv) Gebrauch machten. Selbst die legendäre "ub0r-Karte" 8800 GTX.

PulsarS
2010-05-14, 22:30:36
Es war schon immer so, dass die erste Gen einer neuen DX- der SM-Ausbaustufe in der Praxis zu schwach war, Spiele zu schultern, die davon (massiv) Gebrauch machten. Selbst die legendäre "ub0r-Karte" 8800 GTX.
Es geht noch nichtmal um die Performance.
Selbst eine 58x0 wäre für gute Performance ausreichend, wenn man es richtig implementiert.
Die Programmierlogik ist ziemlich schwierig bzw es fehlen noch Erfahrunswerte.
Aber auch der V-RAM müsste ein wenig wachsen.
Man muss viele Punkte berücksichtigen, wenn man Tesselation wirklich korrekt und komplett einfügen will.

Fetter Fettsack
2010-05-14, 22:38:37
@y33h@

Das ist ja nichts schlechtes, vielmehr ist es meiner Meinung nach sogar recht lobenswert, da man immer irgendwie anfangen muss ein Feature einzuführen. Allerdings wird sich ja kaum jemand eine 8800GTX wegen der von dir genannten Neuerungen (DX10 etwa, wenn ich mich recht entsinne) gekauft haben sondern weil die mit den bestehenden Spielen abgegangen ist wie eine Rakete.

Daher halte ich es noch immer nicht für sinnvoll so vehement auf einen momentan (und eigentlich auch zukünftig [bei der GTX4XX]) de facto nutzlosen "Vorteil" zu verweisen. Die Sache ist ansich gut, keine Frage, aber ihre Zeit ist noch nicht gekommen (wenn ich mir erlauben darf, als Laie solch eine pathetische Formulierung zu gebrauchen).

Gast
2010-05-14, 22:45:45
Mir fehlen auch die Worte, wie man im Mai 2010 eine Karte, die in allen Punkten gleichwertig und in einigen besser ist, aber in dem wichtigsten der neusten Feature ein CineFX hinlegt, noch im selben Maß empfehlen kann wie letztes Jahr. Und ja, eine Dx11 Karte mit dieser Tessellationleistung ist "alter Schrott". Die Implementierung ist sooooo 2001.
Das alter Schrott nicht gleichbedeutend mit nutzlos ist, steht hier auf einer komplett anderen Stufe.



.

DU hast dir damals doch bestimmt auch ne 7900 GTX geholt oder?

LovesuckZ
2010-05-14, 22:46:20
Natürlich sollte man es wissen, aber warum jetzt schon Hardware dafür kaufen? Momentan gibt es ja weder Spiele, die brauchbare Tesselierung aufweisen, noch Hardware, die eine solche dann auch mit spielbaren fps auf den Bildschirm zaubern könnte.

Mit GF100 gibt es Hardware, die kein Problem mit Tessellation hat. Die ganze Infrastruktur ist auf Geometrieerzeugung ausgelegt. In Stone Giant verliert man 19% der Leistung von no->high.


Insofern macht es (meiner Ansicht nach) eigentlich überhaupt keinen Sinn, andauernd Tesselation beim Fremi zu loben, wenn sie ohnehin erst in längerer Sicht relevant wird und dann wesentlich leistungsfähigere Karten erwerbbar sind.

Es wird in Bezug auf Geometrieleistung in mindesten den nächsten 12 Monaten keine bessere Hardware geben. GF100 ist also für eine verdammt lange Zeit das ultimativste, was man für Geometrieerzeugung haben kann.
Um das klarzustellen: GTX480 kann mit Tessellation 2,5 Dreiecke/Takt erzeugen. Cypress erreicht gerademal 1/3 Dreiecke/Takt. Im Heaven 2.0 ist die GTX480 im Extreme Modus bis zu 3x so schnell wie die 5870. Im Stone Giant sind es durchschnittlich doppelt so viele Frames. In Stalker 72% mehr.
Tessellation wird in Spielen nie zu aufwendig für GF100 sein.

derguru
2010-05-14, 22:50:04
Mit GF100 gibt es Hardware, die kein Problem mit Tessellation hat. Die ganze Infrastruktur ist auf Geometrieerzeugung ausgelegt. In Stone Giant verliert man 19% der Leistung von no->high.

und fast 50% bei aktiviertem dof X-D

LovesuckZ
2010-05-14, 22:51:47
und fast 50% bei aktiviertem dof X-D

Nö. Bei DoF-Supermodus sind es knapp 10%.
Ist auch logisch, da die Limitierung hier bei der Pixelberechnung liegt.
Jedoch ist eine GTX480 mit Tessellation high und DoF-Supermodus immer noch schneller als eine 5870 nur mit Tessellation auf high.

PulsarS
2010-05-14, 22:53:12
Mit GF100 gibt es Hardware, die kein Problem mit Tessellation hat.
Bist du Programmierer, oder woher diese Sicherheit?
Oder anders gefragt...
GLaubst du, dass der RV870 mit richtig implementierter Tesselation Probleme hätte?

Die ganze Infrastruktur ist auf Geometrieerzeugung ausgelegt.
Da ist vielleicht was Wahres dran.

Es wird in Bezug auf Geometrieleistung in mindesten den nächsten 12 Monaten keine bessere Hardware geben. GF100 ist also für eine verdammt lange Zeit das ultimativste, was man für Geometrieerzeugung haben kann.
Um das klarzustellen: GTX480 kann mit Tessellation 2,5 Dreiecke/Takt erzeugen. Cypress erreicht gerademal 1/3 Dreiecke/Takt. Im Heaven 2.0 ist die GTX480 im Extreme Modus bis zu 3x so schnell wie die 5870. Im Stone Giant sind es durchschnittlich doppelt so viele Frames. In Stalker 72% mehr.
Tessellation wird in Spielen nie zu aufwendig für GF100 sein.
Das mag ja alles vielleicht stimmen... nur...
Was hat man als Spieler von der tollen Fermi-Performance bei der Tesselation, wenn man dadurch schlechtere BQ inkauf nehmen muss?
Das verstehe ich nicht so ganz...
Zur Zeit bedeutet:
Tesselation = schlechtere BQ.
Und das soll man auch noch gutfinden?
Wieso?

derguru
2010-05-14, 22:55:05
Nö. Bei DoF-Supermodus sind es knapp 10%.
Ist auch logisch, da die Limitierung hier bei der Pixelberechnung liegt.
Jedoch ist eine GTX480 mit Tessellation high und DoF-Supermodus immer noch schneller als eine 5870 nur mit Tessellation auf high.
bei high +dof ist die 480gtx "nur" noch ~30% schneller;)
10%?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7985270&postcount=4

Schlammsau
2010-05-14, 22:59:30
Im Grunde kann Fermi theoretisch auch 100x schneller sein...es ist sch**** egal! Fermi ist nur beim tesselieren wirklich schneller. Bei allem andren, hinkt er teilweise sogar 8 Monate alter Hardware hinterher.
Und ich wiederhole mich schon wieder.....er kann seine Vorteile im Moment nur theoretisch ausspielen. Bei allen bis jetzt erschienenen Tess-Titeln reicht eine HD5000 vollkommen aus. Was in der Zukunft erscheint, weiss kein Mensch. Und ich behaupte, auch in den nächsten 1 bis 2 Jahren wird es auch so sein. ;)

Gast
2010-05-14, 23:02:20
Vorallem hate ls ja damals auch ne 7900 gtx anstat eine x1900 xt gekauft.Damals wusste man ja auch das die x1900 xt zukunftsicherer ist.Trotzdem hat er sich für die 7900 GTX entschieden!

Fanboy halt...

LovesuckZ
2010-05-14, 23:03:10
bei high +dof ist die 480gtx "nur" noch 30% schneller;)
10%?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7985270&postcount=4

Gerade nachgemessen:
M DoF: 40 zu 45 FPS -> 11,2% Verlust.
O DoF: 71 zu 88 FPS -> 19,3% Verlust.

Je aufwendiger die Pixelberechnungen sind, umso geringer der Verlust mit Tessellation. Das bedeutet auch: Die Reduzierung der Auflösung führt zu mehr Frames im Gegensatz zu Cypress, wo eine Setup-Limiterung existiert.

Vorallem hate ls ja damals auch ne 7900 gtx anstat eine x1900 xt gekauft.Damals wusste man ja auch das die x1900 xt zukunftsicherer ist.Trotzdem hat er sich für die 7900 GTX entschieden!

Fanboy halt...

Ich hatte sogar eine X1800XT und eine 7800GTX-512. :lol:

Fetter Fettsack
2010-05-14, 23:04:10
@LovesuckZ

Und was hat man von diesem Vorsprung? In Metro werden (so ich es richtig in Erinnerung habe) einfach nur NPCs und Objekte aufgeblasen, wie sich Tesselation in Stalker macht, weiß ich nicht (Lobeshymnen sind mir aber noch keine untergekommen) und von der Leistung in Benchmarks hat man, um es polemisch zu formulieren, auch keine sonderliche Spielfreude.

Hoffentlich missverstehe ich den Zweck von Tesselation nicht falsch, aber es dient ja dazu, sicherzustellen, dass man einen schöneren optischen Eindruck bekommt. Wie ich aber zu wissen meine, ist das nicht (wirklich) gegeben. Ergo geht das Verlangen nach tesselationsoptimierten Karten ins Leere, weil es nichts gibt, wo sie sich austoben könnten.

Auch wird es wohl nicht allzu verwegen sein zu mutmaßen, dass der Tesselationsgrad in Zukunft steigen wird (und hoffentlich der Qualitätsgrad der Implementierungen), wodurch dann auch die GTX4XX-Karten an ihre Grenzen stoßen werden.

Worauf ich hinaus will: Feature richtungsweisend, aber eben erst dann brauchbar, wenn schon viel besseres auf dem Markt käuflich erwerbbar ist. Daher drängt sich mir eben stark die Frage nach der Sinnhaftigkeit der momentanen Lobpreisung auf.

SamLombardo
2010-05-14, 23:13:04
Natürlich sollte man es wissen, aber warum jetzt schon Hardware dafür kaufen?
Muss man ja gar nicht. Wenn man jetzt keine Karte braucht, kann man warten was die Refreshes bringen und dann kaufen. Nur: Wenn man jetzt eine Grafikkarte kaufen möchte, finde ich, kann man imho nicht ruhigen Gewissens eine HD5... empfehlen! Weil fermi eben doch, trotz theoretisch gleichem tech Level, eine Generation weiter ist. Wenn heute eine neue Graka braucht und man wenigstens die Chance haben will potentielle Hits wie Crysis2, Witcher 2 usw bestmöglich zocken zu können, kann mit dem heute möglichen Stand eigentlich nur GF100 in Frage kommen.

Schlammsau
2010-05-14, 23:15:23
Muss man ja gar nicht. Wenn man jetzt keine Karte braucht, kann man warten was die Refreshes bringen und dann kaufen. Nur: Wenn man jetzt eine Grafikkarte kaufen möchte, finde ich, kann man imho nicht ruhigen Gewissens eine HD5... empfehlen! Weil fermi eben doch, trotz theoretisch gleichem tech Level, eine Generation weiter ist.


Wenn man danach geht, hätte man seit dem erscheinen der HD3000 Serie auch keine GeForce empfehlen dürfen. Die haben ja bis zum Schluss nur DX10 (ohne .1) unterstützt.

PulsarS
2010-05-14, 23:16:14
Muss man ja gar nicht. Wenn man jetzt keine Karte braucht, kann man warten was die Refreshes bringen und dann kaufen. Nur: Wenn man jetzt eine Grafikkarte kaufen möchte, finde ich, kann man imho nicht ruhigen Gewissens eine HD5... empfehlen! Weil fermi eben doch, trotz theoretisch gleichem tech Level, eine Generation weiter ist.
Eine sehr gewagte Aussage.
Was verleitet dich dazu, dies zu glauben?
Warum soll der Fermi eine Generation weiter sein?
Eine Generation weiter ist DX12, sonst nichts.

mapel110
2010-05-14, 23:17:41
Wenn man danach geht, hätte man seit dem erscheinen der HD3000 Serie auch keine GeForce empfehlen dürfen. Die haben ja bis zum Schluss nur DX10 (ohne .1) unterstützt.
Als nvidia kein 10.1 bot, war klar, dass es nie eine große Bedeutung erlangen würde.

SamLombardo
2010-05-14, 23:17:55
Wenn man danach geht, hätte man seit dem erscheinen der HD3000 Serie auch keine GeForce empfehlen dürfen. Die haben ja bis zum Schluss nur DX10 (ohne .1) unterstützt.
Meine Vorgängerkarte war die HD 3870X2:) Auch wenn es sich vielleicht so anhört bin ich kein NV Fanboy, sondern vielmehr ein Fan innovativer Grafikhardware;)

Gruß Sam und Gute Nacht

derguru
2010-05-14, 23:18:44
Gerade nachgemessen:
M DoF: 40 zu 45 FPS -> 11,2% Verlust.
O DoF: 71 zu 88 FPS -> 19,3% Verlust.

Je aufwendiger die Pixelberechnungen sind, umso geringer der Verlust mit Tessellation. Das bedeutet auch: Die Reduzierung der Auflösung führt zu mehr Frames im Gegensatz zu Cypress, wo eine Setup-Limiterung existiert.

die rede ist aber von dof on zu off.:wink:

Gast
2010-05-14, 23:24:09
Wenn man danach geht, hätte man seit dem erscheinen der HD3000 Serie auch keine GeForce empfehlen dürfen. Die haben ja bis zum Schluss nur DX10 (ohne .1) unterstützt.
Du hast keine Geforce empfohlen, wegen dem .1.
Davon abgesehen das klar war das .1 nie bedeutend werden wird und du es selbst bei der 2. .1 Generation nicht erkannt hast.

SamLombardo
2010-05-14, 23:24:25
Eine sehr gewagte Aussage.
Was verleitet dich dazu, dies zu glauben?
Warum soll der Fermi eine Generation weiter sein?
Eine Generation weiter ist DX12, sonst nichts.
Die komplette Architektur des GF100 ist auf DX11 ausgelegt, während HD5... das alte Design quasi mit "DX11 Aufsatz" betreibt. So meinte ich das, auch wenn Du rein vom tech level gesehen natürlich Recht hast;)

LovesuckZ
2010-05-14, 23:25:15
die rede ist aber von dof on zu off.:wink:

Laut dem (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7986807&postcount=29) ist eine GTX480 immer noch 60% schneller.

@LovesuckZ

Und was hat man von diesem Vorsprung? In Metro werden (so ich es richtig in Erinnerung habe) einfach nur NPCs und Objekte aufgeblasen, wie sich Tesselation in Stalker macht, weiß ich nicht (Lobeshymnen sind mir aber noch keine untergekommen) und von der Leistung in Benchmarks hat man, um es polemisch zu formulieren, auch keine sonderliche Spielfreude.

Laut CB.de verliert eine GTX480 in Metro2033 5,8% und in Stalker 11,1% an Leistung mit Tessellation. Bei der 5870 beträgt der Verlust 16,3% und 30,4%. In beiden Fällen beträgt der relative Leistungseinbruch zwischen der GTX480 und der 5870 jeweils nur 1/3. Und das ist der Leistungsverlust über die gesamte Zeitdauer.


Hoffentlich missverstehe ich den Zweck von Tesselation nicht falsch, aber es dient ja dazu, sicherzustellen, dass man einen schöneren optischen Eindruck bekommt. Wie ich aber zu wissen meine, ist das nicht (wirklich) gegeben. Ergo geht das Verlangen nach tesselationsoptimierten Karten ins Leere, weil es nichts gibt, wo sie sich austoben könnten.

Der Nutzen von Tessellation besteht erstmal in der Erzeugung von Vielecken bzw. Dreiecken. Erst in Verbindung mit Displacement Mapping kann für eine bessere Optik gesorgt werden. Z.B. muss man jetzt nicht mehr Fake-Illusionen durch Bump Mapping bzw. Parallax Occlusion Mapping erzeugen, sondern kann mit echter Geometrie Wände designen. SIehe auch Stone Giant:
http://www.abload.de/thumb/stone_giant_htzweh.png (http://www.abload.de/image.php?img=stone_giant_htzweh.png)
http://www.abload.de/thumb/stone_giant_nt3mp9.png (http://www.abload.de/image.php?img=stone_giant_nt3mp9.png)
http://www.abload.de/thumb/stone_giant_nt_1xkcv.png (http://www.abload.de/image.php?img=stone_giant_nt_1xkcv.png)


Auch wird es wohl nicht allzu verwegen sein zu mutmaßen, dass der Tesselationsgrad in Zukunft steigen wird (und hoffentlich der Qualitätsgrad der Implementierungen), wodurch dann auch die GTX4XX-Karten an ihre Grenzen stoßen werden.

Das wird in den nächsten 1-2 Jahren nicht geschehen. Bevor die Geometrielast zu überwältigend für GF100 ist, bricht sie unter den Pixelberechnungen förmlich ein.


Worauf ich hinaus will: Feature richtungsweisend, aber eben erst dann brauchbar, wenn schon viel besseres auf dem Markt käuflich erwerbbar ist. Daher drängt sich mir eben stark die Frage nach der Sinnhaftigkeit der momentanen Lobpreisung auf.

Es wird nichts besseres geben. GF100 steht für das abnormale. Ein Chip, der im ersten Versuch mehr als ausreichend für das Featureset von DXxx ist. Der letzte Vertreter dieser Gattung war die 9700pro.

Fetter Fettsack
2010-05-14, 23:32:38
@SamLombardo

Ich wollte auch nicht darauf hinaus, dass man jetzt eine HD5XXX empfehlen muss, sondern, dass ich es als unsinnig erachte, das Feature der Tesselation zu diesem Zeitpunkt so in den Himmel zu loben.

Aus der Sache mit Kaufempfehlungen im Highend-Bereich halte ich mich gerne heraus, dass ist nicht so meine Domäne. :-)

derguru
2010-05-14, 23:35:12
Laut dem (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7986807&postcount=29) ist eine GTX480 immer noch 60% schneller.
ich hatte mit einer 5870 2gb 32fps bei high aber wayne,mir gings nur um den dof verlust des fermis.

Gast
2010-05-14, 23:36:45
Ich bin auf keiner Seite der Macht ;)
Immer diese Zuordnungen, eieiei.
In meinem Dialog mit LZ ging es mir eigentlich hauptsächlich um seine provokativen Äußerungen. Dass ich in die eigentliche Tess-Diskussion gar nicht einsteigen wollte, siehst du an Post #5621 (mein erster zu dem Thema). LZ hat das aufgenommen und mich gleich dermaßen aggressiv an die Wand gefahren (beschränkt etc.), dass ich das nicht auf mir sitzen lassen konnte.

Und nur weil meine Meinung sich tendenziell mit einer "Seite" deckt, stehe ich noch lange nicht auf dieser Seite. Das ist, wie wenn man behauptet, alle Araber sind Terroristen :D
Du hast "NV Fanboyfraktion" und "meckert" geschrieben. In einem GTX 470/480 Fred.

Wenn hier jemand meckert dann nicht die. Die werden ihr Produkt loben.

Deshalb sag ich doch, das du nicht die übermächtige rote Fraktion noch unterstützen sollst.
Es ist ja ok, das du beschwichtigen willst, Tesselation kann allen helfen. Aber es wirkte nunmal sehr einseitig. Schlammsau und guru schreiben gerade noch das Tesselation verboten gehört und du beisst dich an LS fest. Das führt im Endeffekt nur zu einem persöhnlichen Streit, wie du nur zu gut weisst, dennoch beisst du dich immer wieder an ihm fest.
Stattdessen hätte ich mir gewünscht, das du auch andere genannte mal aufgreifst.
Deine Ansicht deckt sich nicht mit einer der genannten Seiten. Du hast geschrieben das sich jeder an Tesselation erfeuen könnte, eine Aussage die in keinster Form mit obigen genannten Personen übereinstimmt.
Ich hatte noch hineingebracht, das obige genannte Personen schlicht alles schlecht reden, soweit nichts neues. Deshalb wollte ich mal eine klare Ansage, was es den ist was man braucht. Ein rohes Spiel wäre wohl Doom1, ganz ohne Schnickschnack.

LovesuckZ
2010-05-14, 23:42:13
ich hatte mit einer 5870 2gb 32fps bei high aber wayne,mir gings nur um den dof verlust des fermis.

Was hat der Leistungsverlust mit einem Feature, dass nicht durch Geometrierzeugung hervorgerufen wird, mit der Aussage zu tun, dass GF100 zu langsam für schwere Tessellationarbeit wäre? :confused:
Das zeigt doch nur, dass Geometrieerzeugung eben nicht, der Pferdefuß von GF100 ist.

derguru
2010-05-14, 23:56:58
Was hat der Leistungsverlust mit einem Feature, dass nicht durch Geometrierzeugung hervorgerufen wird, mit der Aussage zu tun, dass GF100 zu langsam für schwere Tessellationarbeit wäre? :confused:

nichts,hab ich das erwähnt gehabt.:confused::rolleyes:
nackte tessleistung interessiert eh kein mensch,doch den einen oder anderen:biggrin:

LovesuckZ
2010-05-14, 23:59:21
nichts,hab ich das erwähnt gehabt.:confused::rolleyes:
nackte tessleistung interessiert eh kein mensch,doch den einen oder anderen:biggrin:

Natürlich. Du zitierst mich genau aus diesem Zuammenhang.

Bucklew
2010-05-15, 00:05:48
Und erneut hat sich unser forumeigenes ATI-Hausorakel mit einer Vorraussage einen grandiosen Fenstersturz ereilt:

Nvidia Shipped 400 Thousand Fermi-Class Chips – Analyst.

An independent analyst has confirmed that Nvidia Corp., a leading supplier of graphics and multimedia chips, has shipped hundreds of thousands Fermi-generation graphics processors. According to Jon Peddie, the head of Jon Peddie Research, Nvidia so far has shipped 400 thousand Fermi-generation chips.
http://www.xbitlabs.com/news/video/display/20100514065941_Nvidia_Shipped_400_Thousand_Fermi_Class_Chips_Analyst.html

Verglichen mit den 100.000 Karten von ATI in den ersten zwei Monaten (http://www.pcgameshardware.de/aid,699216/Verfuegbarkeit-der-Radeon-HD-5800-AMD-will-ausgelieferte-Stueckzahlen-wesentlich-erhoehen/Grafikkarte/News/) also eine ganz klare Deklassion von ATI.

Somit können wir der Mär von der schwachen Nachfrage der Fermikarten wohl eine deutliche Absage erteilen, die Frage die sich nur noch stellt: Welche Ausrede kommt wohl jetzt? Das das alles nur Teslakarten wären? Oder gar direkt die ganz harte Nuss und die Quelle lügt? Lassen wir uns überraschen ;D

Fetter Fettsack
2010-05-15, 00:12:02
Ist "shipped" als "an-Händler-ausgeliefert" oder als "an-Endkunden-verkauft" zu verstehen?

LovesuckZ
2010-05-15, 00:13:14
shipped bedeutet, dass sie an ihre Partner verkauft haben.

Bucklew
2010-05-15, 00:17:57
Ist "shipped" als "an-Händler-ausgeliefert" oder als "an-Endkunden-verkauft" zu verstehen?
Für Nvidia kein Unterschied, nur für Asus, EVGA & Co ;)

Fetter Fettsack
2010-05-15, 00:18:56
Es werden ja "nur" GTX470 und 480 hergestellt. Gibt es einen derart großen Markt für diese Karten, dass man fix damit rechnet, dass die alle innerhalb kürzester Zeit weggehen (ansonsten wäre das ja sinnlos [wenn man die Karten als Partner nur aufkaufen würde, ohne danach lechzenden Absatzmarkt])?

Godlike
2010-05-15, 00:28:06
Verglichen mit den 100.000 Karten von ATI in den ersten zwei Monaten (http://www.pcgameshardware.de/aid,699216/Verfuegbarkeit-der-Radeon-HD-5800-AMD-will-ausgelieferte-Stueckzahlen-wesentlich-erhoehen/Grafikkarte/News/) also eine ganz klare Deklassion von ATI.


Dass die Fertigung nach 8 Monaten besser ist als vorher kommt dir aber nicht in den Sinn?

Gast
2010-05-15, 00:30:53
Shipped bedeutet shipped. Verkauft ist da gar nichts. Diese 400.000 Karten können genau so gut 12 Monate bei den Partnern liegen und nVidia "shipped" die nächsten 12 Monate gar nichts mehr. Wer mal bei Geizhals reinguckt, wird 300 Shops mit lieferbaren GTX 480 sehen. Wenn im Schnitt jeder Shop 6 Karten auf Lager hat, sind es 1.800 Karten, die alle "shipped" sind.

mapel110
2010-05-15, 00:35:41
Shipped bedeutet shipped. Verkauft ist da gar nichts. Diese 400.000 Karten können genau so gut 12 Monate bei den Partnern liegen und nVidia "shipped" die nächsten 12 Monate gar nichts mehr. Wer mal bei Geizhals reinguckt, wird 300 Shops mit lieferbaren GTX 480 sehen. Wenn im Schnitt jeder Shop 6 Karten auf Lager hat, sind es 1.800 Karten, die alle "shipped" sind.
Nur sind das schon die Endkundenhändler. Dazwischen gibts noch Großhändler. Und die OEM-PC-Bastler sollte man auch nicht vergessen.
http://suche.dell.de/1/1/85837-dell-alienware-area51-desktop-pc-dual-1-5gb-nvidia-geforce-gtx-480.html

derguru
2010-05-15, 00:41:31
mal schauen wann die ersten nv partner rote zahlen schreiben,lange wird es nicht dauern.;)

Gast
2010-05-15, 00:41:56
Nur sind das schon die Endkundenhändler. Dazwischen gibts noch Großhändler. Und die OEM-PC-Bastler sollte man auch nicht vergessen.
http://suche.dell.de/1/1/85837-dell-alienware-area51-desktop-pc-dual-1-5gb-nvidia-geforce-gtx-480.html

Inwiefern widerspricht das meinem Beitrag? Auch da ist shipped nur shipped. Wenn Dell 10.000 Stück abgenommen hat und die nächsten 6 Monate nichts loswird, shipped nVidia lange Zeit nichts mehr an Dell. Die 400.000 können als die nächsten 12 Monate genau so konstant bleiben.

Gast
2010-05-15, 01:01:25
Die 400.000 können als die nächsten 12 Monate genau so konstant bleiben.

Ich revidiere: Sie werden konstant bleiben. An der Steam Hardware Survey sieht man ja sehr gut, welche Karten wie häufig gekauft werden. Da kommt die HD 4800-Reihe auf 8,30 % und GTX 275 + 280 + 285 auf 3,25 % aller verkauften GPUs. Die Parallele ist: HD 5000-Reihe (inkl. der Mainstream HD 5770 etc.) vs. teurere High-End-Fermis: GTX 470 + GTX 480. Dass letztere sich nun auch nur annähernd besser verkaufen könnten, könnt ihr euren Großmüttern erzählen. Wieso sollten sie? Die High-End GTX 200-Reihe hat sich auch nicht besser verkauft und die hatte nichtmal mit schlechter Presse zu kämpfen, während Fermi im Moment mit sehr schlechter Presse zu kämpfen hat und AMD überall gelobt wird.

LovesuckZ
2010-05-15, 01:26:27
GTX460, GTX470 und GTX480 liegen alle zwischen AMD Produkten. Die GTX260 ist bei Steam genauso oft vertreten wie die GTX275 GTX280 und GTX285 sowie GTX295 zusammen. Demnach wird sich GTX4xx genauso oft verkaufen wie die 58xx Reihe.

Gast
2010-05-15, 01:45:27
GTX460, GTX470 und GTX480 liegen alle zwischen AMD Produkten. Die GTX260 ist bei Steam genauso oft vertreten wie die GTX275 GTX280 und GTX285 sowie GTX295 zusammen. Demnach wird sich GTX4xx genauso oft verkaufen wie die 58xx Reihe.

Ich halte dagegen. Wie du selber richtig sagst, hat die GTX 260 den größten Absatz ausgemacht, nicht die teureren Karten. Die GTX 260 war aber auch eine hervorragende Karte, die so schnell wie die schnellste AMD, die HD 4890 war, mit einer zudem niedrigeren Leistungsaufnahme. Die kommende GTX 460 wird sich allerdings leistungsmäßig irgendwo bei einer HD 5830 einordnen, offensichtlich zum Preis einer HD 5850. Niemals wird sie sich so gut verkaufen wie eine GTX 260. Die Wette gehe ich ein.

Aber darum ging's mir auch gar nicht. Es ging um diese Aussage:


http://www.xbitlabs.com/news/video/display/20100514065941_Nvidia_Shipped_400_Thousand_Fermi_Class_Chips_Analyst.html

Verglichen mit den 100.000 Karten von ATI in den ersten zwei Monaten (http://www.pcgameshardware.de/aid,699216/Verfuegbarkeit-der-Radeon-HD-5800-AMD-will-ausgelieferte-Stueckzahlen-wesentlich-erhoehen/Grafikkarte/News/) also eine ganz klare Deklassion von ATI.

Niemals deklassieren GTX 470 + 480 die HD 5000-Reihe zum Zeitpunkt einer absoluten Monopolstellung.

LovesuckZ
2010-05-15, 01:59:21
Ich halte dagegen. Wie du selber richtig sagst, hat die GTX 260 den größten Absatz ausgemacht, nicht die teureren Karten. Die GTX 260 war aber auch eine hervorragende Karte, die so schnell wie die schnellste AMD, die HD 4890 war, mit einer zudem niedrigeren Leistungsaufnahme. Die kommende GTX 460 wird sich allerdings leistungsmäßig irgendwo bei einer HD 5830 einordnen, offensichtlich zum Preis einer HD 5850. Niemals wird sie sich so gut verkaufen wie eine GTX 260. Die Wette gehe ich ein.


Die GTX260 war so schnell wie eine 4870 zum leicht höhreren Preis. Alle GTX2xx Karten sind fast genauso oft verteten wie die 48xx Reihe, trotz deutlich höhrerem Preis.
Die Logik, dass dies jetzt - abgesehen vom Vorsprung - nicht mehr zutreffen wird, ist nicht vorhanden.

Schlammsau
2010-05-15, 08:36:58
Und erneut hat sich unser forumeigenes ATI-Hausorakel mit einer Vorraussage einen grandiosen Fenstersturz ereilt:


http://www.xbitlabs.com/news/video/display/20100514065941_Nvidia_Shipped_400_Thousand_Fermi_Class_Chips_Analyst.html

Verglichen mit den 100.000 Karten von ATI in den ersten zwei Monaten (http://www.pcgameshardware.de/aid,699216/Verfuegbarkeit-der-Radeon-HD-5800-AMD-will-ausgelieferte-Stueckzahlen-wesentlich-erhoehen/Grafikkarte/News/) also eine ganz klare Deklassion von ATI.

Somit können wir der Mär von der schwachen Nachfrage der Fermikarten wohl eine deutliche Absage erteilen, die Frage die sich nur noch stellt: Welche Ausrede kommt wohl jetzt? Das das alles nur Teslakarten wären? Oder gar direkt die ganz harte Nuss und die Quelle lügt? Lassen wir uns überraschen ;D

Marketinggewäsch! Und auch wenns so wäre, weiss kein Mensch wie lange nVidia seine Fermis schon ausliefert.
Du glaubst doch nicht ernsthaft, dass nVidia mehr High End Grafikkarten verkauft hat, als Ati mit ihren gerade zu Anfang deutlichst günstigeren Modellen!? Und noch etwas, 400000 gelieferte GPUS, heist noch lange nicht, das die Karten auch verkauft wurden. ;)
Realitätsverlust nennt man das!

Pass mal lieber auf das du keinen Fenstersturz erlebst, ich habe nach wie vor das Gefühl, dass Fermi wie Blei in den Regalen der Händler steht. ;)
Der fallende Preis gerade der 480, betstätigen mich weiterhin, ab 467€ ist sie bereits zu erwerben.

Gast
2010-05-15, 08:53:46
Realitätsverlust...aus deinem Mund..ich lach mich schlapp....meine Herren ist das wieder ein Witz um die Uhrzeit.

Zu Anfang......da gabs eine Karte pro Großstadt.....es wirklich nicht mehr feierlich....ich verstehe so langsam wieso hier immer weniger schreiben die Hirn im Kopf haben.

Fetter Fettsack
2010-05-15, 09:10:35
Geht es eigentlich auch ohne persönlich zu werden? Abgesehen davon, dass man dann zusehen kann, wie sich zwei oder gar mehrere gegenseitig verbal zerfleischen, kann ich nämlich keine wirklich stichhaltigen Vorteile darin erkennen.

Gast
2010-05-15, 10:16:22
Pass mal lieber auf das du keinen Fenstersturz erlebst, ich habe nach wie vor das Gefühl, dass Fermi wie Blei in den Regalen der Händler steht. ;)
Der fallende Preis gerade der 480, betstätigen mich weiterhin, ab 467€ ist sie bereits zu erwerben.
Das könnte gut möglich sein.
Es ist einfach nicht normal, dass bei einer neuen Generation so wenig interesse besteht.
http://geizhals.at/deutschland/?o=8
Wenn man bedenkt, dass die GTX 4x0 brandneu ist, die 5000er aber schon ein halbe Jährchen alt ist, dann ist das Interesse für die neuen Nvidia-Karten sehr gering.
Aber kein Wunder. Der Fermi ist von der Presse nicht unbedingt positiv aufgenommen worden.
Und das Fazit war auch meistens so, dass die GTX 4x0 Karten zwar schnell sind, dass rundere Produkt aber die 58x0er liefern.

Könnte gut sein, dass deswegen jetzt die GTX 4x0 Karten nun in den Regalen verstauben werden.
Mal sehen.

Zatoichi
2010-05-15, 10:32:03
Es kann auch eine gewisse Sättigung da sein. Was dagegen spricht, ist das der Preis der 5xxx Serie nicht nachgiebt. Aber solche Dinge sind immer Spekulativ.

Gast
2010-05-15, 11:09:14
@Zatoichi

Das mit der Sättigung mag zwar auch stimmen, das Interesse an Karten von ATI ist jedoch größer, auch wenn diese Karten älter sind.
Die Ranglisten bei Geizhals sind ein guter Indikator für das Interesse an einem bestimmten Produkt.

Dr. Lloyd
2010-05-15, 11:10:48
Dass nVidias neue G100-Serie so rasch im Preis gesunken und zudem sehr gut verfügbar ist, liegt wohl an der Summe vieler Faktoren:

1.) Die Reviews sind aufgrund des enormen Stromverbrauchs und der hohen Lautstärke tendenziell negativ ausgefallen.

2a.) Die Hardwareanforderungen, insbesondere an das Netzteil, übersteigen das Vorhandene vieler potentieller Kunden.

2b.) Nicht jeder dieser Kunden hat das Geld ~600,- € für Grafikkarte+Netzteil auszugeben sowie ist auch nicht jeder bereit für eine neue Grafikkarte das Netzteil zu erneuern.

3.) Starker Wettbewerb durch ATIs 58x0-Serie.

4.) Marktsättigung durch Konkurrent ATI oder Vorgängermodelle.

5.) Eine immer noch andauernde Wirtschaftskrise, in der viele Menschen andere Sorgen haben, als sich eine neue High-End-Grafikkarte anschaffen zu müssen.

6.) Die Yield-Rates von TSMC waren deutlich besser als erwartet.

7.) Auch wenn es das Wetter noch nicht vermuten lässt, aber wir steuern unaufhaltsam auf das Sommerloch zu.

Gast
2010-05-15, 11:20:53
Welche Marktsättigung? Rate mal wieviele Grafikkarten dieses Jahr aufgrund von Blockbuster wie Starcraft2 weltweit ausgetauscht werden...

Dr. Lloyd
2010-05-15, 11:24:28
Sag du es uns doch, wenn du genaue Zahlen hast!

Botcruscher
2010-05-15, 11:32:07
Starcraft 2 läuft doch auf jeder Möhre. (AA mal ausgelassen, bei Strategie aber eh nicht so wichtig)

Dr. Lloyd
2010-05-15, 11:53:28
Richtig. Noch dazu kauft sich die Masse eh keine neue Hardware für einen Spieletitel. Deshalb wurde auch Crysis ein Verkaufsflop. Und im Gegensatz dazu, haben die Macher von World of Warcraft ihre Cashcow nicht umsonst auf einen 486er optimiert.

Raff
2010-05-15, 12:04:33
Seit den ganzen Grafikupdates läuft WoW nicht mehr auf jedem Steinzeit-PC, mit dem "Ultra"-Grafikmodus (http://www.pcgameshardware.de/aid,682350/World-of-Warcraft-31-Neuer-WoW-Ultra-Video-Modus-im-Benchmark-Test-Top-Artikel-April-2009/Rollenspiel-Adventure/Test/) und seinen Assi-Shadows war der Titel sogar eine zeitlang ein High-End-Killer. Mit Catalys... ääh, Cataclysm wird die Latte nochmal etwas heraufgesetzt.

MfG,
Raff

Dr. Lloyd
2010-05-15, 12:09:56
Ja, eben... diese sensationellen Sreenshots zeigen... ääh... ja... den "Ultra"-Grafikmodus...

Schlammsau
2010-05-15, 12:11:07
Dass nVidias neue G100-Serie so rasch im Preis gesunken und zudem sehr gut verfügbar ist, liegt wohl an der Summe vieler Faktoren:

1.) Die Reviews sind aufgrund des enormen Stromverbrauchs und der hohen Lautstärke tendenziell negativ ausgefallen.

2a.) Die Hardwareanforderungen, insbesondere an das Netzteil, übersteigen das Vorhandene vieler potentieller Kunden.

2b.) Nicht jeder dieser Kunden hat das Geld ~600,- € für Grafikkarte+Netzteil auszugeben sowie ist auch nicht jeder bereit für eine neue Grafikkarte das Netzteil zu erneuern.

3.) Starker Wettbewerb durch ATIs 58x0-Serie.

4.) Marktsättigung durch Konkurrent ATI oder Vorgängermodelle.

5.) Eine immer noch andauernde Wirtschaftskrise, in der viele Menschen andere Sorgen haben, als sich eine neue High-End-Grafikkarte anschaffen zu müssen.

6.) Die Yield-Rates von TSMC waren deutlich besser als erwartet.

7.) Auch wenn es das Wetter noch nicht vermuten lässt, aber wir steuern unaufhaltsam auf das Sommerloch zu.

In allen Punkten hast du vollkommen recht!

Dr. Lloyd
2010-05-15, 12:16:36
Oh, danke! Ein Lob vom Fachmann. Das ist immer gern gesehen. Ich hoffe du bist mir aber nicht böse, wenn ich nächste Woche schwach werde, und mir 'ne GTX 480 kaufe. Ich bin nämlich schon ganz scharf auf das Teil! :biggrin:

Botcruscher
2010-05-15, 12:19:24
WoW ultra *hust*
Da ist schlicht die Engine am absoluten Ende und die Skalierung deswegen unterirdisch. Die dargestellt Grafik passt nicht im geringsten zur benötigten Leistung.

Schlammsau
2010-05-15, 12:19:27
Oh, danke! Ein Lob vom Fachmann. Das ist immer gern gesehen. Ich hoffe du bist mir aber nicht böse, wenn ich nächste Woche schwach werde, und mir 'ne GTX 480 kaufe. Ich bin nämlich schon ganz scharf auf das Teil! :biggrin:

Tu das was du nicht lassen kannst! ;)

Ich helf dir sogar....hier gibts sogar eine für 460€.
http://www.msx-it.com/Colorful-technology-and-development-Colorful-GF-GTX480-Grafikkarte-GF-GTX-480-G480-155M40C-P_detail_53219.html?sPartner=geizhals

Wennst noch bis Ende des Monats wartest, bekommst das Ding für unter 430€ hinterhergeschmissen. :)

Raff
2010-05-15, 12:22:54
WoW ultra *hust*
Da ist schlicht die Engine am absoluten Ende und die Skalierung deswegen unterirdisch. Die dargestellt Grafik passt nicht im geringsten zur benötigten Leistung.

Vermutlich. Aber was hat das mit der Grundaussage zu tun, dass das Spiel durchaus eine gescheiten Rechner benötigt? ;) Software sells Hardware. Je mehr ruckelnde Software, desto mehr Leute, auch MMO-Spieler, werden früher oder später aufrüsten.

Wennst noch bis Ende des Monats wartest, bekommst das Ding für unter 430€ hinterhergeschmissen. :)

Super. Ist dann immer noch arschlaut. Mit einer Wakü hingegen ... lecker Teilchen.

MfG,
Raff

Dr. Lloyd
2010-05-15, 12:26:48
Tu das was du nicht lassen kannst! ;)

Ich helf dir sogar....hier gibts sogar eine für 460€.
http://www.msx-it.com/Colorful-technology-and-development-Colorful-GF-GTX480-Grafikkarte-GF-GTX-480-G480-155M40C-P_detail_53219.html?sPartner=geizhals
Danke für den Tipp! Jedoch war ich es, der das bereits heute früh im Verfügbarkeits-Thread für euch gepostet hat. Aber macht ja nix, jetzt weiß es auch in diesem Thread jeder. :)

Wennst noch bis Ende des Monats wartest, bekommst das Ding für unter 430€ hinterhergeschmissen. :)
Ich glaube das halte ich so lange nicht mehr durch. Aber vielleicht... mmh... mal sehen...

Fetter Fettsack
2010-05-15, 12:31:54
@Raff

Eine rein theoretische Frage: Wenn man die GTX480 fleißig undervoltet und auch mit dem Takt etwas zurückfährt, würde die dann im Referenzdesign in einem akzeptablen Lautstärkerahmen laufen?

Botcruscher
2010-05-15, 12:34:55
Die Grundaussage ändert sich dahin, dass es mit minimal schlechterer Grafik immer noch auf einem "486er" läuft und sich deswegen niemand eine neue Grafikkarte kauft.
Abgesehen davon dürfte WoW der Bremsklotz der PC-Geschichte sein. Es läuft überall, technische Entwicklung gleich null und Millionen die weder aufrüsten noch andere Spiele kaufen. Der Spruch Software verkauft Hardware wird bei WoW sehr zwiespältig.
Grundaussage des Gasts waren eigentlich die vielen Blockbuster dieses Jahr. Ich sehe da keinen wirklich anspruchsvollen. Immerhin gibt es bis 2011 keinen Grund zum Aufrüsten. Dann kommen endlich schnuckelige neue Architekturen.:D 2010 ist irgendwie absolut tote Hose im Hardwarebereich.

LovesuckZ
2010-05-15, 12:34:57
@Raff

Eine rein theoretische Frage: Wenn man die GTX480 fleißig undervoltet und auch mit dem Takt etwas zurückfährt, würde die dann im Referenzdesign in einem akzeptablen Lautstärkerahmen laufen?

Ja, kaum wahrnehmbar und sehr kalt.
Ich habe hier 78°C bei 66% Lüftersteuerung mit 0,938V.

Schlammsau
2010-05-15, 12:35:18
Super. Ist dann immer noch arschlaut. Mit einer Wakü hingegen ... lecker Teilchen.

MfG,
Raff

Moment.....du siehst also den TDP-Bruch (250 vs >300W) und den exorbitanten Stromverbrauch unter Last und beim Multimonitorbetrieb (100W!), als nicht schlimm an? Ein leckres Teilchen ist was andres!

Aber egal....hier sind eh alle verblendet. Ich bin raus!

Bucklew
2010-05-15, 12:42:49
Marketinggewäsch!
Im Gegensatz zu den Zahlen von AMD (die AMD selbst veröffentlicht hat), sind dies Zahlen von Analysten. Von wegen Marktinggewäsch. Den Unterschied sollte man schon kennen...

Du glaubst doch nicht ernsthaft, dass nVidia mehr High End Grafikkarten verkauft hat, als Ati mit ihren gerade zu Anfang deutlichst günstigeren Modellen!? Und noch etwas, 400000 gelieferte GPUS, heist noch lange nicht, das die Karten auch verkauft wurden. ;)
1. Haben sie, 4x soviele. Oder hast du andere Zahlen und nicht nur wildeste Spekulationen fernab der Realität?
2. Für Nvidia ist das egal, ob sie nun die GPU verkauft haben oder im Endeffekt die Karte.

Pass mal lieber auf das du keinen Fenstersturz erlebst, ich habe nach wie vor das Gefühl, dass Fermi wie Blei in den Regalen der Händler steht. ;)
Der fallende Preis gerade der 480, betstätigen mich weiterhin, ab 467€ ist sie bereits zu erwerben.
War mir klar, dass du natürlich wieder mal die Fakten absolut ignorierst und stattdessen irgendwelchen Bullshit erzählst, für den du weder Indizien, geschweige den Beweise hast. Einfach nur lustig, wie man sich nur dermaßen zum Affen machen kann ;D

Von daher hast du es auf den Punkt gebracht:
Realitätsverlust nennt man das!
Einsicht ist der erste Weg zu Besserung ;D

LovesuckZ
2010-05-15, 12:49:06
Wie gesagt: Schlammsau's Meinung über Nachfrage und Verkäufe ist abhängig vom Hersteller. Bei AMD - von denen er wohl auch bezahlt wird für das virale Marketing - bedeutet hohe Verfügbarkeit und Preise unter UVP keine geringe Nachfrage. Bei nVidia bedeutet hohe Verfügbarkeit und Preise unter UVP eine geringe Nachfrage.
Man sieht, dass er zwei gleiche Sachverhalte genau entgegengesetzt bewertet. Und solche Verfangenheit ist nur möglich, wenn man vorallem finanziell von einer Seite bevorzugt wird.

Botcruscher
2010-05-15, 12:50:52
Als wenn ihr drei euch so viel nehmen würdet...

Gast
2010-05-15, 12:53:06
Wie gesagt: Schlammsau's Meinung über Nachfrage und Verkäufe ist abhängig vom Hersteller. Bei AMD - von denen er wohl auch bezahlt wird für das virale Marketing - bedeutet hohe Verfügbarkeit und Preise unter UVP keine geringe Nachfrage. Bei nVidia bedeutet hohe Verfügbarkeit und Preise unter UVP eine geringe Nachfrage.
Man sieht, dass er zwei gleiche Sachverhalte genau entgegengesetzt bewertet. Und solche Verfangenheit ist nur möglich, wenn man vorallem finanziell von einer Seite bevorzugt wird.

Ist doch bei dir auch nicht anders. Bei der 5700-Serie sprachst du wörtlich von einem Flop, weil die Karten verfügbar waren und die Preise unter UVP, bei den Fermi-Karten streitest du das ab. Also ich würde mal ganz still sein wenn ich du wäre.

Gast
2010-05-15, 12:53:20
@Schlammsau
Eher bewertest du diese 100-150W Mehrverbrauch Last und die 50W Mehrverbrauch Multi-Display-Idle zu hoch, ein Enthusiast der sich eine solche Karte für >400€ kauft und unter Wasser setzt nimmt das zur Kenntnis, aber wirklich interessieren tut es ihn wohl kaum. Selbst bei unrealistischen 10h Gaming und 10h Idle pro Tag, sind es keine 150€ Mehrkosten im Jahr gegenüber einer 5870.
Und länger als 12 Monate werden die Erstkäufer kaum ihre GTX 480 im Rechner haben.

Eine Pro-Watt-Leistung auf HD5000-Niveau wäre sicherlich ein Nice-to-have, aber notwendig ist es nicht bei einer GTX 400, da sind andere Qualitäten, wie die überlegene Bildqualität oder sehr hohe D3D11-Leistung eher im Fokus.

Gast
2010-05-15, 12:56:44
Eine Pro-Watt-Leistung auf HD5000-Niveau wäre sicherlich ein Nice-to-have, aber notwendig ist es nicht bei einer GTX 400, da sind andere Qualitäten, wie die überlegene Bildqualität oder sehr hohe D3D11-Leistung eher im Fokus.
Weder Nvidia, noch ATI bieten eine überlegene Bildqualität (auf der ganzen Linie).
Mal ist der eine besser, mal der andere.

LovesuckZ
2010-05-15, 12:57:53
Ist doch bei dir auch nicht anders. Bei der 5700-Serie sprachst du wörtlich von einem Flop, weil die Karten verfügbar waren und die Preise unter UVP, bei den Fermi-Karten streitest du das ab. Also ich würde mal ganz still sein wenn ich du wäre.

Tja, leider lesen heutzutage Leute immer nur das, was in ihre beschränkte Welt passt. Das ich aufgrund dieser Aussage AMD's Zahlen angezweifelt habe, wird ignoriert. Aber lass wissen: Wer flamte mich an, weil dies lächerlich wäre? Genau, der, der jetzt sich hier hinstellt und die selben Faktoren genau 180° herum bewertet.
Also melde dich wieder an Reunion. ;D

Schlammsau
2010-05-15, 12:58:53
Was ihr immer mit der UVP habt.....keiner Weiss genau wie hoch, die jeweilige UVP ist. Es gibt mittlerweile so viele Custom HD5000. Eine Tatsache ist, die HD5870 zB kostet nach wie vor um die 350€, während die GTX400 Serie fast täglich einige €uros verliert. Beide Serien sind mehr als gut verfügbar, also daran kanns nicht liegen!

Also lasst mich in Ruhe mit der dummen UVP, die praktisch gar nichts aussagt.

Ach ja und wenn ich von den Roten bezahlt werden würde, würde ich wohl niemals Kritik an denen ausüben oder!?
Im Gegensatz zu mir, habe ich in den ganzen Jahren, wo ich LZs Post verfolgt habe, noch nie ein Wort der Kritik an nVidia gelesen. Und mit nie, meine ich nie!
Ich denke LZ wird von nVidia bezahlt!

@Raff
ich warte noch auf eine Antwort, gerade weil du doch gegen die Überschreitung der HD4000 Serie so gegen ATi gewetert hast.
Mir ist das persönlich egal, aber dir war es früher nie egal!

LovesuckZ
2010-05-15, 13:02:21
Die XFX 5870 ist in den letzten tagen um 25€ gesunken. Huch, da fängt wohl die Nachfrage an zu bröckeln. :lol:
Ach und wer guckt immer auf die UVP? Ja, der Schlammsau.

Fetter Fettsack
2010-05-15, 13:04:48
Bei AMD - von denen er wohl auch bezahlt wird für das virale Marketing - bedeutet hohe Verfügbarkeit und Preise unter UVP keine geringe Nachfrage. Bei nVidia bedeutet hohe Verfügbarkeit und Preise unter UVP eine geringe Nachfrage.
Man sieht, dass er zwei gleiche Sachverhalte genau entgegengesetzt bewertet.

Ich finde, dass ihr beide die zeitliche Komponente weglasst. Daher vergleicht ihr jetzt die Situation der HD5XXX, die schon um einige Zeit früher auf den Markt kam, mit der der GTX4XX, die erst im späten Frühjahr uns ihre Aufwartung machte. Da macht es meiner Auffassung nach schon einen Unterschied, ob eine länger am Markt befindliche Karte einen preislichen Rutsch nach unten macht oder eine gerade "aufgetauchte".

Insofern finde ich, dass hier keine exact gleichen Sachverhalte vorliegen.

Schlammsau
2010-05-15, 13:09:53
Die XFX 5870 ist in den letzten tagen um 25€ gesunken. Huch, da fängt wohl die Nachfrage an zu bröckeln. :lol:
Ach und wer guckt immer auf die UVP? Ja, der Schlammsau.

Natürlich ist das ein Zeichen dafür, wenn die Nachfrage einbricht, egal um wieviel, reagieren die Händler mit Preisnachlässen. Und auch wenn die 400er Serie sich schlecht verkauft, ist sie trotzdem der Konkurrent der HD5000 Serie.

y33H@
2010-05-15, 13:16:53
Die HD4870er sind ergo rasend im Preis gefallen, weil die Nachfrage eingebrochen ist? *SCNR*

http://www.abload.de/thumb/2010-05-15_1316333utc.png (http://www.abload.de/image.php?img=2010-05-15_1316333utc.png)

LovesuckZ
2010-05-15, 13:19:28
Natürlich ist das ein Zeichen dafür, wenn die Nachfrage einbricht, egal um wieviel, reagieren die Händler mit Preisnachlässen.

Du hast keinen Plan vom Markt, stimmts? UVP liegt bei 479€. Der wird nur dann eingehalten, wenn es genügend Karten gibt. Also ein Zustand, der normal sein sollte. GF100 wird erst seit 4 Wochen verkauft. Und GF100 zeigt das selbe Geizhalt.at/Deutschland Verhalten wie Juniper. Und da Juniper natürlich kein Flop war, kann es GF100 auch nicht sein.
Also löse sich von deinem AG und fang mal nachzudenken, ob du nicht solche Sachverhalte objektiv betrachten solltest. :rolleyes:

Gast
2010-05-15, 13:20:39
Die HD4870er sind ergo rasend im Preis gefallen, weil die Nachfrage eingebrochen ist? *SCNR*

http://www.abload.de/thumb/2010-05-15_1316333utc.png (http://www.abload.de/image.php?img=2010-05-15_1316333utc.png)

Wegen der Konkurrenz?
Wegen was den sonst?
Genau wie der GT400 auch.
Wenn man LZ glauben wollte, müsste der Fermi mindestens 800€ kosten, weil er total überlegen ist.

Schlammsau
2010-05-15, 13:23:35
Die HD4870er sind ergo rasend im Preis gefallen, weil die Nachfrage eingebrochen ist? *SCNR*

http://www.abload.de/thumb/2010-05-15_1316333utc.png (http://www.abload.de/image.php?img=2010-05-15_1316333utc.png)


Natürlich ist die Nachfrage zurückgegangen, weil in der Zeit, die GTX260 immer günstiger geworden sind und teilweise günstiger als die 4870 waren.

Aber egal, ich bleibe dabei, die GTX400 ist ein Ladenhüter!

EOD

Fetter Fettsack
2010-05-15, 13:25:01
GF100 wird erst seit 4 Wochen verkauft. Und GF100 zeigt das selbe Geizhalt.at/Deutschland Verhalten wie Juniper. Und da Juniper natürlich kein Flop war, kann es GF100 auch nicht sein.

Der Juniper ist aber auch auf ein anderes Zeilpublikum, das sich tendenziell (wie ich meine) eher durch Masse als durch Klasse auszeichnet, gerichtet. Da einen Vergleich zum GF100 zu ziehen, finde ich etwas gewagt, schließlich ist dieser schon vom Preis her auf eine andere Kundenschicht ausgerichtet (zwangsläufig).

Wenn sich eine Karte gut verkauft, weil sie meistens recht leise, verhältnismäßig stromsparend ist und dennoch mit akzeptabler Leistung aufkreuzt, dann kann man ruhig mit dem Preis runtergehen, da dann noch mehr gekauft wird = absolut gesehen sogar ein Vorteil für die Händler. Der GF100 bedarf ja schon einiges Wissens, um etwa den Verbrauch selber zu senken (wenn man jetzt nicht bei EG kauft).

LovesuckZ
2010-05-15, 13:25:35
Aber egal, ich bleibe dabei, die GTX400 ist ein Ladenhüter!
EOD

Juniper auch. :)
Hoffentlich wirst du das auch immer dazuschreiben. Sonst könnte man noch meinen, du betreibst virales Marketing. ;)

Der Juniper ist aber auch auf ein anderes Zeilpublikum, das sich tendenziell (wie ich meine) eher durch Masse als durch Klasse auszeichnet, gerichtet. Da einen Vergleich zum GF100 zu ziehen, finde ich etwas gewagt, schließlich ist dieser schon vom Preis her auf eine andere Kundenschicht ausgerichtet (zwangsläufig).

Das würde bedeuten, dass der Markt für > 250€+ Karten wesentlich größer wäre als für < 250€ Karten.

Gast
2010-05-15, 13:32:47
Natürlich ist die Nachfrage zurückgegangen, weil in der Zeit, die GTX260 immer günstiger geworden sind und teilweise günstiger als die 4870 waren.

Aber egal, ich bleibe dabei, die GTX400 ist ein Ladenhüter!

EOD

Ganz so schlimm kann es nicht sein, sonst währe der Preis der GTX480 schon auf 5870 Niveau gefallen.

Fetter Fettsack
2010-05-15, 13:33:24
Das würde bedeuten, dass der Markt für > 250€+ Karten wesentlich größer wäre als für < 250€ Karten.

Wie kommst du denn jetzt auf diesen Schluss? Habe ich da etwas falsch formuliert? Es ist natürlich umgekehrt und darauf stützt sich auch meine "Argumentation". Bei großem Absatz kann man durchaus mit dem Preis runtergehen und dennoch mehr erwirtschaften. Bei geringem Absatz macht man auch einen besseren Preis, jedoch, damit man überhaupt etwas verkaufen kann (ob das auf den GF100 zutrifft, weiß ich nicht, ich kann es mir zwar vorstellen, aber zu behaupten wage ich es nicht).

Insofern erscheint mir mein Geschreibsel schon recht schlüssig.

LovesuckZ
2010-05-15, 13:38:28
Wie kommst du denn jetzt auf diesen Schluss? Habe ich da etwas falsch formuliert? Es ist natürlich umgekehrt und darauf stützt sich auch meine "Argumentation". Bei großem Absatz kann man durchaus mit dem Preis runtergehen und dennoch mehr erwirtschaften. Bei geringem Absatz macht man auch einen besseren Preis, jedoch, damit man überhaupt etwas verkaufen kann (ob das auf den GF100 zutrifft, weiß ich nicht, ich kann es mir zwar vorstellen, aber zu behaupten wage ich es nicht).

Insofern erscheint mir mein Geschreibsel schon recht schlüssig.

Nein, denn selbst preiswerte Waren werden nicht unter Preis verkauft. Wieso sollten die Händler 5770 für 120€ statt 140€ verkaufen? Die GTX480 lieht bei Geizhals.at/deutschland vier Wochen nach dem Verkauf bei 469€. Das ist sehr nah am UVP, trotz 150 gelisteten Einträgen. Da ist die Nachfrage noch komplett im Rahmen.

Raff
2010-05-15, 13:39:08
Moment.....du siehst also den TDP-Bruch (250 vs >300W) und den exorbitanten Stromverbrauch unter Last und beim Multimonitorbetrieb (100W!), als nicht schlimm an? Ein leckres Teilchen ist was andres!

Aber egal....hier sind eh alle verblendet. Ich bin raus!


@Raff
ich warte noch auf eine Antwort, gerade weil du doch gegen die Überschreitung der HD4000 Serie so gegen ATi gewetert hast.
Mir ist das persönlich egal, aber dir war es früher nie egal!

Schlecht geschlafen? Wasn Terz hier schon wieder ist. :ulol:

Wo habe ich denn geschrieben, dass der Stromverbrauch egal ist? Nirgends. Er ist nämlich nicht egal. Viel schlimmer an der GTX 480 ist jedoch ihre Lautstärke (die ebenfalls aus dem Stromverbrauch hervorgeht). Mit einer Wasserkühlung ist die GTX 480 erstens flüsterleise und zweitens auch deutlich sparsamer. Eine kalte GPU schluckt bedeutend weniger Strom als eine heiße. Und kommt Undervolting dazu, rücken 150 Watt unter Spielelast in realistische Gefilde. Wie gesagt: Nur mit einer Wasserkühlung.

MfG,
Raff

PS: Ich campe nicht 24/7 im Forum, da können Antworten schon mal etwas auf sich warten lassen. ;)

AYAlf_2
2010-05-15, 13:40:14
Die XFX 5870 ist in den letzten tagen um 25€ gesunken. Huch, da fängt wohl die Nachfrage an zu bröckeln. :lol:
Ach und wer guckt immer auf die UVP? Ja, der Schlammsau.

was mich echt wundert, du fuehlst dich echt IMMER persoenlich angegriffen, waehrend andere hier nur ihre meinungen kundtun und diskutieren. meiner meinung nach ist das wirklich bedenklich (mal abgesehen von dem nvidia vs ati quatsch).

LovesuckZ
2010-05-15, 13:40:37
Ich hab hier 77°C. Ist immer noch zu warm? :(

derguru
2010-05-15, 13:43:46
Natürlich ist die Nachfrage zurückgegangen, weil in der Zeit, die GTX260 immer günstiger geworden sind und teilweise günstiger als die 4870 waren.

die nachfrage ist zurück gegegangen weil man auf den 5er gewartet hatte und die preise sind gefallen nicht weil die 260gtx günstiger geworden sind sondern weil man die lager leeren wollte bevor die nächste generation da ist +sommerloch wie man schön am diagramm sieht.

Raff
2010-05-15, 13:46:35
Ich hab hier 77°C. Ist immer noch zu warm? :(

Du kannst erzählen, was du willst, die Karte ist selbst mit 0,9 Volt und viel Frischluft drumherum hörbar. ;) Nicht unerträglich, aber klar herauszuhören (weit mehr als 3 Sone). Zumal "77 Grad Celsius" nichts aussagt – einzig die Lüfterdrehzahl in Prozent gibt Aufschluss darüber, wie es der Karte geht.

MfG,
Raff

AYAlf_2
2010-05-15, 13:48:20
Ich hab hier 77°C. Ist immer noch zu warm? :( im idle .. jo das ist zu warm!

y33H@
2010-05-15, 13:49:31
Ich campe nicht 24/7 im ForumBurn the witch! ;D

@ Topic

Die GTX480 ist ein Holzhammer wie einst der G80, wer auf Fps steht wird über den Verbrauch hinwegsehen. Dennoch ist wie Raff meinte insbesondere die Lautheit lästig. Aber selbst die HD4890, die lauter ist und mit 60W im idle noch mehr verpulvert wurde gehypt und gekauft wie blöde - die GTX480 dagegen verflucht. Liegt es am Preis? Liegt es an der "überlegenen" Performance? Oder weil es eine Geforce ist? Mir egal, 50W idle sind aus Jahr gerechnet eh nur ein paar Euro, 3D saugt da viel mehr.

LovesuckZ
2010-05-15, 13:52:07
Du kannst erzählen, was du willst, die Karte ist selbst mit 0,9 Volt und viel Frischluft drumherum hörbar. ;) Nicht unerträglich, aber klar herauszuhören (weit mehr als 3 Sone). Zumal "77 Grad Celsius" nichts aussagt – einzig die Lüfterdrehzahl in Prozent gibt Aufschluss darüber, wie es der Karte geht.

MfG,
Raff

DMC 4 Benchmark DX10 mit 8xSGSAA: 80°C bei 68% Lüftersteuerung. Fordernste nach Furmark.

derguru
2010-05-15, 14:00:06
LS wo hast du dein rechner stehen,auf dem balkon?

und vorallem was bedeutet ~70% bei lüftersteuerung,mit was wäre das von der laustärke mit einer 5870 vergleichbar,40%?

y33H@
2010-05-15, 14:03:28
Sibirien, zusammen mit NVs Igor Stanek :tongue:

Fetter Fettsack
2010-05-15, 14:08:01
Tiefkühltruhe.

Der war aufgelegt, tschuldigung.^^

EDIT: Hach, F5 wäre auch eine sinnvolle Option gewesen.^^

Botcruscher
2010-05-15, 15:36:39
Aber selbst die HD4890, die lauter ist und mit 60W im idle noch mehr verpulvert wurde gehypt und gekauft wie blöde - die GTX480 dagegen verflucht.

Die 4890 ist und war nun wahrlich nicht als Stromsparer bekannt - dafür ist sie auch sicher nicht gehypt wurden. Mit ein paar Handgriffen hat man das Ding auch bei 25W. Das "Problem" mit dem Flackern ist ja inzwischen bei beiden bekannt. Und letztendlich hat eine HD in der Spitze auch keine 317W verballert. Von der Wertung her steht hier unschön gegenüber abartig.

y33H@
2010-05-15, 15:42:23
Sie wurde generell gehypt, natürlich nicht wegen der Leistungsaufnahme - die wurde unter den Tisch gekehrt mit eben der Aussage "takte halt den VRAM runter". Die 60W im Auslieferungszustand aber bleiben - so wie die 50W der GTX480. Die HD4890 macht übrigens Peaks von über 220W, eine GTX480 ist da "nur" gut 40% drüber mit rund 320W - aber mal gepflegt satte 80% schneller. Ergo @ stock (deutlich) energieeffizienter in 2D wie 3D, ergo würde ich in Relation die Radeon als "abartig" und die Geforce als "unschön" abtun.

Absolut gesehen ist eine Asus Mars abartig - die kommt auf kranke 470W.

Gast
2010-05-15, 15:50:39
Naja, schlimmer sind da eher die >100Watt der GTX480 sobald man eine Website öffnet, oder einen 2. Monitor anhängt.