PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 480 und 470: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 [21] 22 23 24 25 26 27 28

Gast
2010-05-02, 17:54:50
Ich sehe eine spannende Zeit auf uns zukommen, wenn Nvidia das jetzige Quality-Standard-AF kegelt und Ati-ähnliches AF implementiert (also dosierte Bri-Gülle und noch weniger Samples). Warum sie das tun sollten? Es bringt reichlich Fps. Und die AF-Qualität wird von den meisten Leuten toleriert; die AF-Kritiker als Erbenzähler hingestellt. Dabei bekämen die Ati-Anhänger so ihre geliebte Bildqualität! Aber anstatt sich zu freuen, wird die Konkurrenz gewiss geflamed. Insofern glaube (und hoffe inständig) ich, dass Nvidia so einen Mist lässt, obwohl sie die Fps gebrauchen könnten (FX, ahoi!).

Afaik hat AnarchX mal gesagt, dass Ati die misslungenere AF-Implentierung hat, sprich sie mehr Leistung für gleiche Ergebniss brauchen. Ist da was dran?
Mir ist auch gestern aufgefallen, dass auf meiner HD 5750 AvP 3 in DX11 wesentlich langsamer als in Dx9 läuft, obwohl Tess./Adv. Shadows und AA aus ist. Bis ich raus bekam, dass 16XAF ca. 30 bis 40 Prozent Leistung frisst und es ohne Treiber-AF ca. so schnell wie in DX9 lief, obwohl dort Treiber-AF auch 16xAF stand?!
In DX9

Nakai
2010-05-02, 18:01:02
DX11 hat wohl auch andere Anforderungen an den TMUs. Einige Skalierungstest bescheinigen dem RV870 auch ne schlechtere AF-Skalierung als im Vergleich zum Vorgänger.
Da könnte man noch was optimieren...und ich meine nicht im Treiber.;)


mfg

LovesuckZ
2010-05-02, 18:25:45
Beim AF gibt es doch keine Probleme mehr. Wenn AMD User eben mit einer schlechteren Qualität als eine GF3 zufrieden sind, dann ist es ihr Problem. Manchmal geben sich einige auch mit Rückschritt zufrieden.

Gast
2010-05-02, 18:39:59
Kommt nu doch bald schon eine 512er GTX? Wäre ja ein schlag in Fresse für die Early's^^

http://www.pcgameshardware.de/aid,746601/Nvidia-Fermis-Yield-Raten-normal-Karte-mit-512-Streamprozessoren-moeglich/Grafikkarte/News/

boxleitnerb
2010-05-02, 18:53:20
Glaube ich kaum. Das ist nur PR-Gelaber. Und wenn doch, dann in so homöopathischen Dosen, dass das von der Verfügbarkeit her selbst den Fermilaunch grandios aussehen lässt.

Gast
2010-05-02, 19:07:21
Beim AF gibt es doch keine Probleme mehr. Wenn AMD User eben mit einer schlechteren Qualität als eine GF3 zufrieden sind, dann ist es ihr Problem. Manchmal geben sich einige auch mit Rückschritt zufrieden.

Ja, so wie NV-User während der gesamten CineFX-Architektur.

y33H@
2010-05-02, 19:10:04
Was für ein beknackter Vergleich :ulol:

LovesuckZ
2010-05-02, 19:10:05
Ja, so wie NV-User während der gesamten CineFX-Architektur.

Nö. Betraf am Ende nur NV4x und G7x User. Wobei erste nur mit der Winkelabhängigkeit leben mussten. Filterung war auch dort sehr gut.
Aber es ist schon trauig, dass 2010 AMD Käufer auf die Jahre 2003-2006 verweisen müssen. :freak:

Gast
2010-05-02, 19:19:59
Nö. Betraf am Ende nur NV4x und G7x User. Wobei erste nur mit der Winkelabhängigkeit leben mussten. Filterung war auch dort sehr gut.
Aber es ist schon trauig, dass 2010 AMD Käufer auf die Jahre 2003-2006 verweisen müssen. :freak:

Zuerst ein Nö um mir dann doch zuzustimmen. Willst du damit deine nicht vorhandenen Argumente untermauern? Die Filterung war bei NV3x zu Lebzeiten, auch bei NV4x und G7x klar schlechter als bei der von dir genannten GF3. Ja ich verweise auf die Vergangenheit, und zwar weil es deine Doppelmoral schon offenlegt.

Gast
2010-05-02, 19:29:15
Zuerst ein Nö um mir dann doch zuzustimmen. Willst du damit deine nicht vorhandenen Argumente untermauern? Die Filterung war bei NV3x zu Lebzeiten, auch bei NV4x und G7x klar schlechter als bei der von dir genannten GF3. Ja ich verweise auf die Vergangenheit, und zwar weil es deine Doppelmoral schon offenlegt.
Heute wäre man schon froh, wenn die HD5000-Serie G7x-HQ-Qualität erreichen könnte in Bezug auf Flimmerunabhängigkeit.
Und dicke Briwellen schob man dort, wenn man nicht die Optimierung aktiviert hatte, nie vor sich her. Ati lässt einem da lieber keine Wahl und macht den User zum unfreiwilligen Surfer. :ulol:

Coda
2010-05-02, 19:42:19
Filterung war auch dort sehr gut.
Erm nö? NV40 hat extrem beschissen gefiltert, vor allem mit Q ist das nicht auszuhalten.

G70 war mit den ersten Treibern zwar noch schlimmer, aber das heißt nicht dass es nicht das NV40 jetzt irgendwie gut gewesen wäre.

Gast
2010-05-02, 19:54:39
Ich will nur, dass die Doppelmoral abgelegt, AMD/Ati für die Fails zu Recht geflamed wird
Oje, mit solchen Vorwürfen wäre ich sehr vorsichtig. NVidia cheatet auch, und zwar bei ihren Produktumbenennungsorgien. Und die NVidia Anhänger reden dies auch um jeden Preis schön. Dieses Cheating finde ich übrigens mindestens genauso s schlimm wie ATIs Cheating. Es wird nämlich ein Produkt suggeriert, das es gar nicht ist (und komm mir jetzt bitte wieder nicht mit den Totschlagargument der "infomierten Käufer", es geht um die breite Masse der Ottonormal-User). Soviel zum Thema Doppelmoral.

Das soll nicht vom Thema ablenken, ich bin übrigens auch der Meinung, dass die schlechtere AF-Qualität von ATI in Benchmarks immer ewähnt werden sollte.

aths
2010-05-02, 20:32:33
Nö. Betraf am Ende nur NV4x und G7x User. Wobei erste nur mit der Winkelabhängigkeit leben mussten. Filterung war auch dort sehr gut.Wenn du mit "Sehr gut" "verdammt mies" meinst, gebe ich dir Recht.

Ich hatte einen NV42 und einen G72 und konnte das AF nur mit 4xS aushalten.


Oje, mit solchen Vorwürfen wäre ich sehr vorsichtig. NVidia cheatet auch, und zwar bei ihren Produktumbenennungsorgien.Das ist ein anderes Thema. Dass es ein anderes Thema ist, macht Nvidias absurde Verwirr-Spiele nicht besser, aber man kann nicht AF/"A.I"/Treibercheats und perfide Umbenennungsaktionen in einen Topf werfen.

Ailuros
2010-05-03, 08:16:37
Erm nö? NV40 hat extrem beschissen gefiltert, vor allem mit Q ist das nicht auszuhalten.

G70 war mit den ersten Treibern zwar noch schlimmer, aber das heißt nicht dass es nicht das NV40 jetzt irgendwie gut gewesen wäre.

Zwar OT aber es hat sich zwischen NV4x und G7x weder auf hw-Seite noch auf der AF-Optimierungen Seite etwas geaendert. Beim G70 Launch war angeblich der HQ Schalter nicht operativ was dazu fuehrte dass man mit dem ersten Treiber genau gleiche Leistung bzw. Qualitaet mit Q und HQ AF bekam. Mit dem 78.03 beta wurde der switch wieder richtig eingesetzt und das Einschalten von HQ wieder moeglich.

Nach NV engineering damals selber waren die NV4x/G7x AF Optimierungen ein quasi 1:1 Versuch die ATI AF Optimierungen unter Q (bzw. default) nachzumachen. Da es aber hw-seitig Unterschiede gab hat es auf GF's uebler auf die Augen gestochen IMO.

Winkelabhaengigkeit zur Seite, nach G80 wurde deren brilinear um einiges besser und eine gute Menge an AF Optimierungen entfernt.

aths sagt er konnte es nur in Kombination mit 4xS aushalten, ich hingegen hab auf der 6800 Einheiten dazugeschaltet + OC und auch die 7800 uebertaktet um HQ stets benutzen zu koennen auf beiden.

Wer NV4x/G7x ausfuehrlich benutzt hatte und ging dann auf eine G8x, sollte mir mal erklaeren was genau "sehr gut" ist.

Raff
2010-05-03, 09:15:06
Allerdings, GeForce-6/7-Quality ist direkt hinter dem R200-AF das größte Verbrechen, das man einem Spieler antun kann. High Quality hingegen wird gerade in der Retrospektive schlechter gemacht als es ist. Ich würde sogar die kühne Behauptung aufstellen, dass NV4x-/G7x-HQ sogar so gut ist – wenn man mal von der Winkelabhängigkeit absieht –, dass es HD-5000-A.I. in Sachen Flimmern dort aussticht, wo eine aktuelle Radeon versagt. Besagtes Q war für mich nicht mal mit 2x2 OGSSAA aushaltbar, denn bri bleibt auch mit ausreichend Samples bri. Daher: HQ (plus xS) FTW.

Hrhr, ich muss mal wieder meine 7900 GTX einbauen und mich etwas gruseln. X-D

MfG,
Raff

aths
2010-05-03, 09:32:07
Allerdings, GeForce-6/7-Quality ist direkt hinter dem R200-AF das größte Verbrechen,Noch schlechter ist R100-AF und nochmals schlechter ist das XGI-Volari-"AF".

Mr. Lolman
2010-05-03, 09:33:17
nochmals schlechter ist das XGI-Volari-"AF".

Ist das nicht das, wo einfach das LOD ins Negative verschoben wird, sobald man AF aktiviert? :freak:

Raff
2010-05-03, 09:39:13
Noch schlechter ist R100-AF und nochmals schlechter ist das XGI-Volari-"AF".

R100-AF? Das habe ich nie aktiviert/gesehen; ist das im Treiber-Panel aktivierbar? :confused: "16:1"?

MfG,
Raff

V2.0
2010-05-03, 09:46:59
Ist R100 nicht egal? Es ist ehr schön zu sehen, dass NV wohl so verzwiefelt ist, dass sie bereit sind AF Qualität gegen FPS zu tauschen um mit AMD mithalten zu können. Damit geht der einzige Grund eine NV-Karte zu kaufen endgültig flöten. GF10X ist ein Desaster, wie NV30.

Naja, die NV Fans werden auch dafür AMD die Schuld geben.

Raff
2010-05-03, 09:52:01
Es ist nicht AMD/Atis Schuld. Es ist die Schuld all derer, die das Kack-AF kleinreden/gutheißen/ignorieren und stattdessen die Balken über alles stellen! Eine Firma reagiert erst dann, wenn der Umsatz einbricht.

MfG,
Raff

aths
2010-05-03, 10:11:48
Wer NV4x/G7x ausfuehrlich benutzt hatte und ging dann auf eine G8x, sollte mir mal erklaeren was genau "sehr gut" ist.G80-AF hatte ich auf der 8600 GTS und das war endlich mal ein AF was ich mir wünschte auf HQ. In WoW: Winkelunabhängig scharfe Texturen. Flimmeranfälligkeit auf HQ: Sogut wie weg. Zwar spielte ich WoW weiterhin mit 4xS, aber dann um das Schattenflimmern und Shaderflimmern zu reduzieren.

Bei meiner GTX 285 (die derzeit allerdings nur auf ca. GTX-260-Takt läuft und untervoltet ist) bin ich über die im Vergleich absurd hohe Texelfüllrate in Verbindung mit der passenden Speicherbandbreite glücklich. In Dingen Texturen gibts nun keine Kompromisse.

Gast
2010-05-03, 11:15:47
Es ist nicht AMD/Atis Schuld. Es ist die Schuld all derer, die das Kack-AF kleinreden/gutheißen/ignorieren und stattdessen die Balken über alles stellen! Eine Firma reagiert erst dann, wenn der Umsatz einbricht.

MfG,
Raff

Hauptsache Balkenlänge halt, scheint das Motto vieler ATI-Fans zu sein wenn man sich die Reaktionen auf die 5970 ansieht - Mikroruckeln und Inputlag sind nur Einbildung!!11
Aber Vorsicht, nun haste denen den Jihad erklärt und gleich kommen sie auf ihrer AF-Bugwelle angesurft :D

Botcruscher
2010-05-03, 11:46:45
Es ist nicht AMD/Atis Schuld. Es ist die Schuld all derer, die das Kack-AF kleinreden/gutheißen/ignorieren und stattdessen die Balken über alles stellen! Eine Firma reagiert erst dann, wenn der Umsatz einbricht.


Natürlich ist es ATIs schuld und nur ATIs schuld. Der Masse kann man maximal vorwerfen das sie a; keine Ahnung hat und es ihr b; arschegal ist. Man könnte ja auch einfach spielen und sich freuen. Wenn sich da was ändern soll muss die Presse ran. Was ein Teil der Freaks im 3dc denken(wovon die meisten eh bei ATi keinen Umsatzrückgang bewirken können) ist scheiß egal, bei Geizhals sieht es schon anders aus.

PS: Marktführer ist übrigens Intel...
PSS: Aber was soll von der Presse kommen? Über Balken beschweren aber Spiele schön mit 10000 Stellen in Metacritic pressen...

Gast
2010-05-03, 11:47:43
Das nimmt ja schon lächerliche Ausmaße an. Als wenn hier die 3 Heinzels was ändern würden, wenn sie es gebetsmühlenartig unter verschiedenen Pseudonymen runter leiern. Wie wäre es mit einer Petition oder das richtige Forum (http://forums.amd.com/game/). Aber nein jeder Thread muss immer und immer wieder mit dem selben Scheiß zugemüllt werden.

Mfg

Gast
2010-05-03, 11:49:42
Hauptsache Balkenlänge halt, scheint das Motto vieler ATI-Fans zu sein wenn man sich die Reaktionen auf die 5970 ansieht - Mikroruckeln und Inputlag sind nur Einbildung!!11
Aber Vorsicht, nun haste denen den Jihad erklärt und gleich kommen sie auf ihrer AF-Bugwelle angesurft :D
Ich glaube es liegt nicht an an den paar Fans, sondern einfach daran, dass die von AMD gebotene Qualität beim AF für die meisten locker ausreichend ist.
Besseres AF sehen (und brauchen) die einfach nicht.
Und AMD wird mit hoher Wahrscheinlichkeit nicht für wenige Prozent Elite-Gamer auf Balken verzichten.
So ist es leider in der Realität.

Raff
2010-05-03, 11:53:49
Die von einer Radeon HD 5800 erreichten Frameraten sind auch "für die meisten (mehr als) ausreichend". Wer mehr als "ausreichend" verkaufen will, sollte auch mehr als "ausreichend" liefern.

MfG,
Raff

Gast
2010-05-03, 11:54:37
Es ist ehr schön zu sehen, dass NV wohl so verzwiefelt ist, dass sie bereit sind AF Qualität gegen FPS zu tauschen um mit AMD mithalten zu können.

Da hat wohl jemand NV und Ati verwechselt. :rolleyes:

Im übrigen könnten wir mal wieder zum Thema kommen, denn es geht hier doch nicht darum, welche Verfehlungen NV / Ati bei den vergangenen Generationen hatten, wenn ihr darüber diskutieren wollt, seid ihr ein paar Jahre zu spät dran, sorry. :biggrin:

Fassen wir also zusammen, die Bildqualität der HD5xxx Serie kann aufgrund des schlechten AF einfach nicht mit der Bildqualität der GTX4xx Serie mithalten.

Gast
2010-05-03, 11:57:26
Fassen wir also zusammen, die Bildqualität der HD5xxx Serie kann aufgrund des schlechten AF einfach nicht mit der Bildqualität der GTX4xx Serie mithalten.
Beim AF ja.
Beim AA ist es wieder andersrum.
Da ist AMD minimal besser.

Die Karte mit der überall besseren BQ gibt es zur Zeit nicht.

Gast
2010-05-03, 12:04:55
Beim AF ja.
Beim AA ist es wieder andersrum.
Da ist AMD minimal besser.

Die Karte mit der überall besseren BQ gibt es zur Zeit nicht.

Das mit dem AA war bis zur GTX2xx Gen. so, seit der GTX4xx liegt Ati auch dort hinter NV. :smile:

Raff
2010-05-03, 12:07:14
Das mit dem AA war bis zur GTX2xx Gen. so, seit der GTX4xx liegt Ati auch dort hinter NV. :smile:

Nö. SGSSAA plus (optionaler) gescheiter Downfilter ist besser als die Hybriden, welche fast jedes aktuelle Spiel zermatschen.

MfG,
Raff

Nazar
2010-05-03, 12:07:50
Allerdings, GeForce-6/7-Quality ist direkt hinter dem R200-AF das größte Verbrechen, das man einem Spieler antun kann. High Quality hingegen wird gerade in der Retrospektive schlechter gemacht als es ist. Ich würde sogar die kühne Behauptung aufstellen, dass NV4x-/G7x-HQ sogar so gut ist – wenn man mal von der Winkelabhängigkeit absieht –, dass es HD-5000-A.I. in Sachen Flimmern dort aussticht, wo eine aktuelle Radeon versagt. Besagtes Q war für mich nicht mal mit 2x2 OGSSAA aushaltbar, denn bri bleibt auch mit ausreichend Samples bri. Daher: HQ (plus xS) FTW.

Hrhr, ich muss mal wieder meine 7900 GTX einbauen und mich etwas gruseln. X-D

MfG,
Raff

ROFL, mal wieder einen tollen Satz gezaubert. Ein typischer PCGH Satz, der objektivität suggerieren soll aber nur so von Einseitigem "Ansichten" trieft.
Hätte der Hund nicht gekackt, hätte er den Hasen gefangen :rolleyes:

Ich musste damals von einer GTX7800 auf eine X19xx von ATI wechseln, weil dass extreme Flimmern des G7X in WoW selbst nach einem 3/4 Jahr einfach nicht durch irgendwelche HQ Einstellungen in den Griff zu bekommen war. Da flimmert es ohne das man sich bewegen musste und das Trotz HQ.
Da gab es hier Seitenlange Diskussionen, dass obwohl sämtliche Schalter unter HQ auf höchste BQ gesetzt wurden, der G7x weiterhin nur bri filterte und die nV Anhänger erzählten dann etwas von: aber damals anno schieß micht tot der R200.. blah blah blah.
In der PCGH gab es dann eine Aussage, wo nach Nachfrage der Redaktion nV diese Problem bekannt sein und man an einer schnellen Lösung arbeite.. ein 3/4 Jahr danach gab es immer noch keine befriedigende Lösung aus dem Hause nV.

Natürlich kann der G7X eine HD5xxx dort ausstechen wo die HD5xxx komplett versagt. Was für ein Kunstgriff für eine sehr eingenwillige Darstellung von "Tatsachen" :rolleyes:

Raff
2010-05-03, 12:09:39
Blablabla, PCGH stinkt, blabla, Raff auch, bla

Hör bitte endlich auf, mich für Dinge zu flamen, für die Ati/AMD verantwortlich ist.

Und vor allem für Dinge, die nichts mit der PCGH zu tun haben. Ich weiß nicht, was du beruflich machst, aber ich flame auch nicht den Klempner in deiner Person, sondern deine Meinung.

MfG,
Raff

Gast
2010-05-03, 12:13:12
Nö. SGSSAA plus (optionaler) gescheiter Downfilter ist besser als die Hybriden, welche fast jedes aktuelle Spiel zermatschen.

MfG,
Raff

Nur gerade Du solltest doch wissen, dass Ati's Monopol auf SGSSAA Geschichte ist. SGSSAA und Downfilter funktionieren auf der GTX480 wunderbar. Ich bin mir auch ziehmlich sicher, dass es für NV einfacher wird SGSSAA für DX9 nachzureichen als für Ati SGSSAA für DX10 und DX11.

Raff
2010-05-03, 12:14:20
Unter DX9 und älter funktioniert (noch?) kein SGSSAA auf einer GeForce. Und der Downfilter bleibt Box, was schlechter ist als die Tent-Filter von Ati.

MfG,
Raff

Iruwen
2010-05-03, 12:28:10
Gibt es nicht Edge-Detect nur weil die Tent Filter blurren wie blöde?

Gast
2010-05-03, 12:35:56
Besagtes Q war für mich nicht mal mit 2x2 OGSSAA aushaltbar, denn bri bleibt auch mit ausreichend Samples bri. Daher: HQ (plus xS) FTW.

War bri auf Quality auch aktiv, selbst wenn die separate Optimierungsoption deaktiviert war?

Schlammsau
2010-05-03, 12:37:43
Gibt es nicht Edge-Detect nur weil die Tent Filter blurren wie blöde?

Kommt aufs Game an, aber in 99% der Fälle sollte man wenn dann Edge Detect nutzen.

Gast
2010-05-03, 12:45:18
Kommt aufs Game an, aber in 99% der Fälle sollte man wenn dann Edge Detect nutzen.

Ne, mit SSAA ist oft auch zumindest narrow-tent sehr gut einsetzbar.

V2.0
2010-05-03, 12:46:21
Ist eigentlich auch egal. Wenn NV seine AF Qualität reduziert, dann zeigt das imho 2 Dinge.

1. Der Markt ist mit der Qualität von AMD zufrieden.
2. NV muss alle Optionen ziehen um AMD zu schlagen und muss daher auch ihr bisheriges Alleinstellungsmerkmal aufgeben. Das ist kein gutes Zeichen für die Möglichkeiten der Architektur imho, wenn man die Chipgröße berücksichtigt.

Gast
2010-05-03, 12:48:44
Hör bitte endlich auf, mich für Dinge zu flamen, für die Ati/AMD verantwortlich ist.

Und vor allem für Dinge, die nichts mit der PCGH zu tun haben. Ich weiß nicht, was du beruflich machst, aber ich flame auch nicht den Klempner in deiner Person, sondern deine Meinung.

MfG,
Raff

Blaues Hemd angezogen - Klempner schlecht
Zuhause Lila Hemd - Klempner gut ?


Nein, du flamst nicht den Klempner in Person , aber deine Meinung über Ihn wechselt sich nicht mit der Hemdfarbe.

Gast
2010-05-03, 12:49:19
Es ist nicht AMD/Atis Schuld. Es ist die Schuld all derer, die das Kack-AF kleinreden/gutheißen/ignorieren und stattdessen die Balken über alles stellen! Eine Firma reagiert erst dann, wenn der Umsatz einbricht.

MfG,
Raff

Am Schlimmsten bist aber augenscheinlich Du: Nicht zufrieden mit ATI, aber gleich mehrere Karten von der Firma in den eigenen Rechnern installiert haben. Das ist wie der Hansel, der stets gegen die Kirche wettert, aber trotzdem Mitglied bleibt. Ergo tue nicht so, als seist Du da auch nur einen Hauch besser.

Raff
2010-05-03, 12:52:11
Gibt es nicht Edge-Detect nur weil die Tent Filter blurren wie blöde?

AFAIK ist Edge-Detect ebenfalls ein "Tent", mit dem Zusatz, dass – wie überraschend – eine Kantenerkennung drübergejagt wird, sodass nur diese aufgeweicht werden. Heraus kommt ein hervorragendes Bild, gerade mit SSAA.

@ "Gäste": Macht euch bitte einen Account, damit ich euch effektiv ignorieren kann und die Mods euch ggf. bannen können. Thx. =)

MfG,
Raff

Gast
2010-05-03, 12:56:36
AFAIK ist Edge-Detect ebenfalls ein "Tent", mit dem Zusatz, dass – wie überraschend – eine Kantenerkennung drübergejagt wird, sodass nur diese aufgeweicht werden. Heraus kommt ein hervorragendes Bild, gerade mit SSAA.

@ "Gäste": Macht euch bitte einen Account, damit ich euch effektiv ignorieren kann und die Mods euch ggf. bannen können. Thx. =)

MfG,
Raff

Wie war das nochmal? Nur getroffene Hunde bellen, oder?
Für einen Bann sehe ich hier übrigens absolut keinen Grund. Es wurden lediglich Tatsachen genannt und ein Spiegel vorgehalten.

Raff
2010-05-03, 12:57:52
Klar "belle" ich, weil ich nicht nur farbige Ignoranz, sondern auch persönliche, völlig unnötige Flames präsentiert bekomme. Ich kritisiere den Murks einer Firma und anstatt dass mir jemand zum Wohle aller hilft, werde ich geflamed. Das ist sooo paradox. X-D Ihr könnt gerne in eurer Flimmerwelt bleiben, aber ich werde bis zu meinem Tod für Bildqualität kämpfen. :tongue:

MfG,
Raff

Gast
2010-05-03, 13:00:48
Klar "belle" ich, weil ich nicht nur farbige Ignoranz, sondern auch persönliche, völlig unnötige Flames präsentiert bekomme.

MfG,
Raff

Ich habe Dich nicht "angeflamt", sondern lediglich mein Unverständnis ausgedrückt. Du bist mit ATI unzufrieden, hast aber trotzdem 3 Karten der Firma in den eigenen PCs. Entschuldige, wenn ich da nicht durchblicke.

Gast
2010-05-03, 13:06:43
Ich habe Dich nicht "angeflamt", sondern lediglich mein Unverständnis ausgedrückt. Du bist mit ATI unzufrieden, hast aber trotzdem 3 Karten der Firma in den eigenen PCs. Entschuldige, wenn ich da nicht durchblicke.

:facepalm: Warum auch die Fehler bei einem Produkt anprangern, damit sie ausgemerzt werden. Auch wenn man mit einem Produkt so zufrieden ist, dass man es gekauft hat, so heißt das doch nicht automatisch, dass dieses Produkt Fehlerfrei ist.

Raff
2010-05-03, 13:08:43
Hey, hier gibt's ja doch noch vernünftige Leute – sogar ein Gast. :) So ist es. SGSSAA hui, AF pfui. Hui-SGSSAA + Pfui-AF: passt. Doch geht SGSSAA mal nicht ... pfui.

MfG,
Raff

Gast
2010-05-03, 13:16:34
SGSSAA hui, AF pfui. Hui-SGSSAA + Pfui-AF: passt. Doch geht SGSSAA mal nicht ... pfui.

MfG,
Raff

Mein Unverständnis bleibt bestehen. Mit einer 285GTX beispielsweise hättest Du beides, wenn auch teilweise inoffiziell. Aber das ist ja auch nebensächlich...

y33H@
2010-05-03, 13:21:10
Mit einer GTX285 hast du kein SGSSAA :facepalm:

Gast
2010-05-03, 13:23:36
Und kein DX11 und schlechtere Performance. Wenn manche Gäste hier einfach mal nachdenken würden, wäre schon viel gewonnen. Das Gesamtpaket mag gut genug sein, um ein Produkt zu kaufen, aber Schwächen in Teilbereichen können immer noch existieren. Wenn einem diese Teilbereiche wichtig sind, warum dann nicht kritisieren?

Gast
2010-05-03, 13:32:29
Mit einer GTX285 hast du kein SGSSAA :facepalm:

Du weißt genau, was ich meine.
Er praktiziert exakt das, was er allen anderen ATI Nutzern vorwirft (siehe letzte Seite; fett geschrieben). Er meckert zwar, kauft aber trotzdem. So bricht der Umsatz der Firma nicht ein.
Zudem läuft SSAA bei keinem einzigen DX10/DX11 Spiel. Entsprechend dürfte seine "Pfui-Liste" zusehends größer werden.
Er sollte nicht Wein predigen, dann aber Wasser ausschenken.

Bucklew
2010-05-03, 13:35:36
Ist eigentlich auch egal. Wenn NV seine AF Qualität reduziert, dann zeigt das imho 2 Dinge.

1. Der Markt ist mit der Qualität von AMD zufrieden.
2. NV muss alle Optionen ziehen um AMD zu schlagen und muss daher auch ihr bisheriges Alleinstellungsmerkmal aufgeben. Das ist kein gutes Zeichen für die Möglichkeiten der Architektur imho, wenn man die Chipgröße berücksichtigt.
Es ist bisher aber nicht der Fall, von daher müßig.

y33H@
2010-05-03, 13:36:12
@ Gast

Er kauft, weil das Übel das kleinste ist und SGSSAA das beste AA am Markt. Die HD5k gibt es seit September, SGSSAA unter DX10/11 erst seit ein paar Tagen. Das AF ist ein Manko, das muss halt in Kauf nehmen - kritisieren darf man es ja trotzdem. Gerade bei einem grenzperfekten Produkt ist eine solch unnötige Macke wie das Bri-Flimmer-AF umso ärgerlicher.

Gast
2010-05-03, 13:38:55
@ Gast

Er kauft, weil das Übel das kleinste ist und SGSSAA das beste AA am Markt. Die HD5k gibt es seit September, SGSSAA unter DX10/11 erst seit ein paar Tagen. Das AF ist ein Manko, das muss halt in Kauf nehmen - kritisieren darf man es ja trotzdem. Gerade bei einem grenzperfekten Produkt ist eine solch unnötige Macke wie das Bri-Flimmer-AF umso ärgerlicher.

Wenn er auch mal Punkte bei NV kritisieren würde wäre er sogar glaubwürdig.

y33H@
2010-05-03, 13:45:00
Tut er doch ... aber das wird freilich selektiv überlesen ...

Iruwen
2010-05-03, 14:19:54
Ich habe Dich nicht "angeflamt", sondern lediglich mein Unverständnis ausgedrückt. Du bist mit ATI unzufrieden, hast aber trotzdem 3 Karten der Firma in den eigenen PCs. Entschuldige, wenn ich da nicht durchblicke.
Ich bin auch aus diversen Gründen mit ATI unzufrieden und hab ne 5870, so what? Ist jawohl sinniger ein Produkt zu kritisieren das man selbst besitzt als aufgrund von Hörensagen zu meckern.

Tesseract
2010-05-03, 14:43:37
Beim AF ja.
Beim AA ist es wieder andersrum.
Da ist AMD minimal besser.
minimal besser passt da irgendwie nicht. mit SGSSAA ist ati wesentlich besser und beim reinen multisamplen ist nvidia besser weil a) das bessere grid bei 8x, b) die möglichkeit die gamma"korrektur" abzuschalten, die bei allen monitoren die ich bis jetzt getestet habe einfach das schlechtere ergebnis liefert und c) mehr möglichkeiten bei den transparenz-modi bietet.

Nö. SGSSAA plus (optionaler) gescheiter Downfilter ist besser als die Hybriden, welche fast jedes aktuelle Spiel zermatschen.
die tents zermatschen nicht nur fast jedes sondern außnahmslos jedes spiel, ka warum die immer wieder als argument für die tolle bildqualität herangezogen worden.
ja, sie haben was die bildruhe betrifft vorteile. dennoch ist die unschärfe einfach inakzeptabel, genauso wie der quincunx mist damals von nvidia.

Raff
2010-05-03, 14:51:34
die tents zermatschen nicht nur fast jedes sondern außnahmslos jedes spiel, ka warum die immer wieder als argument für die tolle bildqualität herangezogen worden.
ja, sie haben was die bildruhe betrifft vorteile. dennoch ist die unschärfe einfach inakzeptabel, genauso wie der quincunx mist damals von nvidia.

Narrow und Wide führe ich nicht unbedingt als grandioses BQ-Feature ins Feld. Wobei Narrow plus 8x SGSSAA (nur mit SSAA) wirklich geil aussehen kann (ausprobieren; ich hab's auch erst nicht geglaubt und niedergemacht ;)). Edge-Detect, welches ebenfalls aus den vorhandenen Samples mehr macht, ist jedoch auch ein Custom Filter. Und ein fettes Pro-Argument für eine Radeon.

MfG,
Raff

aths
2010-05-03, 14:58:09
AFAIK ist Edge-Detect ebenfalls ein "Tent", mit dem Zusatz, dass – wie überraschend – eine Kantenerkennung drübergejagt wird, sodass nur diese aufgeweicht werden. Heraus kommt ein hervorragendes Bild, gerade mit SSAA.Ich frage mich gerade, wie ED mit SSAA funktionieren soll.

Raff
2010-05-03, 15:03:10
Ich auch – aber es funktioniert. Unter anderem in HL2, Call of Duty 6, WoW ...

MfG,
Raff

Schlammsau
2010-05-03, 15:08:16
Jupp....
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7988078#post7988078

Mr. Lolman
2010-05-03, 15:15:57
Kann mal jemand mit guten Draht zu ATi nachfragen, warum die ein solches Grid verwenden? Meine Nachfrage bei der game.amd.com Community wurde nur insofern beantwortet, dass die Leut schon wissen, was sie tun, und ich das doch denen überlassen soll, die das studiert haben. Außerdem hängt das angeblich irgendwie mit dem CF-Filtern zusammen (wobei das imo eher eine gewesen sein dürfte).

Auf meine weiteren Einwände (inkl. Bild vom vermeintlich optimalen 8x Grid) kam dann nix mehr zurück.

Wobei Narrow plus 8x SGSSAA (nur mit SSAA) wirklich geil aussehen kann (ausprobieren; ich hab's auch erst nicht geglaubt und niedergemacht ;)).

Wide-Tent auch: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7917133#post7917133

Raff
2010-05-03, 15:16:53
Link? =) Eine freundliche Mail an Terry könnte helfen ...

Und Mods, das Splitten der letzten ~30 Postings wäre IMO höchst sinnvoll.

MfG,
Raff

Mr. Lolman
2010-05-03, 15:21:58
http://forums.amd.com/game/messageview.cfm?catid=279&threadid=130768

Tesseract
2010-05-03, 15:23:53
Wobei Narrow plus 8x SGSSAA (nur mit SSAA) wirklich geil aussehen kann (ausprobieren; ich hab's auch erst nicht geglaubt und niedergemacht ;)).

natürlich sieht es geil aus, das liegt aber weniger am tent als am 8x SG ;)

Edge-Detect, welches ebenfalls aus den vorhandenen Samples mehr macht, ist jedoch auch ein Custom Filter. Und ein fettes Pro-Argument für eine Radeon.
edge detect wirkt aber erst wieder nur auf die kanten und kostet dazu performance. ob das wirklich höher einzustufen ist als z.B. CSAA wage ich eher zu bezweifeln.

Raff
2010-05-03, 15:27:16
natürlich sieht es geil aus, das liegt aber weniger am tent als am 8x SG ;)

Beides. Ansehen, vergleichen. ;) 8x SGSSAA ist geil, 8x SGSSAA mit NT oder ED noch geiler.

edge detect wirkt aber erst wieder nur auf die kanten und kostet dazu performance. ob das wirklich höher einzustufen ist als z.B. CSAA wage ich eher zu bezweifeln.

8 an den Kanten zu einem fast fließenden Übergang zermatschte Supersamples sehen großteilig sogar besser aus als 32xS:

http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/?page=3

(Klickvergleich)

MfG,
Raff

Iruwen
2010-05-03, 15:35:38
http://forums.amd.com/game/messageview.cfm?catid=279&threadid=130768

"ATI know's what they are doing, leave it to them that have degrees and years of experience in this."

Das is ja echt mal bitter.

Gast
2010-05-03, 15:38:37
8 an den Kanten zu einem fast fließenden Übergang zermatschte Supersamples sehen großteilig sogar besser aus als 32xS:

http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/?page=3

(Klickvergleich)

MfG,
Raff

Das ist aber alles Geschmackssache würde ich sagen. Ich finde SGSSAA sieht auf den Bildern deutlich schlechter als OGSSAA aus, da braucht man wohl ein Video, um die Vorteile von SGSSAA zu sehen. Hoffentlich bringt NV bald SGSSAA für DX9 bzw. Ati für DX10/11, dann kann man einen besseren Vergleich machen.

aths
2010-05-03, 15:42:33
http://forums.amd.com/game/messageview.cfm?catid=279&threadid=130768Die ohne Quellenangabe aus meinem Artikel geklauten Bilder sind ein Beispiel für schlechtes 8x-Muster: Es gibt Winkel in denen das 8x da nur 3x oder 4x glättet.

Ronny145
2010-05-03, 15:44:58
Jupp....
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7988078#post7988078


Edge Detect wie gehabt unter SSAA quasi keinerlei Vorteile. Das zeigen deine beiden letzten Bilder eindrucksvoll. So ist auch meine Erfahrung. Mit SSAA lohnt sich das nicht. Bei den Tent Filtern kommt es auf die Engine an. Meistens wird es unschärfer bis verschwommen, aber es gibt auch Ausnahmen.

Coda
2010-05-03, 15:45:37
http://forums.amd.com/game/messageview.cfm?catid=279&threadid=130768
Kann gut sein, dass sie das tun um die Texturwirkung zu optimieren.

Mr. Lolman
2010-05-03, 16:14:15
Die ohne Quellenangabe aus meinem Artikel geklauten Bilder sind ein Beispiel für schlechtes 8x-Muster: Es gibt Winkel in denen das 8x da nur 3x oder 4x glättet.

Die sind nicht geklaut, sondern nur an deine Bilder orientiert. Die hab ich extra für den Beitrag gebastelt. und die Winkel, wo nur so schwach geglättet wird, sind imo (iirc haben wir das schonmal diskutiert) steil genug, dass man keine bessere Glättung braucht.

Das ist aber alles Geschmackssache würde ich sagen. Ich finde SGSSAA sieht auf den Bildern deutlich schlechter als OGSSAA aus, da braucht man wohl ein Video, um die Vorteile von SGSSAA zu sehen. Hoffentlich bringt NV bald SGSSAA für DX9 bzw. Ati für DX10/11, dann kann man einen besseren Vergleich machen.

4x4 OGSSAA sieht nur beim AF-Vergleich besser aus - weil man dabei 64xAF hat. Von der Kantenglättung hat man nur halb soviele Abstufungen wie beim 8xSGSSAA, braucht dafür aber die doppelte Leistung.

EDIT: Folgender Winkel ist der übelst Mögliche bei meinem Grid.

derguru
2010-05-04, 20:28:41
gehts nit noch höher.:rolleyes:
http://www.abload.de/img/14aj24v.jpg

http://www.abload.de/img/14c1033.jpg
Quelle (http://www.techpowerup.com/121576/Zotac_Readies_GeForce_GTX_480_Amp_Edition_Graphics_Card.html)

y33H@
2010-05-04, 20:30:25
Custom-Cooler auf Referenz-PCB ohne Grundplatte. Ich bin gespannt.

Raff
2010-05-04, 20:42:27
Mal ehrlich: Das kann nur leiser sein. ;D Und wenn nicht: Triple-(Slot-)Fail.

MfG,
Raff

tombman
2010-05-04, 21:34:57
Triple-Slot? -> "Neeeext" :rolleyes:

y33H@
2010-05-04, 21:42:23
Ich hab hier Totenstille dank Quad-Slot :P

tombman
2010-05-04, 22:29:23
Ich hab hier Totenstille dank Quad-Slot :P
Geil, dann hast sicher ein 16 slot mobo für Quad-Sli :ulol:

y33H@
2010-05-04, 22:35:53
Ich habs nicht sonderlich mit µRuckelnden Input-Lag-Krüppeln :ufinger:

tombman
2010-05-04, 23:00:10
Ich habs nicht sonderlich mit µRuckelnden Input-Lag-Krüppeln :ufinger:
Spielbaren µRuckelnden Input-Lag-Krüppeln, baby, spielbaren :cool:

Noch viel Spaß mit 10fps :ufinger:

Mayk-Freak
2010-05-04, 23:06:10
Großes BTX Gehäuse EVGA Classifield 4Way SLi Mainboard und TriSLi geht mit den Zotac GeForce GTX 480 Amp Karten.

Tesseract
2010-05-04, 23:21:12
Spielbaren µRuckelnden Input-Lag-Krüppeln, baby, spielbaren :cool:

Noch viel Spaß mit 10fps :ufinger:

also wenn ich bei einem spiel die wahl zwischen pest und cholera habe spiel ich das teil lieber in 2 jahren weich und ohne lags. :tongue:

Gast
2010-05-05, 07:08:08
Mal ehrlich: Das kann nur leiser sein. ;D Und wenn nicht: Triple-(Slot-)Fail.

MfG,
Raff

Triple-Slot? Du Optimist. Das ist minimum Quad-Slot. Wenn die Lüfter auch noch Luft bekommen sollen kommt nochmal ein Stock dazu.

tombman
2010-05-05, 07:20:00
also wenn ich bei einem spiel die wahl zwischen pest und cholera habe spiel ich das teil lieber in 2 jahren weich und ohne lags. :tongue:
Ähhm, ja, whatever- ich laß dir deine Illusionen, offenbar brauchst du die um SLI weiter nicht haben zu müssen :ulol:
Ich kanns ja verstehen, 1500€ haut keiner gerne raus ;D

Schlammsau
2010-05-05, 07:34:11
Ähhm, ja, whatever- ich laß dir deine Illusionen, offenbar brauchst du die um SLI weiter nicht haben zu müssen :ulol:
Ich kanns ja verstehen, 1500€ haut keiner gerne raus ;D

Das wärs ja nicht mal!
Die allermeisten müssten sich zusätzlich noch ein neues NT kaufen, was in diesen Leistungsregionen ~350 - 450€ kostet. :freak:
Vor allem ein neues Board, weil wohl die allerwenigsten eins mit mindestens 3 PCIe Slots haben.

Sei ehrlich, wieviel hast du für dein System hingelegt? 2000€ - 3000€?

Grestorn
2010-05-05, 07:48:21
Sei ehrlich, wieviel hast du für dein System hingelegt? 2000€ - 3000€?

Und wenn? Ist das verwerflich?

Schlammsau
2010-05-05, 08:24:30
Und wenn? Ist das verwerflich?

Mal abgesehen davon, dass ich mein Geld besser umsetzen würde, hab ich das nicht gesagt.
Aber es trotzdem mal interessant zu sehen, wie hoch der monetäre Einsatz ist/war.

Grestorn
2010-05-05, 08:38:25
Mal abgesehen davon, dass ich mein Geld besser umsetzen würde, hab ich das nicht gesagt.
Aber es trotzdem mal interessant zu sehen, wie hoch der monetäre Einsatz ist/war.

Mei, der eine zahlt tausende Euro für seine Modelleisenbahn, der andere für sein Auto und der dritte eben für den Computer. Verglichen mit vielen Hobbies ist der Computer selbst für Enthusiasten recht günstig.

Bei mir:
€1000 für die Grafikkarten
€270 für das MB
€350 für die CPU
€250 für die SSD
€400 für den ganzen Rest.

Und jetzt nochmal €840 für die Wasserkühlung.

Gast
2010-05-05, 08:51:05
Mei, der eine zahlt tausende Euro für seine Modelleisenbahn, der andere für sein Auto und der dritte eben für den Computer. Verglichen mit vielen Hobbies ist der Computer selbst für Enthusiasten recht günstig.

Bei mir:
€1000 für die Grafikkarten
€270 für das MB
€350 für die CPU
€250 für die SSD
€400 für den ganzen Rest.

Und jetzt nochmal €840 für die Wasserkühlung.

Mal abgesehen davon das hier die G4xx als Heilsbringer angepriesen werden.

Wars nicht Tombman darselbst der die Mikroruckler angeprangert hat?
und nun sind sie egal ?

Mal abgesehen von den horrenden Preisen, der Wärmeentwicklung und der für diesen Chipausbau "niedrigen" Leistung.


Aber immer schön das Fähnchen schwenken gell.

Und ATI AF ist immer das schlechsteste was es gibt,
Und SGSSAA- was nen Reinfall, seit den "software"-Hybriden.
Und überhaupt ....


Soviel zum Thema Kompetenz und Information im 3Dcenter.


Dieser Thread hier ist die beste Antwort auf den "Warum hat AMD so einen schlechten Ruf ..." Thread.



42 - Dont Panic

Gast
2010-05-05, 08:56:45
PS: Das sind grob 3000€ +
Für einige bedeutet sowas eben noch 3-4 Monate "Überleben".(oder Länger)


Abstrakt und Dekadent wie einige hier schon denken.

Wer keine 3000€ für Hardware ausgeben kann, Muss eben ein Noob sein.
Wenn eure Kompetenz und Meinung nur nach dem Geldbeutel geht, erklärt das einige Meinungen hier.


Dass muss die neue "ELITE" sein. Proll und Protzhardware , aber kein Feingefühl.

Grestorn
2010-05-05, 09:03:57
Wer protzt denn?
Auch mit ATI kann man sehr viel Geld für die Hardware ausgeben.

Dein Posting ist ziemlich daneben und völlig zusammenhanglos.

Schlammsau
2010-05-05, 09:26:42
Mei, der eine zahlt tausende Euro für seine Modelleisenbahn, der andere für sein Auto und der dritte eben für den Computer. Verglichen mit vielen Hobbies ist der Computer selbst für Enthusiasten recht günstig.

Bei mir:
€1000 für die Grafikkarten
€270 für das MB
€350 für die CPU
€250 für die SSD
€400 für den ganzen Rest.

Und jetzt nochmal €840 für die Wasserkühlung.

Danke!
Sind 3110€.....nen haufen Holz für so "wenig" Leistung, findest du nicht!?
Ich wage mal zu behaupten, dass dein System beim Gamen maximal 2-2,5x schneller, den Inputlag und die Microruckler nicht mitgerechnet, als mein System ist.

Jetzt mal das was ich gezahlt habe vor über einem halben Jahr.

230€ Grafikkarte (HD5850)
90€ Mainboard (Asus P5Q)
180€ CPU (Q9550)
110€ SSD (Super Talent 32GB)
70€ NT (X-Spice Kira 530W 80+ Bronze)
300€ für den kompletten Rest! (Arbeitsspeicher, Gehäuse, Kühler, Lüfter, optische Laufwerke)

Ich komme auf 980€.....wobei der 300€ Haufen, eigentlich immer unangetastet bleibt.

Hat nichts mit ATi vs nVidia zu tun!

Tesseract
2010-05-05, 09:39:29
Ähhm, ja, whatever- ich laß dir deine Illusionen, offenbar brauchst du die um SLI weiter nicht haben zu müssen :ulol:
Ich kanns ja verstehen, 1500€ haut keiner gerne raus ;D

klar hau ich nicht gerne 1500€ raus, aber darum gehts garnicht.
wenn es kein multiplayer, MMO oder sonst irgendein community-relevantes spiel ist, ist es mir relativ egal ob ich es heute oder etwas später spiele. wichtig ist, wie es sich beim ersten durchspielen spielt, weil das den entscheidenden eindruck hinterlässt. und wenn dieser zum release (aufgrund von bugs oder performanceproblemen) zu schlecht ist, wird es halt verschoben.
ich hab z.B. gothic 3 auch erst lange später nach unzähligen patches (inkl. dem großen communitypatch) gespielt und habs als absolut geiles spiel erlebt wärend viele andere total traumatisiert davon sind. ;D

urfaust
2010-05-05, 09:49:33
ich hab z.B. gothic 3 auch erst lange später nach unzähligen patches (inkl. dem großen communitypatch) gespielt und habs als absolut geiles spiel erlebt wärend viele andere total traumatisiert davon sind. ;D

mit Ati Karten immer noch ein Flop, kein AA

Grestorn
2010-05-05, 09:53:11
Danke!
Sind 3110€.....nen haufen Holz für so "wenig" Leistung, findest du nicht!?

Ja und? Ich muss nicht rechtfertigen, wofür ich mein Geld ausgebe. Das hat in der Tat nichts mit nVidia und ATI zu tun.

Gast
2010-05-05, 09:55:59
Danke!
Sind 3110€.....nen haufen Holz für so "wenig" Leistung, findest du nicht!?
Ich wage mal zu behaupten, dass dein System beim Gamen maximal 2-2,5x schneller, den Inputlag und die Microruckler nicht mitgerechnet, als mein System ist.

Jetzt mal das was ich gezahlt habe vor über einem halben Jahr.

230€ Grafikkarte (HD5850)
90€ Mainboard (Asus P5Q)
180€ CPU (Q9550)
110€ SSD (Super Talent 32GB)
70€ NT (X-Spice Kira 530W 80+ Bronze)
300€ für den kompletten Rest! (Arbeitsspeicher, Gehäuse, Kühler, Lüfter, optische Laufwerke)

Ich komme auf 980€.....wobei der 300€ Haufen, eigentlich immer unangetastet bleibt.

Hat nichts mit ATi vs nVidia zu tun!
hast Du eigentlich nichts anderes zu tun als immer wieder herum zu nörgeln nur um irgendwas zu schreiben ?

jeder kann kaufen was er will.
soviel ausgeben wie er will/kann.
ob sinnlos/overpowered oder nicht, hast Du nicht zu entscheiden.
kauf das was Du willst, aber nerve die Leute nicht dauernd mit Deinen persönlichen Ansichten die niemanden interessieren, aber stören.

Dein PC erfüllt für mich nicht mal die Mindestanforderung um das Ding geschenkt haben zu wollen.
Genau...das interessiert jetzt auch keinen :D

Tesseract
2010-05-05, 09:56:42
mit Ati Karten immer noch ein Flop, kein AA

hab ich nicht auf einer ati gespielt.

Schlammsau
2010-05-05, 09:57:23
Ja und? Ich muss nicht rechtfertigen, wofür ich mein Geld ausgebe. Das hat in der Tat nichts mit nVidia und ATI zu tun.

Musst du auch nicht, hab ich nicht verlangt.

urfaust
2010-05-05, 10:04:33
hab ich nicht auf einer ati gespielt.

ich hatte mir letztes Jahr für G3 extra eine GTX285 angeschafft,
AA zwar erzwingbar, aber bei max. Details ist selbst die nVidia-Karte
stellenweise in die Knie gegangen.
Mit einer GTX480 dürfte man jetzt rundum glücklich sein

Gast
2010-05-05, 10:12:34
Mei, der eine zahlt tausende Euro für seine Modelleisenbahn, der andere für sein Auto und der dritte eben für den Computer. Verglichen mit vielen Hobbies ist der Computer selbst für Enthusiasten recht günstig.

Bei mir:
€1000 für die Grafikkarten
€270 für das MB
€350 für die CPU
€250 für die SSD
€400 für den ganzen Rest.

Und jetzt nochmal €840 für die Wasserkühlung.

Bloß hat eine Modelleisenbahn auch Jahre später noch einen gewissen Wert (je nachdem sogar über Neupreis). Die Hardware ist in spätestens 2.5 Jahren mehr oder weniger wertlos. So gesehen ist das Hobby eben schon teuer, weil die Ware, in die investiert wird, einem enormen Preisverfall unterliegt.

urfaust
2010-05-05, 10:19:18
Bloß hat eine Modelleisenbahn auch Jahre später noch einen gewissen Wert (je nachdem sogar über Neupreis). Die Hardware ist in spätestens 2.5 Jahren mehr oder weniger wertlos. So gesehen ist das Hobby eben schon teuer, weil die Ware, in die investiert wird, einem enormen Preisverfall unterliegt.

naja, High-End Hardware wird man auch für einen guten Preis los
wenn die nächste Generation schon ansteht. Man darf nur nicht
zu lange warten mit dem Verkauf..

corvus
2010-05-05, 10:21:14
Mei, der eine zahlt tausende Euro für seine Modelleisenbahn, der andere für sein Auto und der dritte eben für den Computer. Verglichen mit vielen Hobbies ist der Computer selbst für Enthusiasten recht günstig.

Bei mir:
€1000 für die Grafikkarten
€270 für das MB
€350 für die CPU
€250 für die SSD
€400 für den ganzen Rest.

Und jetzt nochmal €840 für die Wasserkühlung.

aahhh WAKÜ, wird auch Zeit :-)

Kauf kein Quatsch..als WAKÜ Neuling kauft man da gerne 3x.....

Gast
2010-05-05, 10:22:22
Etwas zur Auflockerung: ;)

http://img17.imageshack.us/img17/4531/thermi.jpg

corvus
2010-05-05, 10:26:03
echt
http://www.abload.de/thumb/unbenannt02x1.png (http://www.abload.de/image.php?img=unbenannt02x1.png)

meinem Kärtchen isses arg kalt... :D

N0Thing
2010-05-05, 10:26:09
ich hatte mir letztes Jahr für G3 extra eine GTX285 angeschafft,
AA zwar erzwingbar, aber bei max. Details ist selbst die nVidia-Karte
stellenweise in die Knie gegangen.


Bei welcher Auflösung?

MiamiNice
2010-05-05, 10:28:23
Ja und? Ich muss nicht rechtfertigen, wofür ich mein Geld ausgebe. Das hat in der Tat nichts mit nVidia und ATI zu tun.

Du hast ihn ja gefüttert mit den Daten. Aber nette Kiste hast Du da zu stehen.

hast Du eigentlich nichts anderes zu tun als immer wieder herum zu nörgeln nur um irgendwas zu schreiben ?

jeder kann kaufen was er will.
soviel ausgeben wie er will/kann.
ob sinnlos/overpowered oder nicht, hast Du nicht zu entscheiden.
kauf das was Du willst, aber nerve die Leute nicht dauernd mit Deinen persönlichen Ansichten die niemanden interessieren, aber stören.

Dein PC erfüllt für mich nicht mal die Mindestanforderung um das Ding geschenkt haben zu wollen.
Genau...das interessiert jetzt auch keinen :D

Unterschreib^^ Sein PC ist wirklich Pfui ^^

urfaust
2010-05-05, 10:28:43
Bei welcher Auflösung?

1680er was nicht sonderlich hoch ist

Hybrid AA auf Anschlag natürlich :smile:

Tesseract
2010-05-05, 10:29:48
ich hatte mir letztes Jahr für G3 extra eine GTX285 angeschafft,
AA zwar erzwingbar, aber bei max. Details ist selbst die nVidia-Karte
stellenweise in die Knie gegangen.
Mit einer GTX480 dürfte man jetzt rundum glücklich sein

wenn man ein bischen an den einstellungen rumspielt und dinge deaktiviert, die die grafik ohnehin nur verschlimmbessern sieht es imho besser aus und ist deutlich performanter.

urfaust
2010-05-05, 10:34:26
wenn man ein bischen an den einstellungen rumspielt und dinge deaktiviert, die die grafik ohnehin nur verschlimmbessern sieht es imho besser aus und ist deutlich performanter.

man ist ohnhin gezwungen auf Bloom auszuweichen, da mit HDR + AA
Nachts Pixelfehler auftauchen. Bringt sogar etwas mehr Performance.

In die Knie gegangen ist die GTX285 in Bereichen mit vielen Bäumen, min. 25 FPS

Schlammsau
2010-05-05, 10:48:03
Unterschreib^^ Sein PC ist wirklich Pfui ^^

Um dich abzuhängen reichts, wenn deine Sig noch aktuell ist. :tongue:

Gast
2010-05-05, 10:49:00
Ähhm, ja, whatever- ich laß dir deine Illusionen, offenbar brauchst du die um SLI weiter nicht haben zu müssen :ulol:
Ich kanns ja verstehen, 1500€ haut keiner gerne raus ;D

Welche Illusion, sind Mikroruckler nur eine Verschwörungstheorie die von der Klatschpresse erfunden wurden?

Mordred
2010-05-05, 10:51:28
Nein, aber sie sind nicht so extrem das die ganze Sli mehrleistung total verpuffen würde.

corvus
2010-05-05, 10:57:15
Welche Illusion, sind Mikroruckler nur eine Verschwörungstheorie die von der Klatschpresse erfunden wurden?

nö mein Jung die hat Tombman erst gefunden.....da haste ja den richtigen Ansprechpartner der dir das näher bringen kann...wann wo wie und überhaupt.....

Mordred
2010-05-05, 11:01:15
Nenn es lieber "an die Öffentlichkeit gebracht" dier Hersteller werden das mit sicherheit schon lange gewusst haben.

N0Thing
2010-05-05, 11:01:18
1680er was nicht sonderlich hoch ist

Hybrid AA auf Anschlag natürlich :smile:


Dann besteht bei 16xS ja noch Hoffnung, mit 4xMSAA Anteil kommt man ja deutlich weiter als mit dem 8xMSAA Anteil bei 32xS.
1680x1050 hab ich auch, nur ist bei mir eine GTX275 im Einsatz. Danke für die Information. ;)http://www.forum-3dcenter.org/vbulletin/images/icons/icon14.gif

Gast
2010-05-05, 11:07:06
Die Leute mit ihren 3000+€ Kisten können sich gerne um die Wette mikroruckeln und inputlaggen beim 50ten mal Crysis oder Metro durchspielen, für PvP-MMO oder MP-FPS Spieler ist es ein absolutes no-go, da brauch ich das nicht noch zusätzlich auf den Serverlag draufzustapeln.
Gulftown + 12 GB RAM + GTX 480 + SSD > all für solche Zwecke.

Grestorn
2010-05-05, 11:25:33
Lustig, die ganzen Neidbolzen hier...

Schon bemerkenswert, dass es so schwer ist, einer Person seine Sachen zu gönnen. Ist ja nicht so, dass ich mein Geld von irgendjemandem geschenkt bekomme...

Gut, dass es "Microruckeln" und Inputlag gibt, dann kann man seinen Neid etwas beruhigen. Auch wenn man keinen der Effekte je selbst zu Gesicht bekommen hat...

MiamiNice
2010-05-05, 11:30:23
Um dich abzuhängen reichts, wenn deine Sig noch aktuell ist. :tongue:

Jo, aber nur solange der Refresh der 480er noch nicht da ist :tongue: Ob das Teil mit den 2x6 Pin Stromanschluss überhaupt noch kommt? Mh, ich kaufe mir auf jedenfall einen vollen Fermi. Die abgespeckte 480er können se behalten ^^

Die Leute mit ihren 3000+€ Kisten können sich gerne um die Wette mikroruckeln und inputlaggen beim 50ten mal Crysis oder Metro durchspielen, für PvP-MMO oder MP-FPS Spieler ist es ein absolutes no-go, da brauch ich das nicht noch zusätzlich auf den Serverlag draufzustapeln.

:facepalm: Spielst Du schon oder trollst Du noch?



Ist ja nicht so, dass ich mein Geld von irgendjemandem geschenkt bekomme...


Und ich dachte immer NV würde Dir die Kohle schenken ... /ironie ^^

Eigendlich ne Frechheit das Du nix von denen bekommst, würde ich mal nachfragen ^^

Gast
2010-05-05, 11:35:41
Da stimme ich Grestorn zu. Ich persönlich käme nie auf die Idee für soviel Geld einen PC zu kaufen und würde auch jedem, der kaum Ahnung hat aber eben einen Spiele-PC kaufen möchte, abraten soviel Geld in die Hand zu nehmen.
Aber wer genau weiß, was er möchte und das Geld auch in die Hand nimmt, der kann sich doch so eine Kiste gerne hinstellen.

tombman
2010-05-05, 11:47:29
Die Leute mit ihren 3000+€ Kisten können sich gerne um die Wette mikroruckeln und inputlaggen beim 50ten mal Crysis oder Metro durchspielen, für PvP-MMO oder MP-FPS Spieler ist es ein absolutes no-go, da brauch ich das nicht noch zusätzlich auf den Serverlag draufzustapeln.
Gulftown + 12 GB RAM + GTX 480 + SSD > all für solche Zwecke.
CNN meldet Sensation: SLI kann man jetzt auch pro game abschalten!!!!! :eek:

MGPU ist nicht dazu da, games zu "beschleunigen", die es eh ned nötig haben, sondern die, die ohne MGPU maximiert nicht mehr gescheit spielbar wären...

Hmm, was mein PC gekostet hat? >5000€ ;D

corvus
2010-05-05, 11:54:12
na und, andere gehen saufen etc.....ich setzt mich in meiner Freizeit gerne vor das Teil und zock ne Runde oder gehe im 3DC ne runde lästern :D dazu kann das Ding ruhig etwas mehr kosten....mich freuds wenn ich ihn anschalte.

Allerdings wird fermi langsam teuer :D wen juckts?

Nen neues Netzteil muß her....mit 1.1 GPU und 4.2 i7 und dem ganzem anderen pipapo hat ich im Steßtest 738 von 750 Watt :lol:

Marodeur
2010-05-05, 11:59:50
Ist doch sowas von wurscht für was man sein Geld verjubelt wenns ums Hobby geht. Ich hab jetzt auch mal locker 1200 Euro fürs Motorrad verprasst nur damit ich auch die anständigen Klamotten dazu hab. Dafür kost mein PC halt weniger. Andere kaufen sich fürs Geld halt Grafikkarten und der dritte brauch nen Spoiler für seinen Golf. ^^

Wär der PC wie vor ein paar Jahren noch mein Haupthobby hätt ich bestimmt auch ne GTX4xx bestellt, jetzt grübel ich halt erstmal drüber nach obs das für mich braucht. Und dazu sollten dann auch solche Threads für hilfreich sein. ;)

derguru
2010-05-05, 12:02:44
Nen neues Netzteil muß her....mit 1.1 GPU und 4.2 i7 und dem ganzem anderen pipapo hat ich im Steßtest 738 von 750 Watt :lol:

im ernst? rofl ich komm nit mal mit 2*5870(1ghz)+8800gt und I7@4,2 auf die watt werte. :lol:

corvus
2010-05-05, 12:10:55
jo :D
aber volle Kanne mit OCCT.....laß mal bei dir laufen....
http://www.ocbase.com/perestroika_en/index.php
viel Spaß :-)

Iruwen
2010-05-05, 12:12:24
Da stimme ich Grestorn zu. Ich persönlich käme nie auf die Idee für soviel Geld einen PC zu kaufen und würde auch jedem, der kaum Ahnung hat aber eben einen Spiele-PC kaufen möchte, abraten soviel Geld in die Hand zu nehmen.
Aber wer genau weiß, was er möchte und das Geld auch in die Hand nimmt, der kann sich doch so eine Kiste gerne hinstellen.

Exakt. Zumal jemandem der keine Ahnung hat vieles eh nicht auffällt, z.B. leichtes AF-Flimmern. Meine Freundin mosert auch immer wenn ich Teile für den Rechner kauf, aber hey... ICH HAB LETZTE WOCHE EIN NEUES SCHUHREGAL GEKAUFT :P

Labberlippe
2010-05-05, 12:51:48
Lustig, die ganzen Neidbolzen hier...

Schon bemerkenswert, dass es so schwer ist, einer Person seine Sachen zu gönnen. Ist ja nicht so, dass ich mein Geld von irgendjemandem geschenkt bekomme...

Gut, dass es "Microruckeln" und Inputlag gibt, dann kann man seinen Neid etwas beruhigen. Auch wenn man keinen der Effekte je selbst zu Gesicht bekommen hat...

Hi

Also so wie ich das aufgefasst habe wollte Schlammsau darauf aus, das man im Vergleich ein System mit AMD Komponeten günstiger hinbekommt wo die Leistung sich auch nicht zu verstecken braucht.

Im Prinzip ist es wurscht was jeder mit seinem Geld macht und wieviel jeder bereit ist für sein PC System Geld ausgibt.

Tomban hat ja brav sugeriert das die SLI Gegener nur das nicht kaufen wegen Mikroruckler und hat das gleich brav schön geredet.

Lustig finde ich auch, das plötzlich dies alles keine Relevanz hat, da solche User ja als Enthusiast angesehen werden und die anderen ja nur "arme Schweine" sind, weil die sich nicht solche Systeme leisten oder können wollen.

Laut manchen Argumentationen hier (in letzter Zeit) müssen ein Grossteil der User hier ja das Board verlassen und dürfen nicht kritisieren da dies ja ein Board ist, das nur quasi die Enthusiasten anspricht.

Vorteile hin oder her.
Ich persönlich empfinde das so ein SLI System zu viel schluckt wo die Leistung kaum umgesetzt wird.
Was braucht der Enthusiast als nächstes?

Beide IHVs haben deren Vor und Nachteile nur eines muss ich schon sagen, damals wurde ja brav einige derbe Ansagen gegen ATI losgetreten weil ATI ja so eine schwache Leistungssteigerung abgeliefert hat.
Hätte ATI so eine Karte auf dem Markt geworfen hätte es wieder gecheppert hier im Forum.

Es war übrigens auch lustig mit zuverfolgen das das Supersampling bei ATI zuerst wegen dem automatischen anpassenden LOD kritisiert wurd.
Plötzlich war für eingie Supersampling nur da damit das grottige AF von ATI verschwindet, mag zum Teil natürlich stimmen.
Es wurde ja auch brav festgestellt das Supersampling sowieso für neue Titel zu langsam ist.

Jetzt wird festgestellt das nVIDIA durch einen Treiberbug auch Supersampling anbietet was gegen den Spezifikationen seitens MS ist und plötzlich ist das über Feature schlecht hin und ATIs Supersampling ist somit unnütz weil es nicht mit DX 10/11 funktioniert weil die sich an den Spezifikationen halten.
Performance Verlust ist ja wurscht weil dank SLI geht eh alles.


Man sollte das ganze neutral begutachten.
Die GTX 480 ist nicht mal im Ansatz der Überflieger wie es hier schön geredet wird.
Also plötzlich sind die Mikroruckler nicht mehr tragisch, der Enthusiast lebt mit dem Stromberbrauch und der Leistungsaufnahme und wer dies Kritisiert ist natürlich neidig.

@Grestorn ich habe Deinen Post nur zum Einstieg verwendet. Thx.

Gruss Labberlippe

Schlammsau
2010-05-05, 12:55:34
Nein, nicht unbedingt mit ATi, sondern allgemein ist der Mehrwert von MultiGPU im Bezug auf die Kosten, mehr als fragwürdig. Darauf wollte ich hinaus!

urfaust
2010-05-05, 13:03:12
Nein, nicht unbedingt mit ATi, sondern allgemein ist der Mehrwert von MultiGPU im Bezug auf die Kosten, mehr als fragwürdig. Darauf wollte ich hinaus!

unter Sammlern (Tonträger, Antiquitäten usw.) gibt es diese Diskussionen nicht,
da hat jeder seine eigene Wertschätzung. Und wenn man bedenkt,
dass Leute für ne Schallplatte 5.000 EUR oder mehr ausgeben. ist MGPU als Hobby noch recht günstig.

3DFX hat uns damal angefixt

Grestorn
2010-05-05, 13:11:54
Also so wie ich das aufgefasst habe wollte Schlammsau darauf aus, das man im Vergleich ein System mit AMD Komponeten günstiger hinbekommt wo die Leistung sich auch nicht zu verstecken braucht.

Dass man mit ATI etwas günstiger wegkommt bezweifle ich nicht. Warum ich nVidia den Vorzug gebe, hat diverse Gründe, die auch schon oft diskutiert worden sind.

Tomban hat ja brav sugeriert das die SLI Gegener nur das nicht kaufen wegen Mikroruckler und hat das gleich brav schön geredet.

Lustig finde ich auch, das plötzlich dies alles keine Relevanz hat, da solche User ja als Enthusiast angesehen werden und die anderen ja nur "arme Schweine" sind, weil die sich nicht solche Systeme leisten oder können wollen.

Die Leute, die auf MultiGPU verzichten, weil sie vor Microrucklern angst haben, meinte ich nicht mit Neidbolzen. Wen ich damit meinte sollte klar sein, wenn man die letzten Beiträge ansieht, speziell die von Gästen.

Dennoch: Das Thema Microruckler wird absolut überbewertet. Jeder mit SLI hat die Wahl, ob er ein Spiel mit oder lieber ohne SLI spielt. Ich probier lange für jedes Spiel aus, mit welcher Qualitätseinstellung und mit oder ohne SLI die bessere Wahl ist. Manchmal kommt dabei auch heraus, dass man besser auf SLI verzichtet (bei Batman:AA z.B.).

Zu behaupten, es ginge mir (und anderen SLI Nutzern) nur um die Balkenlänge, ist letztlich nichts als eine Beleidigung unserer Intelligenz. Um zu beurteilen zu können, was SLI bringt und wie groß die Nachteile sind, muss man das schon selbst ausprobieren und sich nicht auf Aussagen Dritter verlassen!

Man sollte das ganze neutral begutachten.
Die GTX 480 ist nicht mal im Ansatz der Überflieger wie es hier schön geredet wird.

Diese beiden Sätze untereinander ... :) Objektiv und neutral ist Deine Einschätzung jedenfalls nicht. Wie jedes andere Produkt hat der GTX480 Vor- und Nachteile. Wie schwer die wiegen, solltest Du besser jedem selbst überlassen.

Also plötzlich sind die Mikroruckler nicht mehr tragischDas waren sie noch nie, tragisch sind sie nur in Einzelfällen. Das hat tombman damals schon festgestellt und daran hat sich bis heute nichts geändert.

der Enthusiast lebt mit dem Stromberbrauch und der Leistungsaufnahme und wer dies Kritisiert ist natürlich neidig.Warum sollten mich, wenn ich €3000 für den Rechner ausgebe, stören, wenn ich im Jahr durch den Rechner eine um 300€ höhere Stromrechnung habe?

Raff
2010-05-05, 13:16:40
Das ist klar eine Frage der eigenen Ansprüche und Lebensauffassung. Ich für meinen Teil verabscheue Ineffizienz, besonders, wenn noch weitere Probleme hinzukommen. Multi-GPU widerspricht daher meiner persönlichen Philosophie. Wenn ich 100 Prozent mehr Geld investiere, dann will ich auch konstant 100 Prozent mehr Leistung dafür (oder zumindest 90 Prozent). Was der MGPU-Nutzer heute beim Kauf einer zweiten Grafikkarte bekommt, ist ein 100-prozentiges Geldloch, aber nur Leistungsunterschiede zwischen -10 (MGPU Epic Fail, CPU-Limit oder Treiber-Fuck-up) und mit viel Glück +90 Prozent. Selbst wenn diese 90 Prozent mal da sind, wird die höhere Fps-Zahl von Mikroruckeln und einem Inputlag verkleinert. Nehmen wir mal Zeit-Abweichungen um 30 Prozent, landen wir – die Eingabeverzögerung nicht berücksichtigt – bei einem Fps-Plus von 60 Prozent. Als wenn das nicht alles schon genug Kontra-Argumente wären, müssen sich MGPU-Nutzer auch noch mit nicht vorhandenen Treiberprofilen und vereinzelt mit typischen MGPU-Bugs wie Flackern herumschlagen.

Teuer bezahlende Premium-Kundschaft verdient etwas Besseres.

MfG,
Raff

derguru
2010-05-05, 13:18:47
naja bei cpu´s ist die effizienz noch schlimmer und dort beschwert sich keiner.hab nix gegen multigpu solang es bei 2 bleibt,denn drüber wird es nicht mehr lustig.

Chris2CB
2010-05-05, 13:21:07
unter Sammlern (Tonträger, Antiquitäten usw.) gibt es diese Diskussionen nicht,
da hat jeder seine eigene Wertschätzung. Und wenn man bedenkt,
dass Leute für ne Schallplatte 5.000 EUR oder mehr ausgeben. ist MGPU als Hobby noch recht günstig.

3DFX hat uns damal angefixt


Die können in 5 Jahren ihre Schallplatte aber für fast das gleiche Geld wieder unter die Leute bringen.........was ist heute ne 7950GX2 Wert???

Wenn ich 1500€ für ein Objektiv (Zeiss 85mm 1.4) ausgeben....ja erscheint viel....aber ich kann in 3 Jahren noch 70% verlangen soferns nicht Schrott is.

Das ist auch der Grund warum es in diesen Berreichen keine Diskussion gibt, da der Wertverfall sehr gering ist und vor allem der Alterschnitt viel höher ist :).

Wenn user 3000 oder 5000€ für ihren PC ausgeben, finde ich das trotzdem Interessant da es zum aktuellen Zeitpunkt nahe am technisch möglichen ist, eher Forscherdrang statt Prolet :)

olegfch
2010-05-05, 13:34:15
Wenn user 3000 oder 5000€ für ihren PC ausgeben, finde ich das trotzdem Interessant da es zum aktuellen Zeitpunkt nahe am technisch möglichen ist, eher Forscherdrang statt Prolet :)
Naja... ich kenne einen, der fast so viel für sein Rechner ausgegeben hat wie ich, ohne wirklich Ahnung von irgendwas zu haben.
Hauptsache krasse schnelle Kiste, boa geil ey. :rolleyes:

Botcruscher
2010-05-05, 13:34:54
Welcher Forscherdrang? Massig OC (besonders bei Midrangehardware) und edles Modding geht da bei mir durch aber sicher nicht einfach die teuerste Hardware in den Rechner stecken. Das hoch rüsten endet eh spätestens an den mangelnden Spielen. Die paar Dinger hat man doch innerhalb einer Woche gesehen. Danach landet man eh wieder bei den Multititeln.
Schallplatten usw. sind zeitlos... PC-Hardware nach 18 Monaten schon fast Ersetzt.


Wenn ich 1500€ für ein Objektiv (Zeiss 85mm 1.4) ausgeben....ja erscheint viel....aber ich kann in 3 Jahren noch 70% verlangen soferns nicht Schrott is.


Mit dem Objektiv kannst du Dinge machen welche ohne nicht möglich wären. Bei PC Hardware machst du das gleich nur mit mehr FPS. Meist geht es dann um Qualitätseinstellungen welche man eh nur bei Screenshots sieht.

aths
2010-05-05, 13:36:02
Gut, dass es "Microruckeln" und Inputlag gibt, dann kann man seinen Neid etwas beruhigen. Auch wenn man keinen der Effekte je selbst zu Gesicht bekommen hat...Der Inputlag wird leider kleingeredet. Man hat – neben der Internet-Verbindung – Lag durch das Prerender-Limit von 3, vom Monitor selbst (insbesondere mit Overdrive) und bei SLI durch AFR. Das läppert sich. Nun haben nicht alle Leute Progaming-Ambitionen, aber für ernsthaftes Zocken ist SLI – genau entgegengesetzt dem Image, welches Nvidia verbreitet – nicht gut geeignet.

Ich setze das Prerender-Limit auf 0 oder 1 und habe bereits ernsthafte Sorgen ob ich mir als Zock-Monitor einen mit 30-40 ms Input-Lag kaufen soll. Das sind 2-2,5 Frames bei 60 fps und frisst die Prerender-Limit-Einstellung komplett auf.

olegfch
2010-05-05, 13:43:00
Für "ernsthaftes" zocken braucht man SLI auch net, SLI ist eher was für die Grafikgenießer, als für hardcore Daddelkids.

Marodeur
2010-05-05, 13:55:38
Bei so einer Werbung für ProGaming das man da ja SLI für krass hohe FPS braucht könnt man immer einen Screenshot eines Quake 3 Legoquakezockers daneben stellen. :biggrin:

tombman
2010-05-05, 14:02:23
Man kann SLI auch abschalten..zum 100. Mal.

Grestorn
2010-05-05, 14:11:30
Multi-GPU widerspricht daher meiner persönlichen Philosophie. Wenn ich 100 Prozent mehr Geld investiere, dann will ich auch konstant 100 Prozent mehr Leistung dafür (oder zumindest 90 Prozent).

Du weißt, dass das nicht realistisch ist. Gerade am oberen Ende der Leistung ist das Verhältnis zu Leistungsgewinn zu notwenigem Einsatz bei weitem nicht 1:1.

Das gilt bei (Single-)GPUs genauso wie bei CPUs und jeder anderen Hardware.

Gerade SLI skaliert, wenn man das berücksichtigt, sehr gut.

Grestorn
2010-05-05, 14:12:53
Der Inputlag wird leider kleingeredet. Man hat – neben der Internet-Verbindung – Lag durch das Prerender-Limit von 3, vom Monitor selbst (insbesondere mit Overdrive) und bei SLI durch AFR. Das läppert sich. Nun haben nicht alle Leute Progaming-Ambitionen, aber für ernsthaftes Zocken ist SLI – genau entgegengesetzt dem Image, welches Nvidia verbreitet – nicht gut geeignet.

Ich setze das Prerender-Limit auf 0 oder 1 und habe bereits ernsthafte Sorgen ob ich mir als Zock-Monitor einen mit 30-40 ms Input-Lag kaufen soll. Das sind 2-2,5 Frames bei 60 fps und frisst die Prerender-Limit-Einstellung komplett auf.

Das mag an den Spielen liegen, die man spielt. Ich habe mit dem Lag keine Probleme. Ich spiele aber auch keine Multiplayer-Shooter.

Raff
2010-05-05, 14:18:06
Man kann SLI auch abschalten..zum 100. Mal.

Bezahlt hast du's trotzdem. Thema "konstant 100 Prozent = epic fail" ;)

Du weißt, dass das nicht realistisch ist. Gerade am oberen Ende der Leistung ist das Verhältnis zu Leistungsgewinn zu notwenigem Einsatz bei weitem nicht 1:1.

Das gilt bei (Single-)GPUs genauso wie bei CPUs und jeder anderen Hardware.

Gerade SLI skaliert, wenn man das berücksichtigt, sehr gut.

Gäbe es weder Mikroruckeln noch den Input Lag, könnte ich euch gerade so verstehen. Ohne diese Dämpfer liegt die Fps-Skalierung oft im angenehmen Bereich (aber nicht immer). Ohne diese fiesen "Beigaben" erhielte man in den meisten Fällen ein Fps-Niveau, das einzelne Grafikkarten nur mit weniger Bildqualität erreichen. Ist aber nicht so. ;(

MfG,
Raff

Grestorn
2010-05-05, 14:19:33
Bezahlt hast du's trotzdem. Thema "konstant 100 Prozent = epic fail" ;)

Den MultiCore Prozessor hab ich auch bezahlt. Und trotzdem kann ich ihn nicht immer nutzen.

Gäbe es weder Mikroruckeln noch den Input Lag, könnte ich euch gerade so verstehen. Ohne diese Dämpfer liegt die Fps-Skalierung oft im angenehmen Bereich (aber nicht immer).

Tja, ich habe es eben mit Risen und AC 2 durchexerziert.

Ohne SLI müsste ich sowohl in Risen als auch in AC 2 auf die TRSSAA Stufe verzichten, die eine wirklich deutliche Verbesserung bringt (4xMS + 4x TRSSAA). Es ist einfach nicht konstant gut spielbar (z.B. im Sumpf bei Risen) wenn man nur eine GTX480 einsetzt.

Mit SLI geht das ohne Probleme. Und weder Microruckeln noch Inputlag sind für mich in einem der beiden Spiele spürbar.

Du kannst schreiben was Du willst, ich verlasse mich da lieber auf meine Erfahrungen aus erster Hand.

Mr. Lolman
2010-05-05, 14:25:15
Ohne SLI müsste ich sowohl in Risen als auch in AC 2 auf die TRSSAA Stufe verzichten, die eine wirklich deutliche Verbesserung bringt (4xMS + 4x TRSSAA). Es ist einfach nicht konstant gut spielbar (z.B. im Sumpf bei Risen) wenn man nur eine GTX480 einsetzt.

Hm? Welche Auflösung? Ohne den Tiefenunschärfe Effekt rennt Risen nämlich auf ner HD5870 mit 4xSGSSAA in 1920 sogar recht brauchbar.

Raff
2010-05-05, 14:28:00
Den MultiCore Prozessor hab ich auch bezahlt. Und trotzdem kann ich ihn nicht immer nutzen.

Selbst ein neuer 6-Kerner kostet nur ein ~Drittel von einer GTX 480, von daher ist das ein schlechter Vergleich. Versagende 500-Euro-Hardware tut weit mehr weh als ein versagendes partiell genutztes Teil für 150 Euro.

Tja, ich habe es eben mit Risen und AC 2 durchexerziert.

Ohne SLI müsste ich sowohl in Risen als auch in AC 2 auf die TRSSAA Stufe verzichten, die eine wirklich deutliche Verbesserung bringt (4xMS + 4x TRSSAA). Es ist einfach nicht konstant gut spielbar (z.B. im Sumpf bei Risen) wenn man nur eine GTX480 einsetzt.

Mit SLI geht das ohne Probleme. Und weder Microruckeln noch Inputlag sind für mich in einem der beiden Spiele spürbar.

Du kannst schreiben was Du willst, ich verlasse mich da lieber auf meine Erfahrungen aus erster Hand.

Wie gesagt, da muss jeder schauen, was ihm das Gezocke wert ist. :) Für TSSAA (inkl. Nebenwirkungen) würde ich nicht das Doppelte ausgeben.

MfG,
Raff

Grestorn
2010-05-05, 14:31:17
Hm? Welche Auflösung? Ohne den Tiefenunschärfe Effekt rennt Risen nämlich auf ner HD5870 mit 4xSGSSAA in 1920 sogar recht brauchbar.

Brauchbar ist relativ. Im Sumpf (extrem viele Alphatest-Objekte) bricht die GTX480 mit einer Karte bei 4xTRSSAA jedenfalls deutlich unter 30 fps ein (selbe Auflösung). Aber mit Tiefenunschärfe, ich sehe keinen Grund das abzuschalten.

Grestorn
2010-05-05, 14:32:15
Wie gesagt, da muss jeder schauen, was ihm das Gezocke wert ist. :) Für TSSAA (inkl. Nebenwirkungen) würde ich nicht das Doppelte ausgeben.

Die Frage nach "ist es so viel Geld wert" darf man sowieso nicht stellen, sonst müsste man sich generell auf ne Konsole beschränken.

N0Thing
2010-05-05, 14:36:21
Da wären mir die Spiele zu teuer und die Grafik für den bezahlten Preis zu schlecht. :freak:

Gast
2010-05-05, 14:43:55
Ich finds super, dass gleich mit Neid argumentiert wird, weil man nicht jeden Bullshit kauft.

Habt ihr ein iPad?
Nein? Wieso denn nicht?
Aha, weils Crap ist...verstehe!
NEIDER!!!!1

Und nein, ich bezahle nicht 500€ für Hardware welche zusätzlich Strom säuft und für mich nur in Singleplayerspielen nutzbar ist (Thema Xfire/SLI abschalten).

Grestorn
2010-05-05, 15:02:16
Ich finds super, dass gleich mit Neid argumentiert wird, weil man nicht jeden Bullshit kauft.

Was für einen Grund gibt es denn sonst, einen solchen Beitrag zu schreiben? Für mich ist das Neid pur. Da kannst Du sagen, was Du willst.

Gast
2010-05-05, 15:09:25
Wer protzt denn?
Auch mit ATI kann man sehr viel Geld für die Hardware ausgeben.

Dein Posting ist ziemlich daneben und völlig zusammenhanglos.
Und es stand nicht ein Wort von ATI oder NVidia drin

So leicht kann mann seine eigentliche Intension verraten

Damit hast du wieder bewiesen worum es dir eigentlich geht - Nur Flamen !

Gast
2010-05-05, 15:20:40
Und lass um gottes Willen diese beschissenen Mehrfach posts !!!

BigKid
2010-05-05, 15:35:10
Mit dem Objektiv kannst du Dinge machen welche ohne nicht möglich wären. Bei PC Hardware machst du das gleich nur mit mehr FPS. Meist geht es dann um Qualitätseinstellungen welche man eh nur bei Screenshots sieht.
Das ist mal nicht wahr... Was sollen diese Äpfel mit Birnen vergleiche ?
Mit dem einen Objektiv musst du halt näher rann, weiter weg um einen ähnlichen Bild-Eindruck zu erreichen. Notfalls muss halt eine Bildbearbeitung nachhelfen ;) ... Klar bekommst du nur mit einem Macro richtig nah und richtig groß...
Aber das gilt mit Grafikkarten auch ... Bei SPIELBAREN Frameraten kannst du eben mit ner alten Graka einfach nicht die selbe Effektfülle und Polygonzahl erreichen... Mal abgesehen von Effekten die GARNICHT gingen weil andere DirectX Generation... Nenenene solche Vergleiche sind Banane...

Das mit dem Wertverfall lasse ich persönlich ich gelten, auf Hobby vs. Hobby Ebene...

Iruwen
2010-05-05, 16:19:47
naja bei cpu´s ist die effizienz noch schlimmer und dort beschwert sich keiner.
Inwiefern? Die Leistung pro Kern sinkt doch nicht mit der Zahl der Kerne.

Botcruscher
2010-05-05, 16:28:28
D
Mit dem einen Objektiv musst du halt näher rann, weiter weg um einen ähnlichen Bild-Eindruck zu erreichen. Notfalls muss halt eine Bildbearbeitung nachhelfen ;) ... Klar bekommst du nur mit einem Macro richtig nah und richtig groß...

Zu Glück ist das kein Fotoforum.:tongue:

Aber das gilt mit Grafikkarten auch ... Bei SPIELBAREN Frameraten kannst du eben mit ner alten Graka einfach nicht die selbe Effektfülle und Polygonzahl erreichen... Mal abgesehen von Effekten die GARNICHT gingen weil andere DirectX Generation... Nenenene solche Vergleiche sind Banane...

Multi-GPU! Keiner hält dich davon ab eine Grafikkarte zu kaufen. Keiner sieht mit Multi-GPU mehr Polys oder hat eine bessere DX-Gen.

urfaust
2010-05-05, 16:28:56
Ich finds super, dass gleich mit Neid argumentiert wird, weil man nicht jeden Bullshit kauft.

Habt ihr ein iPad?
Nein? Wieso denn nicht?
Aha, weils Crap ist...verstehe!
NEIDER!!!!1

eigentlich müsste es heißen

Habt ihr zwei iPads?

:biggrin: :P

PHuV
2010-05-05, 16:30:01
Selbst ein neuer 6-Kerner kostet nur ein ~Drittel von einer GTX 480 Ein echter 6-Kerner oder ein 3 Kerner mit HT?

aths
2010-05-05, 16:56:11
Das mag an den Spielen liegen, die man spielt. Ich habe mit dem Lag keine Probleme. Ich spiele aber auch keine Multiplayer-Shooter.Shooter oder E-Sport-Strategiespiele profitieren vom Handling her von möglichst geringem Input-Lag. Dabei machen ein, zwei Frames Lag keine Probleme dass sich das Spiel plötzlich krass anders anfühlt, man ist aber mit möglichst geringem Lag besser.

Natürlich kann man SLI abschalten, aber wozu sollte man es dann anschalten wenn man es gerade zum Hardcore-Zocken besser nicht nutzt? Mein "Vorwurf" an SLI ist nicht die Effizienz unterhalb von 100%, sondern der zusätzliche Inputlag und das Mikroruckeln. Wer den Unterschied nicht merkt, bräuchte auch nicht die nominal 70% höheren (real eher 40-50% besseren) Frameraten. Der zweite Punkt ist, dass man SLI nur für sehr hohe Auflösungen braucht. Oft ist der Content darauf gar nicht mehr optimiert. Man sieht dann also schön wie eckig die Gegenstände modelliert wurden und wie blurry die Texturen im Vordergrund sind.

In diesem Zusammenhang begrüße ich ja gerade GTX 470 und 480: Eine Lösung welche ohne SLI locker GTX-295-Leistung bringt, sogar ohne Mikroruckler. Dazu noch D3D11-Support. Jetzt brauchen wir nur noch eine leisere Luftkühlung dafür.

dildo4u
2010-05-05, 16:57:51
Ein echter 6-Kerner oder ein 3 Kerner mit HT?
Er meint wohl den.

http://geizhals.at/deutschland/a517723.html

Gast
2010-05-05, 17:12:17
Wer den Unterschied nicht merkt, bräuchte auch nicht die nominal 70% höheren (real eher 40-50% besseren) Frameraten.
So sieht's aus. Beim Betrieb und Kauf von SLi ist aber vorwiegend Psychologie dabei, das die ganze Sache fernab technischer Restriktionen ungemein posititiv aufwertet.
Ich für meinen Teil habe mich vor Kurzem bei einem Kumpel mit 2x GTX 280 verlustieren dürfen und es war genauso wie zu Zeiten der 7950 GX2 ungenügend für mich. Da hat sich wirklich nicht viel getan in Bezug auf Mikroruckler trotz lamentieren seit mehr als 2 1/2 Jahre. Der Inputlag ist gegenüber Prerender 0 für mich spürbar, aber die Mikroruckler sind für mich störender. Glück für den, der von allem nichts mitbekommt.

pest
2010-05-05, 17:59:32
Der Inputlag ist gegenüber Prerender 0 für mich spürbar, aber die Mikroruckler sind für mich störender. Glück für den, der von allem nichts mitbekommt.

d.h. für 2xPreis erhalte ich ein manchmal subjektiv schlechteres Spielerlebnis
nun, warum dann nicht 0.5xPreis und Schatten auf Medium, den Unterschied
merkt man sowieso kaum


http://www.abload.de/img/justcause2_01j7ns.jpg


lange Rede kurzer Sinn, ich werde Enthusiasten nie verstehen
ich finde auch nicht das das viel mit Intelligenz, Männlichkeit oder "Ich habs halt" zu tun hat,
denn jegliche Vergleiche mit anderen Prestige-Objekten sind für den Popo, weil deren moralischer Wertverfall eindeutig länger dauert.

oder sagen wir es anders, jmd. der 1500,-€ übrig hat, und es in Grafikkarten investiert, hat imo, irgendein Problem....sry so denk ich halt

Sonyfreak
2010-05-05, 18:07:38
Im Endeffekt muss jeder für sich selbst entscheiden, wieviel ihm sein Hobby wert ist. Meiner Meinung nach spricht einfach nichts dagegen, auch mal 1000€ für Grafikkarten auszugeben. Und ehrlich, wenn mans mit anderen Hobbys vergleicht, kommt man als PC-Enthusiast echt noch günstig weg.

mfg.

Sonyfreak

corvus
2010-05-05, 18:09:54
@pest

yeep seh ich auch so, zb. Rollstuhlfahrer, Stubenhocker, Typen die einen kleinen Lolli haben<>dazu gehören dann wohl auch alle dicken Auto und Motorradfahrer, Leute die Spaß an der Materie haben..zur letzteren gehörst Du wohl nicht wie dein Bild aussagt.

ATI Käufer die für 2 oder 3 Karten nur die Hälfte bezahlen fallen natürlich durchs Raster.

Ach ja ich vergaß noch eine Gruppe wahrscheinlich die größte und zwar die gerne wollen aber nicht können.... gelle :-)

Grestorn
2010-05-05, 18:15:27
oder sagen wir es anders, jmd. der 1500,-€ übrig hat, und es in Grafikkarten investiert, hat imo, irgendein Problem....sry so denk ich halt

Was denn für eines?

pest
2010-05-05, 18:18:24
dazu gehören dann wohl auch alle dicken Auto und Motorradfahrer


lesen, verstehen, posten...nein das trifft auf dicke-auto-fahrer nicht zu,
denn ich sprach von moralischem wertverfall


zur letzteren gehörst Du wohl nicht wie dein Bild aussagt.


:confused:


Ach ja ich vergaß noch eine Gruppe wahrscheinlich die größte und zwar die gerne wollen aber nicht können.... gelle :-)

mimimi, ja das wird es sein :)

Was denn für eines?

frag doch mal tombman

Grestorn
2010-05-05, 18:20:25
frag doch mal tombman

Ich frage Dich. Denn Du hast es behauptet.

Ist es denn in Deinen Augen sinnvoller, 1000e von Euros in Autotuning zu stecken? Oder in Design-Möbel, die praktisch direkt nach dem Kauf wertlos sind?

LovesuckZ
2010-05-05, 18:24:01
Ist schon irgendwie genial: 60 Jahre Kapitalismus und somit freier Warenkauf in der BRD und trotzdem gibt es immer noch leute, die eine Neiddebatte entfachen müssen. Vorallen für sowas banales wie Grafikkarten.
Man sollte sich selbst hinterfragen, ob man nicht vielleicht ein anderes Problem hat, wenn man 1000€ zusätzlich für 3 statt 1 Karte als "falsch" bezeichnet.

pest
2010-05-05, 18:25:01
Ich frage Dich. Denn Du hast es behauptet.


und ich schrieb irgendein also recht variabel, wenn du mich fragst


Ist es denn in Deinen Augen sinnvoller, 1000e von Euros in Autotuning zu stecken? Oder in Design-Möbel, die praktisch direkt nach dem Kauf wertlos sind?

Natürlich finde ich das sinnvoller
Wenn du natürlich die beiden Babys nach ihrer Zeit in eine Vitrine stellst,
hätte ich schon mehr Verständnis ;) Das habe ich mit meiner teuersten Grafikkarte einer ET6000 nämlich gemacht :heart:
Genauso wie ich Leute verstehe die >1000€ für eine Voodoo zahlen oder so

Du verstehst ?

die eine Neiddebatte entfachen müssen. Vorallen für sowas banales wie Grafikkarten.

hör doch bitte damit auf, ich kann mir locker 2xGTX480 kaufen, wenn ich das sinnvoll fände


Man sollte sich selbst hinterfragen, ob man nicht vielleicht ein anderes Problem hat, wenn man 1000€ zusätzlich für 3 statt 1 Karte als "falsch" bezeichnet.

ich mache auch Dinge die ich für dumm halte, und hier sage ich halt das ich Enthusiasten dumm finde, get over it

corvus
2010-05-05, 18:28:23
wir verstehen dich alle, keine Angst, du mußt es nicht mit immer neuen Posts bestädigen.

LovesuckZ
2010-05-05, 18:31:19
hör doch bitte damit auf, ich kann mir locker 2xGTX480 kaufen, wenn ich das sinnvoll fände

ich mache auch Dinge die ich für dumm halte, und hier sage ich halt das ich Enthusiasten dumm finde, get over it

Jo, ich wollt' schon immer mal in einem Frauenhaus sagen, dass sie selbst schuld sind, dass sie geschlagen wurden sind. :D
Vielleicht solltest du dir entweder ein anderes Forum suchen, wo es keine Enthusiasten gibt oder deine Meinung in den entsprechenden Topics - wo danach gefragt wurde - verlagern.

pest
2010-05-05, 18:32:36
ach LovesuckZ in den Grafikkarten Threads läuft mein BS-Radar auf Hochtouren,
deswegen schreib ich auch mal was, was keinen interessiert... ;)

Grestorn
2010-05-05, 18:36:48
Eigentlich müsste Dein BS Radar völlig zugeschmiert sein, bei dem was Du selbst absonderst.

ZÜNDELholz
2010-05-05, 18:39:46
Für diejenigen, die mit SLI (aus Prinzip? )nicht umgehen wollen/können., am beispel COJ in DX10 mit 4xSGSSAA.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8006587&postcount=289

Die letzten 2 Benches betrachten. :P

urfaust
2010-05-05, 18:39:58
d.h. für 2xPreis erhalte ich ein manchmal subjektiv schlechteres Spielerlebnis
nun, warum dann nicht 0.5xPreis und Schatten auf Medium, den Unterschied
merkt man sowieso kaum


vielleicht wirds Zeit einen Optiker aufzusuchen

Mal ein völlig ungewöhnlicher Tip, wie man die Bildqualität bei allen Spielen teilweise extrem verbessern kann.
Schon sehr lange versuchte ich die Tips zur Erhöhung der Bildqualität der PCGH anzuwenden. Dies führte aber zu keinen Erfolg. Auch erkannte ich kaum Unterschiede bei eingeschalteter Kantenglättung. Ich dachte schon, ich bin Doof (Später stellte sich raus, das das so ist), oder meine Hardware wäre nicht ganz in Ordnung.
Heute stellte ich den Fehler fest. Von Apollo für 24€ meine Lesebrille geholt und ich sehe jetzt details, wo ich gar nicht wußte, das es sie gibt. Es wunderte mich doch, wie so ein kleiner Augenfehler sich auswirkt. Ich brauche sie nur zum lesen. Sonst habe ich noch volle Sehkraft. Ach so, ab sofort auch zu zocken.
Vielleicht hilft es ja den einen oder anderen Blinden auch wahrzunehmen, das das Augenlicht eventuell mit der zeit nachlässt.

http://extreme.pcgameshardware.de/grafikkarten/98408-fuer-24-bildqualitaet-stark-verbessert.html

LovesuckZ
2010-05-05, 18:43:19
Für diejenigen, die mit SLI (aus Prinzip? )nicht umgehen wollen/können., am beispel COJ in DX10 mit 4xSGSSAA.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8006587&postcount=289

Die letzten 2 Benches betrachten. :P

Alleine wegen Just Cause 2 lohnt sich SLI mit 2 GTX480 Karten. Das Spiel mit 4xSGSSAA ist ein wahrer Traum.

Gast
2010-05-05, 19:03:12
Alleine wegen Just Cause 2 lohnt sich SLI mit 2 GTX480 Karten. Das Spiel mit 4xSGSSAA ist ein wahrer Traum.

Ist jetzt eigentlich ernsthaft SGSSAA auf den Fermis möglich? ;D In dem entsprechenden Thread wird sich ja noch gezankt, ich blicke da noch nicht so recht durch. Da bliebe als Argument für die HD 5870 ja nur noch der 60 Watt niedrigere Stromverbrauch unter Last (< 1 € im Monat, wenn man täglich 2 Stunden spielt). ;D Die Pros wären ja sonst:

besseres AF
deutlich bessere Tesselationsleistung
CUDA
PhysX
mehr VRAM
TWIMTBP
Treiber
nHancer
SGSSAA in DX10 / 11

Ich hoffe, die GTX 460 / 465 wird auf HD 5850-Niveau sein leistungsmäßig. Dann gehört sie mir. :D

Raff
2010-05-05, 19:09:54
Er meint wohl den.

http://geizhals.at/deutschland/a517723.html

Gaynow den! Meiner ist schon auf dem Weg. =)

Ist jetzt eigentlich ernsthaft SGSSAA auf den Fermis möglich? ;D

Ja. Nur unter DX10/11.

MfG,
Raff

Botcruscher
2010-05-05, 19:43:56
Das Spiel mit 4xSGSSAA ist ein wahrer Traum.

Das Spiel ist inhaltlich absolute "arcade" Hirngrütze der behindertsten Art. Bei Mister Superhero im Piratenkostüm reist auch die Grafik nichts mehr. 400km² vollgefüllt mit Dumm/Lächerlichkeit und jump-shoot-explode.

Raff
2010-05-05, 20:50:28
Ersetze "Just Cause 2" durch ein aktuelles Spiel, das du magst. Abgesehen davon hat Sucky Recht, das Game regelt absolut :tongue: Action vom Feinsten, um nach einem geistig fordernden Arbeitstag fein abzuschalten.

MfG,
Raff

Schlammsau
2010-05-05, 20:51:36
Da ist aber Serious Sam besser geeignet. :)

Raff
2010-05-05, 20:53:51
Im Grunde ist das Serious Sam, nur mit Enterhaken und Fahr-/Flugzeugen (=> geiler). :biggrin:

MfG,
Raff

Schlammsau
2010-05-05, 21:07:49
Im Grunde ist das Serious Sam, nur mit Enterhaken und Fahr-/Flugzeugen (=> geiler). :biggrin:

MfG,
Raff

Ist Just Cause ein FPS? :|

tombman
2010-05-05, 22:41:53
Nicht die Leute mit MGPU haben ein Problem, sondern die anderen, die damit nicht umgehen können- siehe pest ;)

MGPU ist dazu da, in den Situationen IMMER NOCH Leistung zu haben wo eine GPU allein schon nicht mehr reicht- so wie der Lachgasknopf in Mad Maxs Auto :devil:
Oder es ist wie ein zuschaltbarer Allradantrieb, wenn die Karre droht im Dreck steckenzubleiben- einfach nochmal ein schöner Batzen Leistung, WENN MAN IHN BRAUCHT.

Quadcores und Hexacores sind 99% der Zeit sinnlos, trotzdem wirds gekauft. MGPU ist im Vergleich VIEL HÄUFIGER sinnvoll einzusetzen, aber nein, MGPU ist phöööööööse :ulol:

Aber es har eh keinen Sinn- die brauchen ihren Hass, um MGpu nicht lieben und kaufen zu müssen :D

urfaust
2010-05-05, 22:51:28
hier kann man sich zwecks MGPU vs. SGPU gepflegt weiterkloppen:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=483135

corvus
2010-05-05, 23:02:17
Alleine wegen Just Cause 2 lohnt sich SLI mit 2 GTX480 Karten. Das Spiel mit 4xSGSSAA ist ein wahrer Traum.


http://www.abload.de/thumb/justcause2_game2010-04juz0.png (http://www.abload.de/image.php?img=justcause2_game2010-04juz0.png)

i7 3.8 Karte STOCK!
wozu sollte man da SLI brauchen?

tombman
2010-05-05, 23:08:22
http://www.abload.de/thumb/justcause2_game2010-04juz0.png (http://www.abload.de/image.php?img=justcause2_game2010-04juz0.png)

i7 3.8 Karte STOCK!
wozu sollte man da SLI brauchen?
Weil dann dort 70fps statt 38fps stünde ;)

Schlammsau
2010-05-05, 23:12:05
Weil dann dort 70fps statt 38fps stünde ;)

70 MGPU-fps die sich wie 50-60 SGPU-fps anfühlen. ;)

corvus
2010-05-05, 23:13:59
Weil dann dort 70fps statt 38fps stünde ;)
bei 910 stehen da 58..... für das Spielchen brauch man mit Bestimmtheit kein SLI.

urfaust
2010-05-05, 23:16:31
bei 910 stehen da 58..... für das Spielchen brauch man mit Bestimmtheit kein SLI.

man braucht so vieles nicht, trotzdem schön so manches zu haben :cool:

Savay
2010-05-05, 23:17:57
Zu Glück ist das kein Fotoforum.:tongue:


das habe ich auch grade gedacht! ;D

zumal in der ganzen werteverfall diskussion es absolut keinen vergleich zwischen photographie und PC Hardware gibt. ein gutes objektiv ist auch nach 10 jahren noch gut etc pp. aber lassen wir das! :biggrin:

tombman
2010-05-05, 23:27:11
70 MGPU-fps die sich wie 50-60 SGPU-fps anfühlen. ;)
Das ist nicht sicher- kommt aufs Game/Profil etc an... und selbst wenn, 50 bis 60 "echte" fps ist immer noch deutlich besser als 38 single gpu fps ;)
Man bekommt mehr Flüssigkeit oder erst Spielbarkeit mit MGPU- da führt kein Weg dran vorbei :)

Tesseract
2010-05-05, 23:32:55
Das ist nicht sicher- kommt aufs Game/Profil etc an... und selbst wenn, 50 bis 60 "echte" fps ist immer noch deutlich besser als 38 single gpu fps ;)
komm mir nicht mit "echten fps" so lange du vsync aus hast. da steht fps eher für fragments per second. :tongue:

tombman
2010-05-05, 23:34:57
komm mir nicht mir "echten fps" so lange du vsync aus hast. da steht fps eher für fragments per second. :tongue:
Vsync hatte und habe ich auch mit single gpu aus- das ist reine Geschmacksache und hat mit mgpu nichts zu tun.

Tesseract
2010-05-05, 23:35:58
Vsync hatte und habe ich auch mit single gpu aus- das ist reine Geschmacksache und hat mit mgpu nichts zu tun.
das war auch nicht speziell gegen MGPU gerichtet.

tombman
2010-05-05, 23:37:52
das war auch nicht speziell gegen MGPU gerichtet.
Wogegen denn dann? ;)

Tesseract
2010-05-05, 23:43:01
Wogegen denn dann? ;)
gegen nichts, nur würde ich 60 bufferswaps ohne vsync nicht so stolz als "frames pro sekunde" bereichnen. ;)

Gast
2010-05-05, 23:47:35
Wie gut das zwischen Spielbarkeit und Spielspass noch ein für jeden persönlicher Unterschied besteht.

Diese Diskussion hier ist wirklich Testosteron pur.

Wer sich SLI in welcher Ausführung auch immer gönnt, dann ist es doch o.k. Warum auch nicht.

Und wenn jemand "nur" die Hälfte an Frames hat weil er eben nur Single GPU hat, dann ist es auch o.k. weil jeder für sich die Entscheidung getroffen hat sich das anzuschaffen was er will und braucht.

Ich persönlich fühle mich nicht im geringsten benachteiligt, nur weil ich jetzt kein SLI habe. Es ist halt auch eine Frage des Anspruchs und ich denke eine einzelne GTX 470 ist für gemütliches Spielen, so wie ich es persönlich mag, was eben nicht der Standard und auch nicht das beste und schnellste sein muss, völlig ausreichend.

So, jetzt kann jeder der Für- und Gegensprecher der jeweiligen SLI / NON-SLI Sprecher diesen Thread weiter zumüllen, weil es hierzu einfach keine einheitliche Meinung gibt. Es lebe der Unterschied...

Tesseract
2010-05-05, 23:51:32
dann ist es auch o.k. weil jeder für sich die Entscheidung getroffen hat sich das anzuschaffen was er will und braucht
das heißt ja nicht, dass man nicht darüber diskutieren kann und der ein oder andere vielleicht drauf kommt, dass ihm doch was anderes lieber ist.

corvus
2010-05-05, 23:56:15
man braucht so vieles nicht, trotzdem schön so manches zu haben :cool:

jo....da du ja eh nix feststellst isses ja schön für dich....und dabei noch so eine empfindliche Natur bist......erübrigt sich eigendlich jeder Kommentar....

Meine ganzen SLI Orgien haben mich zum Schluß hin egal ob 2, 3 oder MultiGPU irgendwie immer zur Weißglut gebracht.......

Gast
2010-05-06, 10:02:46
Ich frage Dich. Denn Du hast es behauptet.

Ist es denn in Deinen Augen sinnvoller, 1000e von Euros in Autotuning zu stecken? Oder in Design-Möbel, die praktisch direkt nach dem Kauf wertlos sind?
Meinetwegen können Tobi, Du und Lovesuckel soviel Kohle wir ihr wünscht in den Orkus schieben.das ist den meisten furzegal

Nur hört verdammt nochmal auf , einem das immer wieder unter die NASE zu reiben.
Und wie wärs mit ein wenig Toleranz gegenüber euch "Entusiasten" ?

Zitat:
Vielleicht solltest du dir entweder ein anderes Forum suchen, wo es keine Enthusiasten gibt oder deine Meinung in den entsprechenden Topics - wo danach gefragt wurde - verlagern.

Ich dachte immer hier haben alle das gleiche Recht ihre Meinung kund zu tun.
Wer bist du das du andere aus diesem Forum "herausjagen" willst.
Ehrlich - Da stellen sich mir die Fussnägel hoch , vor soviel Arroganz.

Grestorn
2010-05-06, 10:32:28
Meinetwegen können Tobi, Du und Lovesuckel soviel Kohle wir ihr wünscht in den Orkus schieben.das ist den meisten furzegal

Nur hört verdammt nochmal auf , einem das immer wieder unter die NASE zu reiben.

Ich wurde danach gefragt was ich für meinen Rechner ausgegeben habe, und habe diese Frage beantwortet. Ich habe es niemandem aufgezwungen. Ich prahle nicht mit meiner Hardware.

Und wie wärs mit ein wenig Toleranz gegenüber euch "Entusiasten" ?

Ja, genau, wie wäre es damit?

BigKid
2010-05-06, 10:41:51
Was mich viel mehr interessieren würde (um mal Back to Topic zu kommen):
- Was würdet die Profis sagen wie lange es dauert bis eine etwas kühlere, sparsamere Fermi Version im Leistungsbereich 470 und besser auf den Markt kommt ?
- Wie sehen die Chancen mit einem Fermi optimierteren Treiber aus ? Gibts ihn nun schon - ist er angekündigt - was bringt er...

hq-hq
2010-05-06, 12:41:46
da man dummerweise durch absenken der gpu spannung auch die ram
spannung absenkt ist es bei dem ram der zur zeit auf der gtx470 verbaut ist
eher nicht möglich gross strom zu sparen weil der bereits unter 0,950v
probleme machen kann
aber die ersten custom kühldesigns gibts ja von pov und gainward wenn ich mich net irre...

könnte mir vorstellen das der stromverbrauch auf gtx275 niveau reduzierbar wäre

der optimierte treiber bringt hoffentlich 5-15% ... genaues weiss man nicht :freak:

OC_Burner
2010-05-06, 13:36:45
da man dummerweise durch absenken der gpu spannung auch die ram
spannung absenkt ist es bei dem ram der zur zeit auf der gtx470 verbaut ist
eher nicht möglich gross strom zu sparen weil der bereits unter 0,950v
probleme machen kann
aber die ersten custom kühldesigns gibts ja von pov und gainward wenn ich mich net irre...

könnte mir vorstellen das der stromverbrauch auf gtx275 niveau reduzierbar wäre

der optimierte treiber bringt hoffentlich 5-15% ... genaues weiss man nicht :freak:

Wo soll den Strom gespart werden? Im Idle ist definitiv der Speicher der Stromfresser. Hier mal ein paar Beispiele (sind zwar von der GTX480 aber eine GTX470 sollte sich ähnlich verhalten):


Windowsidle Stromverbrauch vom Rechner + unterschiedliche GTX480 Taktraten
Defaulttaktraten/Spannung
(701MHz Clock, 1402MHz Shader, 1848MHz Memory) = 280W


nur gesenkte Speichertaktrate
(701MHz Clock, 1402MHz Shader, 135MHz Memory) = 221W 59W weniger...


zusätzlich gesenkte GPU-Taktrate
(50MHz Clock, 101MHz Shader, 135MHz Memory) = 211W gerade mal 11W weniger, durch Senkung der GPU


und schließlich die Senkung der Spannung von 1.038V auf 0.962V
(50MHz Clock, 101MHz Shader, 135MHz Memory) = 200W ebenfalls nur 11W weniger


jetzt mit 0.825V, statt 0.962V
(50MHz Clock, 101MHz Shader, 135MHz Memory) = 189W und was für ein Zufall, wieder nur 11W weniger

Defaulttaktraten wie Vergleich 1, aber statt Defaultspannung liegt nur 0.962V an
(701MHz Clock, 1402MHz Shader, 1848MHz Memory) = 265W Senkung der Spannung allein bringt nur 15W

Botcruscher
2010-05-06, 14:03:07
Mit dem Speichertakt wird doch bestimmt auch wieder der Speichercontroller entlastet.

Iruwen
2010-05-06, 14:16:52
Ja, genau, wie wäre es damit?
Episch :biggrin:

Black-Scorpion
2010-05-06, 18:35:51
Ich wurde danach gefragt was ich für meinen Rechner ausgegeben habe, und habe diese Frage beantwortet.
Um diese Frage zu beantworten reicht 1, in Worten eine Zahl.
Warum du dafür extra eine Inventur Liste erstellst ist die andere Frage.
Wenn ich nicht prahlen will schreibe ich den Betrag und gut.

Bucklew
2010-05-06, 18:40:06
Meinetwegen können Tobi, Du und Lovesuckel soviel Kohle wir ihr wünscht in den Orkus schieben.das ist den meisten furzegal
Wie wäre es denn mal (wenn man schon das Gastrecht für sich in Anspruch nimmt), sich auch wie ein Gast zu VERHALTEN?

Black-Scorpion
2010-05-06, 19:05:09
Du bist auch nur Gast wie alle anderen.
Registriert oder nicht ändert daran rein gar nichts.

hq-hq
2010-05-06, 23:15:20
Wo soll den Strom gespart werden? Im Idle ist definitiv der Speicher der Stromfresser.

aso ja gut, im idle geht natürlich nix mehr. aber das is ja schon so wenig da isses auch nicht so interessant. (wobei 11 watt, ist doch fett)
nur scheint es so, das bei der gtx470 im 3d betrieb die gpu auch mit 0,925v auf 607mhz auskommt (7min atitool ohne fehler)
jedoch der speicher bei mancher anwendung diese lustigen flares wirft.

0,050v weniger macht in 3d so 20watt aus sag ich mal.

wobei ich davon ausgehe das die flares vom speicher kommen, fragmente wie
für gpu probleme üblich warte mal.... ja mit 0.900v kommen ab und an pixelfehler sagt atitool.

entscheidend scheint es doch vielmehr die leistung unter last zu verringern damit die temps, der durchaus hohe stromfluss sowie die lautstärke einfacher zu handhaben sind.

- achja, genau, mein seasonic s12d heut geholt, der immer an der gleichen stelle gecrashte vantage bensch läuft jetzt
auch mit 815/1630/1800 @ 1.050volt und i5@4,2ghz durch (ab 820mhz pixelfehler in atitool)
es lag also tatsächlich am netzteil... die peaks waren mit meinem trägen leistungsmesser nicht zu erfassen, denn
eigentlich hätte das alte amacrox 500watt nt reichen müssen...

corvus
2010-05-06, 23:21:08
Lynnfield @ 4,2ghz @ 1,30v >ich würd mir damit aber nicht soviel Gedanken machen über die 480 bei der CPU Einstellung :D laß die mal mit 3.6 umd ~1.18 laufen was du da weniger verbrauchst.....

hq-hq
2010-05-07, 00:00:53
irgendwo hatte ich mir das mal aufgeschrieben von stock auf 4,2ghz, glaube das waren 80watt unterschied unter last und 35watt in idle... i hab nur eine gtx470.

aber jetzt sind die sorgen dahin, 744watt ausgangsseitig stehen nun auf der 12v schiene zur verfügung. ausserdem spart das neue nt in idle 5-10watt und unter last 20watt ... grob geschätzt mit dem schätzeisen auf der steckdose

dildo4u
2010-05-07, 12:16:37
Inno3D shows its non reference GTX 470

http://www.fudzilla.com/images/stories/2010/April/General%20News/inno3d_gtx470hawk_1.jpg

http://www.fudzilla.com/content/view/18744/1/

Raff
2010-05-07, 12:25:55
Furbys Hitzeentwicklung treibt offenbar Triple-slottige Kühlblüten. Heieiei. Naja, mir ist's persönlich egal, ob es 2 oder 3 Sluts sind, solange es der Lautstärke gut tut.

MfG,
Raff

puntarenas
2010-05-07, 12:32:12
Furbys Hitzeentwicklung treibt offenbar Triple-slottige Kühlblüten. Heieiei. Naja, mir ist's persönlich egal, ob es 2 oder 3 Sluts sind, solange es der Lautstärke gut tut.

Schön wäre halt, wenn es mal alternative DHE-Kühler (Direct Heat Exhaust) gäbe, gern auch Triple-Slot, von mir aus Quad-Slot. Wieviele Slots würden eigentlich durch orthogonal angebrachte 120er/140er-Lüfter verdeckt?

Wenn diese enorme Abwärme wie hier nur im Gehäuse herumgequirlt wird, muss man mit so einer Karte quasi zwingend auf einen Schweizer-Käse aka High-Airflow-Gehäuse setzen oder eben laute Gehäuselüfter einsetzen. :uponder:

svenw
2010-05-07, 12:38:25
Wenn ich mir die Designs so anschaue, dann kommt mir immer das Bild eines Auto in den Kopf, das den Kühler im Innenraum hat. :biggrin: Um dann die Fahrt erträglich zu machen braucht man zusätzliche Gebläse und muß mit offenem Fenster fahren. :rolleyes:

Die ganze Luftkühlung ist IMHO im High-End-Bereich Blödsinn. Bei "normalen" Computern funktioniert sie gut und ist die beste und billigste Variante, aber wenn High-End CPUs + High-End-GPUs + x Festplatten zum Einsatz kommen ist das Konzept fürn Hintern. Da macht eine Wakü wirklich Sinn, während sie für Mainstream PCs zuviele mögliche Probleme macht und zu teuer ist.

Wieso kommt eigentlich keiner auf die Idee eine 3-4Slot Karte zu bauen die ihre Wärme wirklich nach draußen befördert? Klar geht dann SLI/Crossfire nicht mehr, aber die Anzahl der Leute die sich sowas gönnen ist eh überschaubar, die müssen sich dann eben andere Karten kaufen.

Daredevil
2010-05-07, 12:52:59
Wasserkühlungen sind total übertrieben für Consumerkarten, meine HD3850 wurde mit nem Accelero + 2x120mm Lüftern, die mit Kabelbindern befestigt wurden, auf 1 Ghz Coretakt geprügelt. Wenn die Kühlfläche groß genug ist, kann man damit auch dicken Wärmeverlust geräuscharm ausgleichen, deswegen...

[x] Für übertrieben große GPU Kühler

Geil wäre ja ein ~100mm hoher Kühler, welcher 2-3 Lüfter nicht auf der Karte, sondern an der Seite, die zum Mainboard zeigt befestigt hätte und vom Mainboard aus durch die Kühlrippen die Warme luft wieder aus dem Seitenteil des Gehäuses befördern würde.
Das ganze ummantelt man dann mit einem Kunststoff Schiene und somit kommt dann die kühle Luft von hinten ausm PCI Slot oder halt von vorne durchs Gehäuse.

Nen "extrem" Luftkühler halt, bei der Kühlfläche braucht es dann auch keinen Delta Lüfter, damit das ganze kühlt bleibt, nen 200w i7 kann man ja auch relativ geräuscharm luftkühlen.

BigKid
2010-05-07, 13:23:49
Also der 2D Vebrauch ist auch echt ärgerlich...
Ich persönlich würde für einen extra 2D Lowcost-Onboard-Chip(auf der Graka) Kohle ausgeben... Das sollte doch technisch keine unüberwindbare Hürde darstellen ... Himmel in den Anfangszeiten hatte man auch eine 2D und eine 3D Graka und das Signal wurde durchgeschleift...

Aber darum gings mir auch nicht... Mein Rechner ist ein Stromfesser weil es halt ein Gaming-PC ist - das ist mir bewusst und damit kann ich leben (auch wenn ich im Rahmen bereit wäre Kohle auszugeben um das Einzuschränken)

Mir gehts mehr um den Verbrauch und die Hitze unter Last - und die damit verbundenen Fön-Probleme...

Bisher hat nur Gainward eine Custom Kühllösung engekündigt mit DHE (direct heat exaust) oder ?
Der Rest ist Luftverquirlen im Gehäuse - gefällt mir irgendwie nicht so gut von der Idee her...

Iruwen
2010-05-07, 14:47:49
[x] Für übertrieben große GPU Kühler

Ich sekundiere das, wenn man sich aktuelle CPU-Towerkühler ansieht ist da noch einiges an Luft nach oben bei den GPUs. Könnte man eigentlich nicht irgendwie die Gehäusewand ins Kühlsystem integrieren? Die ist bei mir eigentlich immer schön kühl :>

hq-hq
2010-05-07, 19:34:27
ja gehäusewand, das wär ne gute idee, die wand aus alu mit kleinen ripperln drauf und dazu noch bewegliche heatpipes um sie irgendwie auf die graka zu bringen.

glaub aber nicht das das immer gut passen würde... dann kann man besser gleich versuchen sich für 80 euro nen wakü für die entsprechende graka zu kaufen.

alternative wär ein schöner triple slot kühler ja das wär doch toll

LovesuckZ
2010-05-07, 20:11:25
GF100's Kühler ist doch einem CPU Kühler ähnlich: Heatpipes liegen offen, Kühlblock nicht mit Plastik komplett überzogen. Daher verstehe ich nicht, wieso Leute einfach ein bisschen Geld in die Hand nehmen - wenn sie nicht schon einen super Luftstrom haben - um die Karte erheblich besser zu kühlen.

Tesseract
2010-05-07, 20:15:05
man könnte grakas generell wesentlich besser und sinnvoller bauen wenn man nicht an allen ecken und enden an die ATX/PCI-E spezifikationen gebunden wäre.

dildo4u
2010-05-08, 03:05:40
Gigabyte GeForce GTX 480 and GTX 470 Graphics Cards: DirectX 11 Battlefield

http://www.xbitlabs.com/articles/video/display/gigabyte-gf-gtx400.html

Gast
2010-05-08, 03:21:42
Die testen doch tatsächlich Nvidia noch immer mit HighQuality. Umso erstaunlicher das Nvidia trotzdem noch deutlich vorne liegt.

Gast
2010-05-08, 09:39:52
GF100's Kühler ist doch einem CPU Kühler ähnlich: Heatpipes liegen offen, Kühlblock nicht mit Plastik komplett überzogen. Daher verstehe ich nicht, wieso Leute einfach ein bisschen Geld in die Hand nehmen - wenn sie nicht schon einen super Luftstrom haben - um die Karte erheblich besser zu kühlen.

Tja, weil man zur 550€ Karte schon ein neues NT kaufen musste. Hier noch ein paar Lüfter, da noch ein neues Gehäuse... Ein Fass ohne Boden.

y33H@
2010-05-08, 10:39:16
Dann war das System vorher schon nicht ideal ;)

Gast
2010-05-08, 10:44:25
Dann war das System vorher schon nicht ideal ;)

Was ist denn ideal? Wenn man 300W wegkühlen kann, oder doch 500W oder 600W? Da es für alle anderen Karten reicht ist für mich Thermi "nicht ideal".

y33H@
2010-05-08, 10:46:16
Pfff, ich verstehe das Geschrei nicht. In meinem Rechner ist die Karte auch nicht abgefackelt oder auf 100% Drehzahl gegangen ... selbst Furmark unter 80% und unter 100°. Und mein Sys ist bis zum Erbrechen auf Silent getrimmt und ich musste mein NT nicht wechseln ...

LovesuckZ
2010-05-08, 10:47:34
Nö, dann hat man einfach ein fehlkauf getätigt. Hätte man sich die GTX470 kaufen sollen.

Gast
2010-05-08, 10:52:53
Pfff, ich verstehe das Geschrei nicht. In meinem Rechner ist die Karte auch nicht abgefackelt oder auf 100% Drehzahl gegangen ... selbst Furmark unter 80% und unter 100°. Und mein Sys ist bis zum Erbrechen auf Silent getrimmt und ich musste mein NT nicht wechseln ...

Das ist natürlich nett für für, würde trotzdem nicht schaden mal über den Tellerrand zu blicken. Nicht jeder hat beim Netzteilkauf 300W für die Grafikkarte berücksichtigt und nicht jeder kleistert sein Gehäuse mit Lüfter zu nur damit es toll aussieht. Bis jetzt hat noch jeder Karte mitgemacht. Aber eine solche Mentalität "bei mir läuft es also sind alle anderen Idioten" lässt natürlich tief blicken. Die Karte ist ja eh geradezu optimal für deinen silent Rechner. :ugly:

LovesuckZ
2010-05-08, 10:54:28
Klar, Eine 5970 läuft natürlich auch mit deinem 300 Watt Netzteil. 4870x2 und GTX295 nicht zu vergessen.
Komm Gast, geh woanders trollen.

Gast
2010-05-08, 10:56:16
Klar, Eine 5970 läuft natürlich auch mit deinem 300 Watt Netzteil. 4870x2 und GTX295 nicht zu vergessen.
Komm Gast, geh woanders trollen.

Ein Dual-GPU-Mist war nie eine Option. Aber ist ja mal wieder typisch das man gleich trollt wenn man solche Tatsachen mal gesagt hat.

y33H@
2010-05-08, 10:57:56
@ Gast

Eben weil mein Rechner gedämmt ist und nur einen Lüfter hat und die Karte problemlos lief, verstehe ich nicht, warum hier manche so einen Aufstand machen. Und von wegen NT: Ein etwas größeres NT hat noch nie geschadet, erstens wegen der Effizienz und zweitens wegen der Lautheit/Temps. Blicke ich über den Tellerrand, sehe ich viele Systeme, die weitaus besser belüftet sind als meins - und wenn es bei mir läuft, warum dann nicht in solchen Systemen? OK, die PSU ist ein Punkt, aber selbst mein 2t-Rechner mit E8400 @ 4,0 GHz und einem 400W Be Quiet läuft mit der Karte [außer Furmark] :ugly:
Aber eine solche Mentalität "bei mir läuft es also sind alle anderen Idioten" lässt natürlich tief blicken.Das ist deine Intension, ich betitle niemanden als Idiot - du legst mir Worte in den Mund, die ich nicht im Ansatz gesagt habe :rolleyes:

LovesuckZ
2010-05-08, 10:58:56
Ein Dual-GPU-Mist war nie eine Option. Aber ist ja mal wieder typisch das man gleich trollt wenn man solche Tatsachen mal gesagt hat.

Dem Gehäuse und dem Strom ist es egal, was man einbaut. :rolleyes:
Mal so als Beispiel: Eine 5970 passt nicht in übliche, billige Gehäuse aufgrund der Länge und sollte weniger mit einem 300 Watt Netzteil betrieben werden.
Komisch, ich wette, du hast nicht im dazugehörigen Thread getrollt, gell?

hq-hq
2010-05-08, 14:10:48
lol, also gast, man sollte schon wissen auf was man sich einlässt hehehe

wennst dir nen gebrauchten 545i kaufst kannst dich ja dann auch net aufregen das der soviel
säuft und die unterhaltskosten so hoch sind hihihi

das mit nem neuen netzteil ist tatsächlich nicht so doof, ich spar so über den daumen gepeilt
10-30 watt ein dank neuem nt. das frisst die neue gpu in 3d natürlich wieder auf hehehe

N0Thing
2010-05-08, 17:52:42
Klar, Eine 5970 läuft natürlich auch mit deinem 300 Watt Netzteil. 4870x2 und GTX295 nicht zu vergessen.
Komm Gast, geh woanders trollen.

Er hat gar nichts von einem 300W Netzteil geschrieben. :rolleyes:

Anderer Gast
2010-05-08, 23:01:02
Genau, LZ & Co. haben vom 300W Netzteil angefangen. Aber den Vogel schießen sie mit der Argumentation ab, dass wenn das Netzteil für den Fermi nicht reicht, es sowieso scheisse war. Einfach nur geil.

hq-hq
2010-05-09, 02:06:01
nicht das netzteil war dann scheisse sondern die wahl der graka

mit 1200 netto im monat kann man halt keinen 911 fahren... höchstens einen gebrauchten kleinen boxter...

OgrEGT
2010-05-09, 09:12:30
Seit Fermi hat sich die Situation bzgl. Anforderungen an das Netzteil bei Single GPU Grakas eben verändert, worauf man sich nun einstellen muss. Ich selbst z.B. habe ein Thermaltake Toughpower 500W was bisher immer ausreichend war.

Würde ich mich für GTX 470/480 entscheiden dann muss ich mir eben überlegen ein größeres zu kaufen. Die Frage ist nur ob dieser Trend anhalten wird, dass Single GPU Grakas zukünftig soviel Power benötigen, dann ist der Kauf eines größeren Netzteils in jedem Fall eine Investition in die Zukunft. Wenn nicht (hoffentlich) dann kann man die Fermi I Generation auch überspringen und auf den Nachfolger warten.

Da kann ich nur Reunions Sig zitieren: Aequo et animo :)

OgrEGT
2010-05-09, 09:25:52
das mit nem neuen netzteil ist tatsächlich nicht so doof, ich spar so über den daumen gepeilt
10-30 watt ein dank neuem nt. das frisst die neue gpu in 3d natürlich wieder auf hehehe

Davon kann man aber nicht pauschal ausgehen. Der Wirkungsgrad eines Netzteils ist immer abhängig von der Last mit der es betrieben wird. Wenn man z.B. ein 1.2kW Netzteil mit nur 20% Auslastung betreibt, ist der Wirkungsgrad nicht optimal. Der meist angegebene (optimale) Wirkungsgrad wird AFAIK bei modernen und guten Netzteilen bei ungefähr 70% Last erreicht.

http://www.technic3d.com/article-476,7-seasonic-s12-500hm-m12-500-500w-netzteil-review.htm

Dural
2010-05-10, 13:36:33
Fermi Rockt, bin doch Positiv überrascht!

Leistung stimmt, einziger Kritikpunkt ist der Verbrauch, da muss NV einfach nachbesern und wenn sie das hinbekommen haben Rockt Fermi wirklich überall

Es ist unglaublich wie gut sich Fermi takten lässt trotz des hohen Verbrauches, Fermi könnte locker 100% schneller sein als GT200 wenn der Verbrauch nicht wäre...

Für die Zukunft sieht es gar nicht mal so schlecht aus wenn sie das mit dem Verbrauch hinbekommen!

Bin auf GF104 gespannt, der dürfte dann auch besser mit 40nm zu recht kommen... obwohl ich langsam das gefühl habe das die grösse egal ist... es ist die Architektur die nicht mit 40nm zu recht kommt, oder 40nm kommt mit dieser Architektur nicht zu recht, wie auch immer auch egal ergebnis ist das selbe... der GF104 wird auf jeden fall die Antwort liefern!

N0Thing
2010-05-10, 14:08:27
Davon kann man aber nicht pauschal ausgehen. Der Wirkungsgrad eines Netzteils ist immer abhängig von der Last mit der es betrieben wird. Wenn man z.B. ein 1.2kW Netzteil mit nur 20% Auslastung betreibt, ist der Wirkungsgrad nicht optimal. Der meist angegebene (optimale) Wirkungsgrad wird AFAIK bei modernen und guten Netzteilen bei ungefähr 70% Last erreicht.

http://www.technic3d.com/article-476,7-seasonic-s12-500hm-m12-500-500w-netzteil-review.htm


Ein Netzteil, daß den 80+ Aufkleber bekommt, muß auch bei 20%, 50% und 80% Auslastung noch einen Wirkungsgrad von über 80% schaffen.
Solange der PC im idle also nicht unter 20% Auslastung erzeugt, muß man sich bei aktuellen guten Netzteilen deswegen keine Sorgen machen. Seit 2007 hat sich das Angebot verändert.

y33H@
2010-05-10, 14:29:27
Nein, das ist falsch.

Für 80+ muss eine PSU bei 20/50/100% mindestens 80% schaffen. Nicht über 80% Effizienz und auch nicht bei 80% load, sondern bei 100%.

http://www.abload.de/img/2010-05-10_142822zcpu.png

Schlammsau
2010-05-10, 14:45:44
Fermi Rockt, bin doch Positiv überrascht!

Leistung stimmt, einziger Kritikpunkt ist der Verbrauch, da muss NV einfach nachbesern und wenn sie das hinbekommen haben Rockt Fermi wirklich überall

Es ist unglaublich wie gut sich Fermi takten lässt trotz des hohen Verbrauches, Fermi könnte locker 100% schneller sein als GT200 wenn der Verbrauch nicht wäre...

Für die Zukunft sieht es gar nicht mal so schlecht aus wenn sie das mit dem Verbrauch hinbekommen!

Bin auf GF104 gespannt, der dürfte dann auch besser mit 40nm zu recht kommen... obwohl ich langsam das gefühl habe das die grösse egal ist... es ist die Architektur die nicht mit 40nm zu recht kommt, oder 40nm kommt mit dieser Architektur nicht zu recht, wie auch immer auch egal ergebnis ist das selbe... der GF104 wird auf jeden fall die Antwort liefern!

Er rockt im Vergleich zu was? Zur GTX285?
Das ist auch nichts neues oder?

dildo4u
2010-05-10, 14:56:04
Er rockt im Vergleich zu was? Zur GTX285?
Das ist auch nichts neues oder?
Wenn sie im Verglich zu schnellsten Karte der letzten Gen rockt muss man doch nicht mher zu sagen.

Raff
2010-05-10, 14:59:45
Yep. Das hat der R600 beispielsweise nicht geschafft.

MfG,
Raff

desert
2010-05-10, 15:31:45
Yep. Das hat der R600 beispielsweise nicht geschafft.

MfG,
Raff

Was ich mich immer nur frage, wo bleibt diese immense Lautstärke? Selbst nach 2 stunden furmark, bleibt der lüfter auf 79 % und die gpu bei 94 Grad.

Und dort ist sie nicht wesentlich lauter als meine alte gtx 280. Laut den testberichten müsste bei mir ja schon die wände einstürzen;)

Raff
2010-05-10, 15:37:59
Die GeForce GTX 280 war/ist auch alles andere als leise. ;)

MfG,
Raff

N0Thing
2010-05-10, 15:47:46
Nein, das ist falsch.

Für 80+ muss eine PSU bei 20/50/100% mindestens 80% schaffen. Nicht über 80% Effizienz und auch nicht bei 80% load, sondern bei 100%.

http://www.abload.de/img/2010-05-10_142822zcpu.png

Ah, hab bei den Bronzeanforderungen nachgeschaut. Ist aber auch Nüsse, es ging nicht um die 2% Effizienzunterschied unter 100% Last, sondern um die Tatsache, daß seit 2007 (Zeitpunkt des technic3d-Artikels) neue Netzteile auf den Markt gekommen sind, die bei einer Auslastung von nur 20% ihrers Nennwertes bei der Effizienz nicht ins Bodenlose abstürzen. ;)

desert
2010-05-10, 15:50:25
Die GeForce GTX 280 war/ist auch alles andere als leise. ;)

MfG,
Raff

Laut den testberichten ist die gtx 280 unter last etwa so laut wie eine 5870. Und die gtx 480 soll 15 dezibel lauter sein als die 5870 und danach müsste sie mehr als doppelt so laut sein. Und das bezweifle ich mal einfach. Im normalen betrieb ist sie nicht merklich lauter als meine gtx 280.

urbi
2010-05-10, 15:50:49
Ich denke auch: Die Lautstärke erscheint nur deshalb hoch, weil man sie mit einer (von Haus aus relativ leisen) HD 5870 vergleicht. Die empfundene Lautstärke ist halt immer etwas subjektiv.