PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Erfahrung: Wechsel (955BE -> 2600K) lohnt sich nicht


Amboss
2011-10-20, 21:57:18
Aus Neugierde habe ich mein Crosshair III MB inkl. Phenom 955BE verkauft um mal was Neues auszuprobieren (siehe sig.). Laut diversen Benchmarks soll ein i7-2600k eine Art Überprozessor sein, wie auch immer. Leider merke ich das im Alltag nicht. Die Idle/Arbeitsgeschwindigkeit (Office/Internet) ist gleich, sogar in den meisten Spielen merkt man keinen Zugewinn. Einzig bemerkbar ist es eigentlich in GTA IV, von 45 FPS rauf auf 57 bei gleichen Settings. So gut wie alle anderen Spiele profitieren vom i7 nicht. Wie auch? Dank Konsolen liegt die Überleistung brach, erst mit dem Wechsel auf die neue Konsolengeneration und den darauf folgenden neuen Spielen wird mein i7 mal so richtig zeigen können was er kann. Dumm nur, das er dann schon veraltet sein wird. Wie auch immer, unterm Strich bereue ich den Wechsel, aber anderseits war es mir diese Erfahrung auch ein bisschen wert. Viel heiße Luft um nichts und 400.- Euro ärmer ;D

mapel110
2011-10-20, 22:03:29
Von einem Quadcore auf einen Quadcore zu wechseln ist sowieso grenzwertig. Höhere IPC hin oder her. Wenn du Einstellungen wählst, die deine 560TI ausreizen, hast du von dem Prozessor auch sehr wenig.

Amboss
2011-10-20, 22:06:34
Es sollte nur ein kleiner Denkanstoß werden für Leute die noch unentschlossen sind (unter ähnlichen Voraussetzungen). Benchmarks sind das eine, die Praxis sieht ganz anders aus. So, und nun geh ich mir ein neues Smartphone kaufen ;D

xxMuahdibxx
2011-10-20, 22:57:56
Sorry wenn ich den Bremsklotz mitnehme ala 6870 oder 560Ti und mich dann wunder das kaum was schneller wird ausser GTA IV was ja Prozessorlastig schon ist aber dann einfach nur bis zum Grafikkartenlimit gerade beschleunigt dann hab ich auch den "perfekten" Vergleich gemacht .

Amboss
2011-10-20, 23:06:10
Sorry wenn ich den Bremsklotz mitnehme ala 6870 oder 560Ti und mich dann wunder das kaum was schneller wird ausser GTA IV was ja Prozessorlastig schon ist aber dann einfach nur bis zum Grafikkartenlimit gerade beschleunigt dann hab ich auch den "perfekten" Vergleich gemacht .

eine GTX 560 TI OC 880 soll ein Bremsklotz sein auf einem 22er 1680er Monitor? Welche Spiele spielst du? Mit 16AA und 56AF? Im "alten" Rechner hatte ich eine HD 6950 2GB, aber die war mir zu laut. Die GTX560 TI OC war gleich schnell. Die HD 6870 macht auch keinen nennenswerten Unterschied.

ux-3
2011-10-21, 10:01:45
Danke für den Bericht. Die Erfahrung mache ich mittlerweile eigentlich nach jedem Upgrade - es sei denn, ich warte mind. 3 Jahre damit. Aber hey, wenn du 3DMark spielst, solltest du einen Unterschied merken!

Zephyroth
2011-10-21, 10:11:20
Also bei meinem Upgrade von C2D E6750 mit GTX260 auf meinen i5-2500k mit GTX570 war ein gewaltiger Unterschied. Erst dort wurde mir klar wie viele Anwendungen mittlerweile sogar schon CPU-limitiert waren.

Klar, der Unterschied ist gewaltig. Von Dual-Core mit 2.67GHz auf Quad mit 3.3GHz das ergibt grob die 3-fache CPU-Power. Bei der Graka warens ebenfalls ein Faktor 2.6.

Aaaaber: Das System ist beim normalen Surfen oder gar Arbeiten (geh weg, böses Wort für so einen Rechner) nicht schneller geworden. Erst mit der SSD gab's da einen gewaltigen Schub.

Beim Gamen hingegen (dafür hab' ich den Kerl gebaut) ist Leistung im Überfluß da. Ich kann in meiner Auflösung (2048x1152) AA-Modis fahren, an die vorher nicht zu denken war (2xSGSSAA ftw!). Selten das ich unter 60fps komme.

Hat sich das Upgrade ausgezahlt? Ja. Allerdings war meine vorherige Hardware etwa 2 Jahre alt. Da merkt man das schon.

Grüße,
Zeph

Franconian
2011-10-21, 10:17:34
Ne CPU/Mainboard/Ram wäre das letzte was ich upgraden bzw Gedanken dran verschwenden würde, da stagniert doch die Anforderungen praktisch. Klar, mit nem ollen Dual Core und 2 GB ist nichts mehr zu reißen, aber jeder halbwegs aktuelle Quadcore mit 4 GB reicht locker aus für die nächsten Jahre, da kommt bestimmt auch nicht mehr viel mehr. Den Hype um Sandy Bridge hab ich auch nie verstanden.

Alle 1-2 Jahre ne gute GPU rein, evtl SSD reinwerfen, fertig ist die Kiste.

@ Amboss: Das Geld hätte ich lieber in eine gescheite Grafikkarte gesteckt, da hätteste mehr Leistung für weniger Geld bekommen, die 6870 ist ja auch nicht gerade das gelbe vom Ei, passt irgendwie nicht zu deinen restlichen Komponenten. Eine 6970/GTX 570 hätte da mehr Sinn gemacht.

SamLombardo
2011-10-21, 10:25:12
Outcast in 1280x1024 kann ich mit dem 2600k @4,4 GHz mit 35 - 40 fps spielen. Mit dem 955BE wären es Um die 15 fps...

Irgendwie lol, das Spiel in dem ein CPU Upgrade wirklich was bringt ist 12 Jahre alt:D*





*(und BTW noch genau so stimmungsvoll wie damals @512x384 mit nem PIII 500 und maximal 10 fps *g*)

Multipler Miggs
2011-10-21, 10:28:37
Danke für den Bericht. Die Erfahrung mache ich mittlerweile eigentlich nach jedem Upgrade - es sei denn, ich warte mind. 3 Jahre damit. Aber hey, wenn du 3DMark spielst, solltest du einen Unterschied merken!
Das sowas von dir kommen muss war irgendwie klar....
Lest die Benches von CB,versteht sie,und schweigt.....
http://www.computerbase.de/artikel/prozessoren/2011/test-amd-bulldozer/16/#abschnitt_spiele_hohe_aufloesung

http://www.computerbase.de/artikel/prozessoren/2011/test-amd-bulldozer/17/#abschnitt_spiele_geringe_aufloesung

Mit der Graka des TE wird er wohl kaum die Möglichkeiten der Sandy Bitch ausloten,ne GTX 570/580 muss dabei.

Manchmal kann man wirklich bloss den Kopf schütteln....:D
Gruss Miggs

Sir Integral Wingate Hellsing
2011-10-21, 10:28:42
Aus Neugierde habe ich mein Crosshair III MB inkl. Phenom 955BE verkauft um mal was Neues auszuprobieren (siehe sig.). Laut diversen Benchmarks soll ein i7-2600k eine Art Überprozessor sein, wie auch immer. Leider merke ich das im Alltag nicht. Die Idle/Arbeitsgeschwindigkeit (Office/Internet) ist gleich, sogar in den meisten Spielen merkt man keinen Zugewinn. Einzig bemerkbar ist es eigentlich in GTA IV, von 45 FPS rauf auf 57 bei gleichen Settings. So gut wie alle anderen Spiele profitieren vom i7 nicht. Wie auch? Dank Konsolen liegt die Überleistung brach, erst mit dem Wechsel auf die neue Konsolengeneration und den darauf folgenden neuen Spielen wird mein i7 mal so richtig zeigen können was er kann. Dumm nur, das er dann schon veraltet sein wird. Wie auch immer, unterm Strich bereue ich den Wechsel, aber anderseits war es mir diese Erfahrung auch ein bisschen wert. Viel heiße Luft um nichts und 400.- Euro ärmer ;D

Schade, dass viele Intel-Fanboys schon von verschwendeten Silizium oder ähnlichen Schwachsinn reden (in Sachen AMD-CPUs). Hier sieht man eindeutig, dass AMD sich nicht verstecken muss. Klar sind letztendlich i5/i7 schneller als ein Phenom II/FX, aber der Phenom II ist preislich attraktiver.

AnarchX
2011-10-21, 10:36:23
Man sollte schon die Leistung einer solchen CPU zu nutzen wissen. Gerade beim OC-Potential macht ein SNB noch einiges gut.
Für Spiele hätte es auch der deutlich günstigere 2500K getan, ein 2600K will mit Anwendungen gefüttert werden, die aus HT nutzen ziehen.

Wenn man ein unbalanciertes System hat oder an seinem eigenen App-Portfolio vorbeikauft, braucht man sich nicht wundern, wenn man Geld verschwendet.

Sir Integral Wingate Hellsing
2011-10-21, 10:40:52
Man sollte schon die Leistung einer solchen CPU zu nutzen wissen. Gerade beim OC-Potential macht ein SNB noch einiges gut.
Für Spiele hätte es auch der deutlich günstigere 2500K getan, ein 2600K will mit Anwendungen gefüttert werden, die aus HT nutzen ziehen.

Wenn man ein unbalanciertes System hat oder an seinem eigenen App-Portfolio vorbeikauft, braucht man sich nicht wundern, wenn man Geld verschwendet.

Er hat sich wohl auf diverse "vernichtende" Aussagen der Intel-Fanboys gestützt + war bastelfreudig + paar Spiele hat er wohl.
Und ihm ein schlechtes System vorzuwerfen oder ähnliches ist schon ein Schlag ins Gesicht + 400 EUR weniger...

TobiWahnKenobi
2011-10-21, 10:41:36
wer nicht merkt, dass ein i7 neuester generation etliches schneller ist als ein alter phenomII, der sollte sich vllt lieber ne spielkonsole kaufen und überlegen, ob er mit nem "computer" überhaupt etwas sinnvolles anzustellen weiss.. ;-)

die phenoms kommen nicht an das intel-high-end der letzten generation heran und auch nicht wirklich an die derzeitige mittelklasse.. oder von mir auch "bestenfalls" auf das niveau selbiger.


(..)

mfg
tobi

Sir Integral Wingate Hellsing
2011-10-21, 10:44:03
wer nicht merkt, dass ein i7 neuester generation etliches schneller ist als ein alter phenomII, der sollte sich vllt lieber ne spielkonsole kaufen und überlegen, ob er mit nem "computer" überhaupt etwas sinnvolles anzustellen weiss.. ;-)


(..)

mfg
tobi


Schöner Spam + unnötiges Gesülze.
Der TE weiß dies wohl (wie jeder andere auch) und hat seine Erfahrung mitgeteilt. So what?

Multipler Miggs
2011-10-21, 10:49:46
aber der Phenom II ist preislich attraktiver.
Das streitet auch sicher niemand ab,wenns darum geht nicht unbedingt das schnellste und beste zu haben,und wenn es darum geht in Spielen abstriche machen zu wollen was Auflösung und Qualität angeht,der ist sicher mit nem AMD System weit besser aufgehoben,weil billiger.

Geht es aber um Leistung und Qualität pur(und das nicht in Benches sondern iReal Game Settings),kommt man um I5 I7 + Nvidia GTX570/580(rede jetzt nur von Single GPU) nicht drum herum.
Das zeigen so ziemlich hunderte von Test im WWW(und auch meine unbedeutende Erfahrung),und es ist einfach Fakt,da können manche noch so viel Dumm reden,es ändert nix.
Gruss Miggs

Und bevor jetzt noch jemand mit der Fanboy Keule schwingt....:D
Mir persönlich ist das sowas von Scheissegal wie das Pferd im Stall jetzt heisst und wo es herkommt,hauptsache es ist das schnellste.
Wäre BD und ATI(AMD) jetzt die schnellste Konfiguration auf dem Markt,hätt ich davon 1-2 Systeme....

Und was mir noch auffällt...die die hier am meisten ,na wie soll ich das jetzt formgerecht ausdrücken,"rumreden",haben wohl in ihrem Leben noch kein SB Sys Live erlebt....wie soll man deren Kommentare dann Ernst nehmen?????

Sir Integral Wingate Hellsing
2011-10-21, 10:54:09
Das streitet auch sicher niemand ab,wenns darum geht nicht unbedingt das schnellste und beste zu haben,und wenn es darum geht in Spielen abstriche machen zu wollen was Auflösung und Qualität angeht,der ist sicher mit nem AMD System weit besser aufgehoben,weil billiger.

Geht es aber um Leistung und Qualität pur(und das nicht in Benches sondern iReal Game Settings),kommt man um I5 I7 + Nvidia GTX570/580(rede jetzt nur von Single GPU) nicht drum herum.
Das zeigen so ziemlich hunderte von Test im WWW,und es ist einfach Fakt,da können manche noch so viel Dumm reden,es ändert nix.
Gruss Miggs

Das weiß doch jeder. Und nun? Habe ich gegenteiliges behauptet? Nein!
Es zeigt doch nur das der "reale" Vorteil eines i5/i7 selten offensichtlich zum Vorschein kommt (gegenüber einem Phenom II). Klar kann man jetzt xyz-Benches aus dem Netz suchen, wo der Phenom II versägt wrd, aber selbst für 98% der User ist z.B. ein Phenom II/i5 + HD 69x0/GTX 5x0 schon übertrieben.

Multipler Miggs
2011-10-21, 11:05:44
Klar kann man jetzt xyz-Benches aus dem Netz suchen, wo der Phenom II versägt wrd, aber selbst für 98% der User ist z.B. ein Phenom II/i5 + HD 69x0/GTX 5x0 schon übertrieben.
Warum sollte das für 98% der User übertrieben sein????
Wer bestimmt sowas?? Du????
Und ich brauch keine xyz-Benches aus dem Netzt um zu wissen das der P2 versägt wird,ich hab es selbst Erfahren.
Was du hier gerade versuchst sind eindeutige Fakten schön zu reden so nach dem Motto" klar ist der I5/I7 deutlich schneller,aber wer brauchst schon.."
Du weisst schon wo wie hier sind?
Und ich wette,wenn ich gewissen User hier ihr altes vergammeltes P2 oder Q9xxx System gegen ne Sandy Bitch austauschen würde,würde denen die Eier platzen,und das Gerede würde ganz schnell verstummen.

Also nach Möglichkeit immer von eigenen Erfahrungen berichten und vor allem Beraten.Dann klappts auch mit dem(Ernst nehmen) Nachbarn....

Sir Integral Wingate Hellsing
2011-10-21, 11:07:31
Warum sollte das für 98% der User übertrieben sein????
Wer bestimmt sowas?? Du????
Und ich brauch keine xyz-Benches aus dem Netzt um zu wissen das der P2 versägt wird,ich hab es selbst Erfahren.
Was du hier gerade versuchst sind eindeutige Fakten schön zu reden so nach dem Motto" klar ist der I5/I7 deutlich schneller,aber wer brauchst schon.."
Du weisst schon wo wie hier sind?
Und ich wette,wenn ich gewissen User hier ihr altes vergammeltes P2 oder Q9xxx System gegen ne Sandy Bitch austauschen würde,würde denen die Eier platzen,und das Gerede würde ganz schnell verstummen.

Also nach Möglichkeit immer von eigenen Erfahrungen berichten und vor allem Beraten.Dann klappts auch mit dem(Ernst nehmen) Nachbarn....

Lies den ersten Beitrag und lerne.

Zephyroth
2011-10-21, 11:10:04
Nun von einem Wechsel eines Quadcores von 3.2GHz (Phenom II X5 955) auf einen mit 3.4GHz (i7-2600k) sollte man sich trotz schlechterer IPC des Phenoms nicht zu viel erwarten.

Ist der i7-2600k zum Spielen besser als alles was AMD zu bieten hat? --> Ja!
Ist er notwendig zum Spielen? --> Nein!

Spiele sind schnell GPU-limitiert, ein CPU-Limit hab' ich selbst mit meiner alten C2D E6750 eigentlich nur bei Assassins Creed gespürt. Alle anderen Spiele liefen ohne Probleme, da sie durch die Grafikkarte ausgebremst wurden.

Es ist eine Philosophie von mir, immer eine Stufe unter dem schnellsten, aktuellen verfügbaren Chip zu bleiben. Das ist in meinem Fall der i5-2500k (statt dem i7-2600k) und eine GTX570 (statt einer GTX580). Damit bin ich maximal 10% langsamer, als das maximal Mögliche, erreiche die gleiche nutzbare Lebensdauer, nur ist so ein System gut 200€ billiger.

Kein AMD Produkt ist schneller als ein i7-2600k, keines kann einen i5-2500k dauerhaft überholen. Somit ist AMD derzeit nix für mich.

Grüße,
Zeph

ux-3
2011-10-21, 11:19:41
Das sowas von dir kommen muss war irgendwie klar....

Für mich ist ein Dankeschön für einen ehrlichen Bericht durchaus angemessen. Das mag in diesem Forum schon (fast) ein Alleinstellungsmerkmal sein. ;)

Mit der Graka des TE wird er wohl kaum die Möglichkeiten der Sandy Bitch ausloten,ne GTX 570/580 muss dabei.

Also stimmt sein Fazit für Ihn doch? Und für jeden anderen auch, der keine Lust hat, sinnlos Geld in Stromschleudern der Grafik-Oberklasse zu pumpen. Da ich auch nur eine 560ti habe, bin ich doch mit meinem Q9550 gut beraten. Für mich wäre ein Wechsel ja auch sinnlos, da ich ohne mehr Grafikleistung -so behauptest du es- von der Mehrleistung nicht profitieren würde.

Manchmal kann man wirklich bloss den Kopf schütteln....:D

Deswegen wird ja auch kein TN genommen - damit die Farben beim Kopfschütteln möglichst stabil bleiben. ;)



Edit:
Ist der i7-2600k zum Spielen besser als alles was AMD zu bieten hat? --> Ja!
Ist er notwendig zum Spielen? --> Nein!

Signed!

SamLombardo
2011-10-21, 11:21:07
Ach kommt, die "Wahrheit" liegt wie immer dazwischen. Ich habe genau den selben Schritt gemacht wie der Threadstarter, also von 955BE auf i2600k. In der Tat wäre das nicht unbedingt nötig gewesen. Keine Frage. Aber was ist schon unbedingt nötig:wink:? Ich konnte zwar mit meiner GTX 470@740mhz auch mit dem Phenom alles ordentlich spielen, mit dem i7 ist es aber durchaus in vielen Spielen merklich komfortabler! Und das ist keine Einbildung!. Ob nun Starcraft 2 (hier ist der Unterschied besonders deutlich!), Dawn of war 2, GTA 4, oder Civ 5, ich merke dass die "Ausreißer nach unten" weg sind. Die min fps sind in all diesen beispieln deutlich stabiler. Und das ist der neuen CPU zu verdanken!
Outcast in HD Auflösung ist mit dem i7 überhaupt erst flüssig spielbar, wie gesagt 35-40 fps vs. 15 mit dem AMD.

Mir ist schon klar, dass die CPU bei der Mehrzahl der Konsolenumsetzugen relativ egal ist. Es gibt aber durchaus spiele und Anwendungen wo das nicht so ist!

Auch nicht schlecht: da die CPU ohne Spannungserhöhung auf 4,4 GHz läuft, kann ich damit problemlos auch noch Kepler betreiben ohne die Grafikkarte auszubremsen.

Alles Gründe, warum ich den Tausch keineswegs bereue...auch wenn er zugegeben nun nicht "unbedingt notwendig" gewesen wäre. Aber wie gesagt, was ist das schon?

Gruß Sam

Matrix316
2011-10-21, 13:08:50
Naja, für 1680x1050 braucht man ja auch keine Mörder Hardware. Was man aber auch bedenken sollte, dass der 2600K die zur Zeit vielleicht schnellste CPU überhaupt ist - je nach Einsatzgebiet. Und das für 260 Euro. Wann gabs das mal? So lange Ivybridge und Sandy Bridge E und sowas noch nicht wirklich da sind... es gab Zeiten, da hatten die Top AMD CPUs 1000 Euro gekostet. Und die haben sich auch nicht wirklich gelohnt. Mein Pentium II 233 hatte auch damals 630 DM gekostet. Aber 260 für einen 2600K lohnen sich schon. Selbst wenn man es jetzt noch nicht merkt.

Multipler Miggs
2011-10-21, 13:15:58
Deswegen wird ja auch kein TN genommen - damit die Farben beim Kopfschütteln möglichst stabil bleiben. ;)



Der war jetzt echt mal gut...(obwohl man darüber auch wieder endlose Diskussionen lostreten könnte :D )
Nee...im Ernst,war gut.
Gruss Miggs

Amboss
2011-10-21, 16:35:18
Ich wollte nur anmerken das ich mir sofort eine GTX 58XX oder sonstwas kaufen könnte, nur sehe ich das nicht ein. Ich konnte mit der GTX 560TI jedes Spiel (104 Steam-Spiele, alle Blockbuster) in maximalen 1680er Settings spielen. Was soll da ne GTX58XX zusätzlich noch reißen? Mal davon abgesehen das ich das vom Umweltaspekt her nicht für angemessen halte, ist aber ein anderes Thema. Jetzt könnte man mir vorwerfen wieso ich "nur" einen 1680er TFT verwende, aber dafür gibt es Gründe: Mir ist noch kein TN-Panel unter die Augen gekommen, das an meinen "billigen" LG von der Bildqualität her ran kommt. Ich rede von TN, klar war mein "zwischen"-24er Eizo besser, leider zeigte dessen VA-Panel Schlieren noch und nöcher. Und Standbilder schaut sich ein Gamer nun mal nicht an. Ich habe sehr viele TFTs ausprobiert, aber keiner konnte mich überzeugen, entweder stimmt das Bild nicht, oder das Ding hat ne schlechte Reaktionszeit. Mein alter LG ist der zur Zeit beste Kompromiss für mich. Und so viel weniger Auflösung hat der gar nicht, gegenüber Full-HD fehlen ihm "nur" 30 vertikale Pixel, in der Breite sind es gerade mal 240 Pixel, also wirklich nicht der Rede wert.
Mal davon abgesehn, Nvidia mag besser filtern, das ATI-Bild sieht für mich schöner, plastischer aus. Vielleicht liegt es auch an meinem Monitor, wer weiß.
Ich wollte nur aufzeigen, das man zwar aufrüsten kann, aber trotzdem nicht sein "Tun" bis aufs Blut verteidigen muss. Es war halt rausgeschmissenes Geld. Benchmarks und Schwanzmark sind das eine, die Praxis sieht dann leider meistens anders aus.

Das Auge
2011-10-21, 18:28:45
Geht es aber um Leistung und Qualität pur(und das nicht in Benches sondern iReal Game Settings),kommt man um I5 I7 + Nvidia GTX570/580(rede jetzt nur von Single GPU) nicht drum herum.
Das zeigen so ziemlich hunderte von Test im WWW(und auch meine unbedeutende Erfahrung),und es ist einfach Fakt,da können manche noch so viel Dumm reden,es ändert nix.

Merkwürdig, ich zocke mit einem Phenom @ 4GHz und einer GTX460 @ 470 in 1920x1200 und Abstriche musste ich bislang nirgends machen. Alles immer schön auf max und dennoch bestens spielbare Bildraten :|

Ich schließe mich daher dem TS an: Wer schon einen halbwegs schnellen Quad hat (C2Q/P2 ab 3,6 GHz aufwärts), für den lohnt sich das Upgrade auf einen 2500K/2600K rational betrachtet sicherlich nicht.

Und nein, ich will mir mein System nicht schönreden, mir ist schon bewusst, dass es schnelleres gibt. Nur bin ich überzeugt davon, dass die Mehrleistung nur in einem Bruchteil der Spiele wirklich spürbar ankommt. Da gibt es bei meiner Auflösung nur ganz wenige Szenarien, wo immer noch die CPU limitiert. Das belegen übrigens auch die Tests im web + eigene Erfahrung mit meinem System und denen etlicher Bekannter ;)

mironicus
2011-10-21, 18:49:25
Ich habe meinen Phenom X2-555@4 Kerne schon seit August 2009. Habe damals 80 Euro für den Prozessor bezahlt. Heute kostet er 70 Euro. Die Quadcores von Intel und AMD sind dagegen im Preis ganz schön gefallen.

Selbst drei GPU-Wechsel habe ich schon hinter mir. Radeon 4770, 5770 und jetzt 6950. Es ist wohl wirklich den Konsolen zu verdanken, dass man mit selbst so alter CPU-Hardware noch gut über die Runden kommen kann.

Ich habe auch einen i5-2400 (aus reiner Neugierde gekauft betrieben in einem Mini-ITX Gehäuse). Beide Systeme laufen mit einer SSD. Die SSD macht viel mehr aus für die Anwendungsgeschwindigkeit als ein reiner CPU-Wechsel. Selbst ein E350 mit SSD lässt einen Athlon X4 mit reiner Festplatte schon manchmal alt aussehen. Die Onboard-GPU von Intel ist der letzte Dreck, selbst die langsame E350-GPU macht einen besseren/schöneren Eindruck. Bessere GPU-Beschleunigung bei MKV-Dateien zum Beispiel. Oder ladet mal ein größeres Bild mit der Windows-Vorschaufunktion und zoomt dann ins Bild hinein mit dem Mausrad, das macht der E350 viel flüssiger und schneller.

C.D.B.
2011-10-21, 19:53:14
... Leider merke ich das im Alltag nicht. Die Idle/Arbeitsgeschwindigkeit (Office/Internet) ist gleich, ...


Klar, hier ist die I/O-Geschwindigkeit (Festplatte [upgrad auf SSD] / Breitbandverbindung ) wesentlich Ausschlaggebender.

... sogar in den meisten Spielen merkt man keinen Zugewinn. Einzig bemerkbar ist es eigentlich in GTA IV, von 45 FPS rauf auf 57 bei gleichen Settings. So gut wie alle anderen Spiele profitieren vom i7 nicht. ...


Hängt vom Genre ab. Shooter fordern CPU's halt nicht soo sonderlich. Zock bspw. mal CivilizationV. ;) Bei mir war es so: Q6600@3GHz ca. 35 Fps; nun mit 2600K@4,5GHz = 60 FpS am Anschlag [VSync]. Und die Turns gehen nun auch bei Epischen Spielen ab Runde 600 in eträglicher Zeit vonstatten ... nix mehr Kaffepause beim Rundenwechsel. =)

[b]Bei mir hat sich der i7 definitiv gelohnt!

kunibätt
2011-10-21, 20:12:50
Kann ich ebenfalls nur unterschreiben. Hatte vorher einen Q9650@4,2 Ghz und jetzt einen 2600K und der ist schon deutlich schneller.
Klar das man davon im GPU-Limit nichts merkt.
Aber gerade bei so schönen Dingen wie Rendering oder Emulatoren hat sich die Geschwindgikeit nahezu verdoppelt. Und das beste ist, das ich den Neuen mit nem 500 RPM Lüfter gekühlt bekomme. Ist für mich eigentlich full of win ;)

Das Auge
2011-10-21, 20:12:55
Hängt vom Genre ab. Shooter fordern CPU's halt nicht soo sonderlich. Zock bspw. mal CivilizationV. ;) Bei mir war es so: Q6600@3GHz ca. 35 Fps; nun mit 2600K@4,5GHz = 60 FpS am Anschlag [VSync]. Und die Turns gehen nun auch bei Epischen Spielen ab Runde 600 in eträglicher Zeit vonstatten ... nix mehr Kaffepause beim Rundenwechsel. =)

Bei mir hat sich der i7 definitiv gelohnt!

Ich zock Civ 4 auf riesigen Custom Maps, das ist nicht weniger CPU-killend, geht sogar nur auf einem Core und profitiert daher wahrscheinlich sogar noch stärker vom 2600K. Dennoch auch auf dem Phenom gut spielbar ;)

Kommt jetzt halt drauf an wie wichtig einem absolut optimale Civ4/5-Performance ist ;)

PatkIllA
2011-10-21, 20:23:57
Bei mir hat sich SB alleine schon die AES-NI für Truecrypt gelohnt.
Ich hatte vorher auch nur E6600 und der 2600K ist schon bei SingleThread bei etlichen Sachen doppelt so schnell.

Hugo78
2011-10-21, 20:37:42
Laut diversen Benchmarks soll ein i7-2600k eine Art Überprozessor sein, wie auch immer. Leider merke ich das im Alltag nicht. Die Idle/Arbeitsgeschwindigkeit (Office/Internet) ist gleich,

Für Office ist die Festplatte der Bremsklotz.
Mein kleiner I-Net PC mit 2,5GHz Dualcore Celeron, fühlt sich mit SSD auch schneller an als mein 2500k, wenn dieser nur mit einer HDD arbeiten würde.

Für Office, surfen ect. würde sogar eine noch langsamere CPU reichen, hauptsache zwei Kerne und eine SSD als Speichermedium.

sogar in den meisten Spielen merkt man keinen Zugewinn.

Weil 1680*1050 auch nicht forderes ist.
Da hattest du sicher auch mit dem 955BE nie irgendwelche Ruckler oder?!

R.I.P.
2011-10-21, 20:45:50
Weil 1680*1050 auch nicht forderes ist.
Da hattest du sicher auch mit dem 955BE nie irgendwelche Ruckler oder?!

Gerade da irrst du dich; je niedriger die Auflösung desto mehr kommst du mit einer halbwegs aktuellen Grafikkarte ins CPU Limit und je höher die Auflösung und je höher das AA u. AF, desto mehr ins GPU Limit und die CPU spielt eine relativ untergeordnete Rolle (außer in RTS z.B, Strategiespiele wie Supreme Commander 2).
Ich spiele mit einem LLano A8-3850@3,6 Ghz inkl. 570GTX in 1920x1200 inkl AA/AF vor allem Shooter und MMOGA. Die CPU hat 100 Euro gekostet und es fehlt mir an nichts. Bei Anno 2070 z.b wird ein 2600k um Welten besser sein als mein LLano, aber was solls :D

Sir Integral Wingate Hellsing
2011-10-21, 20:54:49
Gerade da irrst du dich; je niedriger die Auflösung desto mehr kommst du mit einer halbwegs aktuellen Grafikkarte ins CPU Limit und je höher die Auflösung und je höher das AA u. AF, desto mehr ins GPU Limit und die CPU spielt eine relativ untergeordnete Rolle (außer in RTS z.B, Strategiespiele wie Supreme Commander 2).
Ich spiele mit einem LLano A8-3850@3,6 Ghz inkl. 570GTX in 1920x1200 inkl AA/AF vor allem Shooter und MMOGA. Die CPU hat 100 Euro gekostet und es fehlt mir an nichts. Bei Anno 2070 z.b wird ein 2600k um Welten besser sein als mein LLano, aber was solls :D

Llano bei 3,6 GHz? Nett, wieviel VCore?
Würd ich gern mal Benches sehen - Llano @ Standard bzw Llano @ OC ;)

Hugo78
2011-10-21, 21:09:03
Gerade da irrst du dich; je niedriger die Auflösung desto mehr kommst du mit einer halbwegs aktuellen Grafikkarte ins CPU Limit und je höher die Auflösung und je höher das AA u. AF, desto mehr ins GPU Limit und die CPU spielt eine relativ untergeordnete Rolle (außer in RTS z.B, Strategiespiele wie Supreme Commander 2).

Schon klar, es geht ja aber auch um den gefühlten Speed.

Mein alter Q9550 + GTX 285 hatte 1680*1050 in BC nie Probleme.
In 1920*1080 dann aber schon arg unter meiner gewünschten Grenze, wobei ich 60FPS als Grenze definiere.
Auf Panama Canal gabs im Mittel noch vielleicht 45FPS.
Die Auslastung der Graka war bei durchschnittlich 85%.

Dann hatte ich kurz ne 460@ 750Mhz, dass gab dann paar FPS mehr, iirc +10-20 im Mittel, Welt war wieder im Lot, denn ich war wieder über 60FPS.
Gleichzeitig konnte der Q9550 die 460 aber auch garnicht mehr richtig bedienen. Die GPU Auslastung sank auf 70%.
Mit dem 2500k ging diese dann auf über 90%, entsprechend auch die FPS und mit meiner aktuellen 560Ti @ 900 hab ich immernoch ne 90% Auslastung bei gefühlt doppeltem Speed, ggü dem 9550+285 in FullHD.
Und ich wette, die 560Ti würde sich mit dem 9550 zusammen, noch mehr langweilen.

Und wie gesagt, erst wenn man mit seiner alten CPU (+Graka in meinem Fall) an die ruckel Grenze kommt, fühlt man ja erst den Unterschied zum neuen System.

Also wenn er in seinen Spielen mit dem 955+560Ti nie Probleme hatte, wird er mit dem 2600k auch keinen/kaum einen Unterschied fühlen.

Raff
2011-10-21, 23:13:31
Meine Rede. Ich versteh's auch nicht, dass so viele Leute geil auf schnellere Prozessoren sind. Den X6 habe ich nur aus Neugier gekauft (was der Bulldozer nicht schafft), dringend nötig war das ausgehend vom Core 2 Quad nicht. Es kommt einfach immer darauf an, wie man spielt. Ein Super-/Downsampler, egal ob mit oder ohne 30-Zoll-LCD, braucht in erster Linie Grafikpower. Aus diesem Grund ist mir (m)eine GTX 580 OC immer noch deutlich zu langsam, während der X6 undervoltet @ 2,8 GHz rennt ... ;D

MfG,
Raff

dargo
2011-10-21, 23:38:31
Aus Neugierde habe ich mein Crosshair III MB inkl. Phenom 955BE verkauft um mal was Neues auszuprobieren (siehe sig.). Laut diversen Benchmarks soll ein i7-2600k eine Art Überprozessor sein, wie auch immer. Leider merke ich das im Alltag nicht. Die Idle/Arbeitsgeschwindigkeit (Office/Internet) ist gleich...

Na das ist doch mal eine Erkenntnis! Ein AMD Phenom II X4 955E limitiert nicht bei Office/Internet. :facepalm:


...sogar in den meisten Spielen merkt man keinen Zugewinn. Einzig bemerkbar ist es eigentlich in GTA IV, von 45 FPS rauf auf 57 bei gleichen Settings. So gut wie alle anderen Spiele profitieren vom i7 nicht. Wie auch? Dank Konsolen liegt die Überleistung brach, erst mit dem Wechsel auf die neue Konsolengeneration und den darauf folgenden neuen Spielen wird mein i7 mal so richtig zeigen können was er kann.
Auf welchen Tests basiert deine Erfahrung? Ich tippe mal auf Gefühle.

Matrix316
2011-10-21, 23:38:49
Ein schneller Prozessor ist wie ein schneller Motor. Kein Mensch braucht mehr wie 100 oder 120 PS, aber schaden tuts auch nicht. ;)

eXodia
2011-10-21, 23:54:20
Auf welchen Tests basiert deine Erfahrung? Ich tippe mal auf Gefühle.

Was für ihn aber auch das einzig richtige Kriterium ist. Wenn ein Spiel gefühlt nicht schneller läuft, dann kann Fraps 60 fps anstatt 40 fps anzeigen, flüssiger läuft es dadurch aber nicht.

Regards

Matrix316
2011-10-22, 00:06:00
Ein paar Zahlen aus der letzten PCGH Seite 21:

Starcraft 2 2560x1440 16:1 AF 2 on 2 MP-Replay (alle Werte ca., weil die Achsen nicht genau genug beschriftet sind im Bild ;))

Phenom II 955 mit GTX570 ca. 25 FPS mit HD 5870 ca. 26 FPS
Phenom II 1090T mit GTX570 ca. 25 FPS mit HD 5870 ca. 26 FPS
Core i5 2500 K mit GTX570 ca. 37 FPS mit HD 5870 ca. 34 FPS

Noch Fragen an Hansi?

merfu
2011-10-22, 00:29:22
Starcraft ist auch CPU limitiert. Wenn wundert es da?
Es ist doch hier nicht die Frage ob der 2500k schneller als ein 955 ist. Das sollte hinlänglich bekannt sein. Jedoch ist es bei TE so, der es subjektiv davon nicht merkt. (Objektiv würde Benches erfordern).

So und nu? Für ihn ist es eine Erfahrung die er teilt, Danke im übrigen und mehr nicht.


Warum müsst ihr scheiß Intel Fanboys(Sorry, es nervt echt langsam!) ständig alles auf Teufel komm raus schlecht reden oder verteidigen?
Ihr seit bestimmt auch diese Sorte Leute, die allen Fiesta oder Lupo Fahrer/inen auslachen weil sie weniger PS haben als ihr?

xiao didi *
2011-10-22, 00:36:54
Warum müsst ihr scheiß Intel Fanboys(Sorry, es nervt echt langsam!) ständig alles auf Teufel komm raus schlecht reden oder verteidigen?
Das hat ja nichts mit Fanboytum zu tun. Der OP suggeriert hier nur, dass ein 955B ähnlich schnell wäre wie ein 2600K. Und das ist natürlich Quatsch, auch wenn eine Performancesteigerung von, je nach Anwendung, 30-40% nicht immer spürbar ist.

merfu
2011-10-22, 00:43:20
Er sagt nur das es sich für ihn so anfühlt und er für sich und seine Games subjektiv nichts wahrnimmt. Wenn er messen würde wäre da vielleicht ein Unterschied, ganz Objektiv, aber darum gings ihn ja nicht.

Von daher Thema verfehlt, 6 setzen.

Knuddelbearli
2011-10-22, 01:09:16
sc2 dürfte aber eins von vielleicht 5 spielen sein die so extrem cpu limtiert sind

geb aber zu sc2 war bei mir auch einer der hauptgründe von x3 720 auf I7 2600K aufzurüsten. und selbst der geht manhcmal noch in unspielbare bereiche ...

xiao didi *
2011-10-22, 02:46:33
Er sagt nur das es sich für ihn so anfühlt und er für sich und seine Games subjektiv nichts wahrnimmt. Wenn er messen würde wäre da vielleicht ein Unterschied, ganz Objektiv, aber darum gings ihn ja nicht.

Von daher Thema verfehlt, 6 setzen.
Der OP will hier anderen etwas mitteilen, sonst würde er es nicht in ein Forum schreiben, sondern in sein privates Tagebuch.
Und die Message ist: "Ein 955BE fühlt sich so schnell an wie ein 2600K". Nicht mehr und nicht weniger.
Und ich sage: Ja, in manchen Anwendungen merkt man den Performance Unterschied nicht. Die allgemeine Aussage, ein Update lohne sich aber nicht, ist aber falsch.

Und warum soll ich mich setzen? ;(

uweskw
2011-10-22, 05:27:37
Der OP will hier anderen etwas mitteilen, sonst würde er es nicht in ein Forum schreiben, sondern in sein privates Tagebuch.
Und die Message ist: "Ein 955BE fühlt sich so schnell an wie ein 2600K". Nicht mehr und nicht weniger.
Und ich sage: Ja, in manchen Anwendungen merkt man den Performance Unterschied nicht. Die allgemeine Aussage, ein Update lohne sich aber nicht, ist aber falsch.

Und warum soll ich mich setzen? ;(

Besser aufstehen, vllt. wird deine Leitung dann durchlässiger.....

Danke an den TE dass er hier einfach seine subjektive Meinung mitteilt. Ich bin mit ner ähnlichen Konfiguration am überlegen ob ich von einem Q9400 auf einen 2500K aufrüste. 128er SSD hab ich schon drin und 4GB auf einem 775er Board.
Benchmarks interessieren mich weniger. Mir gehts um den "gefühlten" Performance Gewinn. Also werd ich mir für die Kohle wohl lieber nen schönes WE machen. Genau für solche Infos lese ich in Foren. Thanks AMBOSS.

Greetz
U.S.

L.ED
2011-10-22, 06:31:14
Die Aussage ist sogar viel weitreichender und um diese geht es die hier nun auf Teufel kaum raus wieder negiert werden soll. Das es eben nicht nur in manchen sondern bei den meisten was da für den größten teil der Leute von wirklich Relevanz bei ihrem täglich einerlei!

Anwender wie mich nehme da schon explizit raus da diese zu den Powerusern gehören (was Multitasking belange betrifft). Und hier Quadcores allgemein schon länger einfach nicht mehr konkurrenzfähig, eine simple Tatsache die schlicht zusammengefasst der Softwarelandschaft geschuldet!

Theorie vs. Praxis verzerrte schon immer das Bild bei dem Gemeinen und unbedarften. Und eigentlich ist es eine Schande das auch Leute von denen man meinen müsste das sie es besser wüssten, den Hintergrund besitzen um durchaus mehr differenzieren zu können, kaum dergleichen Durchblicken lassen. Da wird der eine Tellerrand genüsslich ausgeschlachtet und der andere nur beiläufig erwähnt und wenn überhaupt dann nur mit so ganz relativierenden Unterton (ach das ist ja nicht wichtig, wer macht das schon auf dem Desktop und überhaupt kannst mit dem AMD nur alles verkehrt machen, was im eigentlichen in dieser Ausprägung auch schon Rufmord)!

Das wird hier jetzt wieder munter so weitergehen, die Bühne wurde eröffnet aber vielleicht konnte der ein oder anderen aufrüttelt werden.

Dunkeltier
2011-10-22, 07:35:18
Aus Neugierde habe ich mein Crosshair III MB inkl. Phenom 955BE verkauft um mal was Neues auszuprobieren (siehe sig.). Laut diversen Benchmarks soll ein i7-2600k eine Art Überprozessor sein, wie auch immer. Leider merke ich das im Alltag nicht. Die Idle/Arbeitsgeschwindigkeit (Office/Internet) ist gleich, sogar in den meisten Spielen merkt man keinen Zugewinn. Einzig bemerkbar ist es eigentlich in GTA IV, von 45 FPS rauf auf 57 bei gleichen Settings. So gut wie alle anderen Spiele profitieren vom i7 nicht. Wie auch? Dank Konsolen liegt die Überleistung brach, erst mit dem Wechsel auf die neue Konsolengeneration und den darauf folgenden neuen Spielen wird mein i7 mal so richtig zeigen können was er kann. Dumm nur, das er dann schon veraltet sein wird. Wie auch immer, unterm Strich bereue ich den Wechsel, aber anderseits war es mir diese Erfahrung auch ein bisschen wert. Viel heiße Luft um nichts und 400.- Euro ärmer ;D


Die Leistung liegt des i7 liegt weniger wegen den Konsolen brach, sondern viel mehr deswegen, weil du voll am Bedarf vorbei sinnlos ins Aufrüst-Regal gegriffen hast. Bei dir limitiert die Grafikkarte. Würdest du eine (oder gleich zwei) Grafikkarten aus dem High-End Bereich (Geforce GTX 480/570/580) im Rechner stecken haben, wäre der Unterschied ziemlich sicher spürbar. So bleiben dir höchstens eine selten vorkommende CPU-Limitierung in Spielen, die am ehesten noch bei Strategiespielen anzutreffen sein dürfte. Und für Office/Internet reichen selbst Gammel-Einsteiger CPU's von AMD oder Intel. Ausnahme: Der Bobcat-Rotz, den ich in meinen HTPC (E-350) habe. Das Ding braucht selbst beim surfen Zeit zum nachdenken, was ich denn von ihm will. Oder beim durchblättern der Mediathek trotz flotter Hybrid-HDD. Da wäre wohl ein Intel Dual-Core alias Intel Pentium G630T die bessere Wahl gewesen...

Klassischer Fall von Fehlkauf oder wie verschwende ich am ineffektivsten mein Geld. Bei mir ersteres, bei dir letzteres.

R.I.P.
2011-10-22, 08:08:09
Ein paar Zahlen aus der letzten PCGH Seite 21:

Starcraft 2 2560x1440 16:1 AF 2 on 2 MP-Replay (alle Werte ca., weil die Achsen nicht genau genug beschriftet sind im Bild ;))

Phenom II 955 mit GTX570 ca. 25 FPS mit HD 5870 ca. 26 FPS
Phenom II 1090T mit GTX570 ca. 25 FPS mit HD 5870 ca. 26 FPS
Core i5 2500 K mit GTX570 ca. 37 FPS mit HD 5870 ca. 34 FPS

Noch Fragen an Hansi?

Cool, hab auch ein Abonnement an PCGH, schade daß die von dir geposteten Resultate, wo der 2500k eindeutig die höheren FPS gegenüber dem 955 hat, der einzige Test in höher Auflösung ist. Bei alle anderen sind die FPS nahezu identisch, bei 1920x1080 gibt es nur einen kleinen bis gar keinen Unterschied. Wie ich in meinen vorherigen Post geschrieben habe, ist der Unterschied nahezu nur in Strategiespielen eklatant. Lohnt sich deshalb (im Moment wohlgemerkt, bei zukünftigen Spielen wie BF3 kanns anders aussehen) zwischen CPU und MoBo so viel mehr auszugeben?

TobiWahnKenobi
2011-10-22, 08:10:56
bevor ich die zweite GTX560Ti in den i7 gesteckt habe, habe ich sie in meinem phenom getestet.. wollte nicht mit kühler runterruppen und wakü zerlegen anfangen, bevor ich die karte nicht auf funktion getestet hatte und das war im zweitsystem einfach bequemer.. keine schläuche im weg usw..

nunja.. ein kurztest mit den üblichen benchmurksen brachte die erkenntnis: lohnt sich nicht. punktetechnisch konnte sich der phenom mit standard-GTX560Ti (822mhz) nicht sonderlich von einer GTX460 mit werks-OC (800mhz) absetzen.

wohlgemerkt in standard-einstellungen - sicher könnte man die last etwas mehr richtung GPU verlagern, aber das war ja nicht mein ziel.



(..)

mfg
tobi

AnarchX
2011-10-22, 09:32:55
Ich spiele mit einem LLano A8-3850@3,6 Ghz inkl. 570GTX in 1920x1200 inkl AA/AF vor allem Shooter und MMOGA. Die CPU hat 100 Euro gekostet und es fehlt mir an nichts. Bei Anno 2070 z.b wird ein 2600k um Welten besser sein als mein LLano, aber was solls :D
Wie kommt man denn auf solch eine Konfig? :eek:

Bei mir hat sich SB alleine schon die AES-NI für Truecrypt gelohnt.

Das kann man auch in Betracht ziehen, damit sich das leicht verfehlte Upgrade, vielleicht doch noch etwas lohnt.

Dural
2011-10-22, 10:46:44
seit es GPUs gibt immer dasselbe Thema :freak:

Die Leute werden über die Jahre halt nicht gescheiter ;)


Es ist aber ziemlich lächerlich eine CPU "als nicht schneller" hinzustellen wenn man diese nicht vernünftig arbeiten lassen lässt, es ist nun mal so dass bei den meisten Spielen in den regulären Spiel Settings zu 95% die GPU den Speed bringt und sicher nicht die CPU. :rolleyes:

Ein 2600K ist um Welten schneller als ein 955, mit OC kreist der 2600K regelrecht in anderen Welten um die lammen CPUs von AMD.

Das man dies bei einer lächerlichen 6870 in normalen Spiel Settings NICHT feststellen kann, sollte jedem der nur etwas verstand hat auch einleuchten.

Solange man im GPU Limit ist, macht es so gut wie keinen Unterschied was man für eine CPU hat, mit einer so langsamen 6870 erst recht nicht.

ux-3
2011-10-22, 10:55:10
Das hat ja nichts mit Fanboytum zu tun. Der OP suggeriert hier nur, dass ein 955B ähnlich schnell wäre wie ein 2600K. Und das ist natürlich Quatsch, auch wenn eine Performancesteigerung von, je nach Anwendung, 30-40% nicht immer spürbar ist.

Oh bitte, lese genauer! Ich bin z.Z. sicher auch eher Intel-Fan, aber der OP suggeriert gar nichts - das machst du selbst!


Und die Message ist: "Ein 955BE fühlt sich so schnell an wie ein 2600K". Nicht mehr und nicht weniger.

Kannst du den Intel-Fan-Filter beim Lesen nicht auf "disabled" setzen?

Pirx
2011-10-22, 10:56:27
er lässt sie ja vernünftig arbeiten für die aktuelle Zeit und da bringt ihm eben selbst der 2600k kaum einen Vorteil...

lächerliche 6870? oh Mann *kopfschüttel*

L.ED
2011-10-22, 11:07:23
Das tut er aber auch nur solange und deutlich bis ausgeprägteres Multitasking abverlangt wird! Da zum Schluss es wieder so formuliert gewesen das die gesamte Produktpalette von AMD gemeint, würde das die X6 etc. mit einschließen (oder war es nur ein Versehen, unbedachtes Schreiben, ich glaub fast nicht)? Ist doch immer wieder das Selbe :rolleyes: , sollte mich geirrt haben Entschuldigung!

xiao didi *
2011-10-22, 11:33:58
Oh bitte, lese genauer! Ich bin z.Z. sicher auch eher Intel-Fan, aber der OP suggeriert gar nichts - das machst du selbst!
Natürlich tut er das:
...sogar in den meisten Spielen merkt man keinen Zugewinn...
...So gut wie alle anderen Spiele profitieren vom i7 nicht...
Ich glaube dem OP durchaus, dass er in seinen Spielen und Anwendungen keinen Unterschied merkt. Wie ich weiter oben bereits schrieb, sind selbst 30-40% mehr Performance nicht immer spürbar.
Genauso bei Grafikkarten: Man wird einen Unterschied merken zwischen 30 und 39 Fps, also 30% mehr Performance, wenn man drauf achtet. Aber vielleicht nicht im Eifer des Gefechts oder es ist in einer bestimmten Szene einfach egal.
Kommt man in kritischere Fps-Bereiche wird es aber unter Umständen wieder spürbarer.

Der Fehler des OP liegt hier nicht in seiner subjektiven Wahrnehmung. Wer bin ich denn um diese beurteilen zu können? Sondern darin seinen Maßstab als allgemeingültig darzustellen. Möglicherweise wollte er damit diese Scheindiskussion starten, denn mit einem "Hi, ich merke den Unterschied nicht zwischen einem 955BE und einem 2600K. Gruß" wäre hier ja schnell dicht gewesen.

PS: Bitte lasst doch auch diese kleinen Sticheleien weg. Wir tauschen hier nur Meinungen aus. Nichts weiter. Weder eure, noch meine enthält die 100prozentige Wahrheit.

Thunder99
2011-10-22, 11:45:53
Zum Thema CPU Limit und StarCraft II aus eigener Erfahrung:

Auf meinem Desktop-PC werkelt ein Phenom II x2@x3@3,7Ghz mit GTX470. Es ist zu jederzeit flüssig wenn nicht bei ner 4vs4 4x 200er Armeen aufeinander treffen.
Aber das liegt nicht an meinem PC, sondern an den Gegnern, da deren PC´s die Meldung erhalten "Spiel wurde aufgrund der Leistung verlangsamt" oder ähnliche Meldung und zuerst limitieren.

An meinem Laptop mit einem Turion X2 Ultra 2,2Ghz und HD3200 fängt das es schon zu ruckeln an ohne Kampf. Die Leistung wird verringert alleine an der Größe der Basis unserer Gruppe und Armeen. (Die Kämpfe sind dann 1fps Ruckelorgien :D)

Zusammenfassend: Das CPU Limit in SC2 tritt beim schwächsten Glied zuerst auf. Daher bringt ein i7 in dem Spiel nur bedingt was, da die anderen zuerst mit der Leistung am Limit sind und das Spiel verlangsamen

PS: SC2 auf dem Lappi auf alles "Low", auf dem Desktop "Ultra" mit 4xAA

dargo
2011-10-22, 11:54:09
Was für ihn aber auch das einzig richtige Kriterium ist. Wenn ein Spiel gefühlt nicht schneller läuft, dann kann Fraps 60 fps anstatt 40 fps anzeigen, flüssiger läuft es dadurch aber nicht.

Darauf wollte ich in etwa hinaus. Wenn der TS vom Gefühl her ein ordentliches Speedupdate erfahren möchte dann müsste die CPU mindestens um den Faktor 2 schneller sein. Und wenn er richtig geflasht sein will sollte er selbstverständlich gleichzeitig ein Grafikkartenupdate vollziehen. Erst mit bsw. einer GTX580 würde die Post erst richtig losgehen. Da ist auch gefühlt eine ordentliche Mehrleistung drin.

Worauf ich hinaus will... Mehrleistung von bsw. 30-40% ist zwar messbar aber je nach Person kaum bis gar nicht spürbar.

anddill
2011-10-22, 11:58:10
Die Leistung liegt des i7 liegt weniger wegen den Konsolen brach, sondern viel mehr deswegen, weil du voll am Bedarf vorbei sinnlos ins Aufrüst-Regal gegriffen hast. Bei dir limitiert die Grafikkarte. Würdest du eine (oder gleich zwei) Grafikkarten aus dem High-End Bereich (Geforce GTX 480/570/580) im Rechner stecken haben, wäre der Unterschied ziemlich sicher spürbar.....

Dann hätte er statt 120FPS halt 200. Ein deutlicher Zuwachs. :freak:

Nur Freaks hier...

Sir Integral Wingate Hellsing
2011-10-22, 12:13:11
seit es GPUs gibt immer dasselbe Thema :freak:

Die Leute werden über die Jahre halt nicht gescheiter ;)


Es ist aber ziemlich lächerlich eine CPU "als nicht schneller" hinzustellen wenn man diese nicht vernünftig arbeiten lassen lässt, es ist nun mal so dass bei den meisten Spielen in den regulären Spiel Settings zu 95% die GPU den Speed bringt und sicher nicht die CPU. :rolleyes:

Ein 2600K ist um Welten schneller als ein 955, mit OC kreist der 2600K regelrecht in anderen Welten um die lammen CPUs von AMD.

Das man dies bei einer lächerlichen 6870 in normalen Spiel Settings NICHT feststellen kann, sollte jedem der nur etwas verstand hat auch einleuchten.

Solange man im GPU Limit ist, macht es so gut wie keinen Unterschied was man für eine CPU hat, mit einer so langsamen 6870 erst recht nicht.


Junge, die 6870 ist keine schlechte Karte. Es sei denn Du scheisst Geld, dann kannst du dir jede Woche nen SLI-System kaufen.
Und die CPUs von AMD haben auch nix mit Lämmern zu tun! ;)
Seit BD drehen die Intel-/Nvidia-Fanboys am Rad!!!


Zum Thema CPU Limit und StarCraft II aus eigener Erfahrung:

Auf meinem Desktop-PC werkelt ein Phenom II x2@x3@3,7Ghz mit GTX470. Es ist zu jederzeit flüssig wenn nicht bei ner 4vs4 4x 200er Armeen aufeinander treffen.
Aber das liegt nicht an meinem PC, sondern an den Gegnern, da deren PC´s die Meldung erhalten "Spiel wurde aufgrund der Leistung verlangsamt" oder ähnliche Meldung und zuerst limitieren.

An meinem Laptop mit einem Turion X2 Ultra 2,2Ghz und HD3200 fängt das es schon zu ruckeln an ohne Kampf. Die Leistung wird verringert alleine an der Größe der Basis unserer Gruppe und Armeen. (Die Kämpfe sind dann 1fps Ruckelorgien :D)

Zusammenfassend: Das CPU Limit in SC2 tritt beim schwächsten Glied zuerst auf. Daher bringt ein i7 in dem Spiel nur bedingt was, da die anderen zuerst mit der Leistung am Limit sind und das Spiel verlangsamen

PS: SC2 auf dem Lappi auf alles "Low", auf dem Desktop "Ultra" mit 4xAA

SC2 @ 1680x1050 @ ULTRA-Settings: Bei Match-Beginn ca 60fps, Fastest Map Ingame (3vs3) ca 35 fps (Einheiten-Clash in der Mitte :D).
Es nervt wenn die Anderen bremsen - und ich habe NUR einen Phenom II X2 + HD 6850...

boxleitnerb
2011-10-22, 12:16:31
Aber im Grunde hat er Recht. Die 6870 ist meist zu langsam, als dass man das Potential eines 2500K sehen könnte. Das weißt du auch selbst, du wolltest ja nur gegenstänkern :P

Majestic
2011-10-22, 12:18:53
Naja, für 1680x1050 braucht man ja auch keine Mörder Hardware. Was man aber auch bedenken sollte, dass der 2600K die zur Zeit vielleicht schnellste CPU überhaupt ist - je nach Einsatzgebiet. Und das für 260 Euro. Wann gabs das mal? So lange Ivybridge und Sandy Bridge E und sowas noch nicht wirklich da sind... es gab Zeiten, da hatten die Top AMD CPUs 1000 Euro gekostet. Und die haben sich auch nicht wirklich gelohnt. Mein Pentium II 233 hatte auch damals 630 DM gekostet. Aber 260 für einen 2600K lohnen sich schon. Selbst wenn man es jetzt noch nicht merkt.

So sehe ich ich das auch. Man hat eine CPU i.d.R. auch wesentlich länger als eine Grafikkarte im Rechner. So gesehen ist der Anschaffungspreis eines i7-2600K gar nicht so hoch in Anbetracht der Leistung. Außerdem wenn man nur Spiele wie BF BC2 o.ä. betrachtet könnte ich mir schon vorstellen das HT und/oder der größere Cache zukünftig doch was bringen. Außerdem ist es ein schönes "nice-2-have" Gefühl ;D

Sir Integral Wingate Hellsing
2011-10-22, 12:21:45
Aber im Grunde hat er Recht. Die 6870 ist meist zu langsam, als dass man das Potential eines 2500K sehen könnte. Das weißt du auch selbst, du wolltest ja nur gegenstänkern :P

Hätte der Hund in die Ecke geschissen...
Offensichtlich reichen für >95% der Games die Kombi Phenom II + HD 68x0.
Das ist FAKT. Darum gehts.
Das der i5/i7 gut is, bestreitet ja niemand (auch niemand von der AMD-Fraktion) - aber langsam gibts Parallelen zw Apple und Intel-Fanboys... :rolleyes:

boxleitnerb
2011-10-22, 12:24:57
Das ist kein Fakt, und weißt du auch warum? Weil jeder andere Ansprüche hat. Und darum geht es hier auch nicht. Es geht darum, dass der TE pauschalisiert, was einen falschen Eindruck erweckt. Kritisiert man das, kommen Leute wie du und geben gleich wieder unnötig Kontra.

R.I.P.
2011-10-22, 12:32:32
Wie kommt man denn auf solch eine Konfig? :eek:

Hatte 1 Jahr lang keinen PC, weil ich auf BD gewartet habe (der ja seit dem ersten Gerücht bereits April 2011 auf den Markt hätte kommen sollen, dann Juni, dann......). Als BD kam und leider scheinbar zu früh gekommen ist (was Optimierung betrifft) hatte ich die Nase voll und habe mir ein Übergangssystem gekauft, weil ich bis Mitte nächsten Jahres auf Vishera warten will (ich werde mir aufgrund Intels besch...eidener Chipsätze niemals ein Intel kaufen, solange sie beschnittene Pseudo-Chipsätze anbieten, sorry für OT).
Fazit: 100 Euro CPU LLano + 80 Euro MoBO Asus F1A75-M Pro + 300 Euro gute Grafikkarte = alles was das Herz begehrt um BF3, Diablo3, GuildWars2, Deus Ex3, Witcher 2, Dead Space 2, etc. auf 1920x1200 zu spielen ;D
OC LLano auf 3,6 3,5Ghz (120Mhzx29) mit StandardVcore entspricht ca. einem 3,8 Ghz AMD der 45nm Generation.

Thunder99
2011-10-22, 12:35:20
Fazit: 100 Euro CPU LLano + 80 Euro MoBO Asus F1A75-M Pro + 300 Euro gute Grafikkarte = alles was das Herz begehrt um BF3, Diablo3, GuildWars2, Deus Ex3, Witcher 2, Dead Space 2, etc. auf 1920x1200 zu spielen ;D
OC LLano auf 3,6 Ghz mit StandardVcore entspricht ca. einem 3,9 Ghz AMD der 45nm Generation.
Wenn du den Athlon II meinst ja, beim Phenom II ist der Unterschied etwas geringer

R.I.P.
2011-10-22, 12:37:44
Wenn du den Athlon II meinst ja, beim Phenom II ist der Unterschied etwas geringer

Stimmt, der Lv3 Cache spielt doch eine Rolle, hätte spezifizieren müssen

SamLombardo
2011-10-22, 12:45:28
.
Fazit: 100 Euro CPU LLano + 80 Euro MoBO Asus F1A75-M Pro + 300 Euro gute Grafikkarte = alles was das Herz begehrt um BF3, Diablo3, GuildWars2, Deus Ex3, Witcher 2, Dead Space 2, etc. auf 1920x1200 zu spielen ;D
OC LLano auf 3,6 3,5Ghz (120Mhzx29) mit StandardVcore entspricht ca. einem 3,8 Ghz AMD der 45nm Generation.
Spielen ja, nur wie....ist halt alles eine Frage des Anspruchs.

Und BTW, Starcraft 2 nur mal so als Beispiel wirst du mit dem Llano sicher kaum ordnetlich spielen können. http://www.pcgameshardware.de/aid,831650/AMD-Llano-im-Test-A8-3850-fuer-die-Lynx-Plattform/CPU/Test/?page=2
Diablo 3 wird sich zeigen, ebenso wie battlefield 3. Zu sagen dass die CPU völlig egal ist, so einfach isses leider doch nicht.

Mr.Magic
2011-10-22, 13:01:13
Hatte 1 Jahr lang keinen PC, weil ich auf BD gewartet habe (der ja seit dem ersten Gerücht bereits April 2011 auf den Markt hätte kommen sollen, dann Juni, dann......). Als BD kam und leider scheinbar zu früh gekommen ist (was Optimierung betrifft) hatte ich die Nase voll und habe mir ein Übergangssystem gekauft, weil ich bis Mitte nächsten Jahres auf Vishera warten will (ich werde mir aufgrund Intels besch...eidener Chipsätze niemals ein Intel kaufen, solange sie beschnittene Pseudo-Chipsätze anbieten, sorry für OT).
Fazit: 100 Euro CPU LLano + 80 Euro MoBO Asus F1A75-M Pro + 300 Euro gute Grafikkarte = alles was das Herz begehrt um BF3, Diablo3, GuildWars2, Deus Ex3, Witcher 2, Dead Space 2, etc. auf 1920x1200 zu spielen ;D
OC LLano auf 3,6 3,5Ghz (120Mhzx29) mit StandardVcore entspricht ca. einem 3,8 Ghz AMD der 45nm Generation.

Grandios. Du hast jetzt 180€ für Leistung ausgegeben, für die ich 2008 oder 2009 200€ gezahlt habe (Q6600). Voll das Schnäppchen!

Zephyroth
2011-10-22, 13:20:48
ich werde mir aufgrund Intels besch...eidener Chipsätze niemals ein Intel kaufen, solange sie beschnittene Pseudo-Chipsätze anbieten, sorry für OT).

Der Punkt würd' mich jetzt aber mal genauer interessieren...
Was fehlt dir denn auf den Intel-Chipsätzen?

Sie hatten da mal ne Panne mit den SATA-Ports, aber sonst laufen die Dinger doch. Oder meinst du, das man nur mit P67 oder Z68 übertakten kann? Intel bieten imho für jeden das richtige Produkt und dann ist man auch in keiner Weise beschnitten.

Grüße,
Zeph

TobiWahnKenobi
2011-10-22, 13:24:54
nun geh doch nicht auf dieses gebashe ein. aktuelle p67 und z68 -chipsätze sind völlig in ordnung.. und auch ältere 775er chipsätze arbeiteten sauber und stabil (p3x-p5x).


(..)

mfg
tobi

R.I.P.
2011-10-22, 13:29:41
Grandios. Du hast jetzt 180€ für Leistung ausgegeben, für die ich 2008 oder 2009 200€ gezahlt habe (Q6600). Voll das Schnäppchen!

Ja und? Was willst du mir/uns mitteilen? Daß die Preisklassen der unterschiedlichen CPUs (MittelklasseCPU 2008 - MittelklasseCPU 2011) gleich geblieben sind? Hatte den Q6600 auch, aber der kostete bei release deutlich mehr als 200Euro, so weit ich mich erinnern kann. Oder willst du mir auf deine charmante Weise mitteilen, daß dein Q6600 der Leistung und dem Verbrauch eines LLano entspricht? Oder daß du armer Teufel sogar 20 Euro mehr ausgegeben hast, das würde mir Leid tun. ;D

Scherz beiseite, habe wirklich nicht verstanden auf was du hinaus willst.

fdk
2011-10-22, 13:38:07
Eher das du mit deinem llano spätestens in bf3 gegen eine Wand rennen wirst und durch fm1 in einer Upgradesackgasse bist.

AnarchX
2011-10-22, 13:39:56
@R.I.P.
Hätte vermutet, dass du vielleicht die IGP in deinem Llano für GPGPU-Programmierung oder ähnliches nutzt.
Hat man halt eine nette Ersatz-GPU bei einem GraKa defekt oder die Option auf mehr als 2 Monitore. ;) :D

R.I.P.
2011-10-22, 13:42:18
Eher das du mit deinem llano spätestens in bf3 gegen eine Wand rennen wirst und durch fm1 in einer Upgradesackgasse bist.

Da möchte ich und werde dir spätestens bei release nächste Woche das Gegenteil beweisen :)

edit: Dann werden alle AMD user, welche nicht einen X6 benutzen auch in die Röhre schauen. Du bist dir mit deiner Aussage sicher, ja?

edit2: Das ist ein Übergangssystem, FM1 als Sackgasse ist bedauerlich aber egal, spätestens Mitte nächstes Jahr wird die Graka ausgebaut und mein Vater kriegt nen neuen Office PC :)

edit3: warum wurde mein Antwort-Beitrag auf Zephyroth, fdk und Tobi gelöscht? Da standen nur Fakten drin und haben gegen keine Forumsregel verstoßen. OT? Spam? Fein, daß die Aussage von Mr.Magic, welche ein höchstes Maß an Niveau hat, noch da steht....danke sehr

Mr.Magic
2011-10-22, 13:46:15
Das ich nicht verstehe, warum du eine langsamere CPU als den asbach uralt Q6600 (3.8Ghz max) so toll findest*.
Zumal man heutzutage für ~250€ was doppelt so schnelles bekommt. Aber das wäre ja dann böses Intel, und mit der zusätzlichen Geschwindigkeit kannst du offensichtlich sowieso nichts anfangen. :tongue:

*Rechnung gefunden: Mainboard + CPU für €225.- im Juni 2008

R.I.P.
2011-10-22, 14:02:48
Das ich nicht verstehe, warum du eine langsamere CPU als den asbach uralt Q6600 (3.8Ghz max) so toll findest*.
Zumal man heutzutage für ~250€ was doppelt so schnelles bekommt. Aber das wäre ja dann böses Intel, und mit der zusätzlichen Geschwindigkeit kannst du offensichtlich sowieso nichts anfangen. :tongue:

*Rechnung gefunden: Mainboard + CPU für €225.- im Juni 2008

Hatte wirklich in Erinnerung mehr bezahlt zu haben -.-
Trotzdem vertshe ich deine Aussage immer noch nicht: was soll der Maximaltakt vom Q6600 aussagen? Daß er höher kann als ein LLano und deshalb ist er besser? Dann werfe ich den neuen BD ins Spiel : 4,8 Ghz....:freak: was dabei rauskommt wissen wir leider alle.

Ich verstehe wirklich nicht ob es so schwierig sein kann richtig zu lesen: weder habe ich INTEL als DAS Böse hingestellt, noch habe ich gesagt, daß Intels Chipsätze nicht funktionieren, nicht stabil oder nicht sauber sind.....und meine Antwort wieso ich das glaube wurde gelöscht. Also PUNKT.
Habe meine Meinung kundgetan

VooDoo7mx
2011-10-22, 14:04:07
Es kommt auch ganz auf die Anwendungen an, die man nutzt.
Ich nutze meinen PC sehr viel für PS2 und Wii/Gamecube Emulation. Und da ist die Leistung der Grafikkarte meist zweitrangig.
Und da man die Emulation solcher Systeme nicht einfach mal so parallelisieren kann, ist reine pro MHz Leistung auf wenigen Cores wichtig.
Und bei dieser Software vernichtet eine Core i5/i7 geradezu einen Phenom II. Mehr als 50% höhere Leistung bei gleichen Takt. Hinzu kommt noch die exzellente Übertaktbarkeit der CPU. Viele Spiele laufen da erst auf voller Geschwindigkeiten wenn man da mit einen 4GHz Core i5/i7 anrückt. Mit einen AMD Prozessor, egal welchen, ist so eine Performance nicht erreichbar.

R.I.P.
2011-10-22, 14:09:58
Es kommt auch ganz auf die Anwendungen an, die man nutzt.
Ich nutze meinen PC sehr viel für PS2 und Wii/Gamecube Emulation. Und da ist die Leistung der Grafikkarte meist zweitrangig.
Und da man die Emulation solcher Systeme nicht einfach mal so parallelisieren kann, ist reine pro MHz Leistung auf wenigen Cores wichtig.
Und bei dieser Software vernichtet eine Core i5/i7 geradezu einen Phenom II. Mehr als 50% höhere Leistung bei gleichen Takt. Hinzu kommt noch die exzellente Übertaktbarkeit der CPU. Viele Spiele laufen da erst auf voller Geschwindigkeiten wenn man da mit einen 4GHz Core i5/i7 anrückt. Mit einen AMD Prozessor, egal welchen, ist so eine Performance nicht erreichbar.

Das stimmt alles, jeder Beitrag über die I7/I5 die besser sind in allen möglichen Benchmarks, in CPU lastigen Spielen, in 800x600 Auflösung :freak:, in Emulationen, etc, stimmen. Aber ihr solltet Euch den ersten Beitrag durchlesen. Es ging um halbwegs aktuelle PC Spiele in halbwegs normalen Auflösungen. Un da sind es wirklich meistens nur wenige FPS Unterschiede (außer in einigen CPU lastigen Spielen). Darum gings. Daß der i7 im Ganzen um Welten besser ist als ein 955 will niemand bestreiten. Aber darum ging es nicht

Reneeeeeee
2011-10-22, 14:50:50
Mir ist die Mehr-Performance völlig egal

In der Regel langt ein AMD Proz für jedes Game.

Einzig der Stromverbrauch veranlasst mich zu einem Wechsel zu Ivy.

Ansonsten bin ich mit meinem 955er sehr zufrieden und SC2 in 1920x1080 läuft ohne Probleme damit.

Matrix316
2011-10-22, 15:04:55
So sehe ich ich das auch. Man hat eine CPU i.d.R. auch wesentlich länger als eine Grafikkarte im Rechner. So gesehen ist der Anschaffungspreis eines i7-2600K gar nicht so hoch in Anbetracht der Leistung. Außerdem wenn man nur Spiele wie B BC2 o.ä. betrachtet könnte ich mir schon vorstellen das HT und/oder der größere Cache zukünftig doch was bringen. Außerdem ist es ein schönes "nice-2-have" Gefühl ;D
Das ist es doch! ;D

Ein Porsche bringt im Alltag auch nicht mehr wie ein Golf, aber hier kriegt man einen Porsche, der garnicht so viel mehr wie ein Golf kostet.

Wenn die Grafikkarte nicht schnell genug ist, merkt man natürlich auch keinen Unterschied zwischen einer schnelle und langsamen CPU.

Amboss
2011-10-22, 18:31:53
Aber im Grunde hat er Recht. Die 6870 ist meist zu langsam, als dass man das Potential eines 2500K sehen könnte. Das weißt du auch selbst, du wolltest ja nur gegenstänkern :P
Du hast mal echt keine Ahnung! Hatte zuvor ne HD6950, die musste raus weil zu laut und ich wollte mal wieder Nvidia testen (die dann enttäuschte, Treiberabstürze und unter Last zu laut).
Weißt du das ich mit der HD6870 so gut wie alle Spiele (2-3 Ausnahmen) mit maximalen Settings inkl. Vsync mit 60fps spielen kann? Weißt du wieso ich auf einem TFT Vsync 60 bevorzuge statt 200fps? Schon mal die Grafik bewundert mit aktiviertem Vsync? Bild ist viel ruhiger, keine Streifen/Balkenbildung, sehr scharfe Texturen und bessere Farbdarstellung. Denk mal darüber nach was es bedeutet einen TFT (60) mit 200fps zu bombardieren? Ein TFT kann 200fps gar nicht darstellen. Bei 97% aller TFTs ist bei 60fps schluss.

PatkIllA
2011-10-22, 18:38:38
Weißt du wieso ich auf einem TFT Vsync 60 bevorzuge statt 200fps? Schon mal die Grafik bewundert mit aktiviertem Vsync? Bild ist viel ruhiger, keine Streifen/Balkenbildung, sehr scharfe Texturen und bessere Farbdarstellung. Denk mal darüber nach was es bedeutet einen TFT (60) mit 200fps zu bombardieren?Da wird nichts schärfer und die Farben ändern sich auch nicht. Der TFT bekommt eh nur 60 Bilder pro Sekunde.

Amboss
2011-10-22, 18:39:05
Da wird nichts schärfer und die Farben ändern sich auch nicht.
du hast 0 Ahnung!

PatkIllA
2011-10-22, 18:40:13
du hast 0 Ahnung!Es ist technisch unmöglich und gesehen hab ich das auch nicht.
Man kann da noch ein paar mehr Qualitätsfeatures anwerfen. Ist ohne Triple Buffering nur doof wenn es dann doch mal knapp nicht reicht.

Ich hab mir immerhin keine neue CPU geholt, um damit mehr fps bei GPU-Limitierung rauszuholen...
Die sinnvollste Wahl wäre bei mir aber auch gewesen, den 2500K statt des 2600K zu kaufen.

Amboss
2011-10-22, 18:43:27
Ich empfehle allen einfach mal ein paar Spiele zu testen mit und ohne vsync und dann ehrlich zu sich selbst zu sein. Vor allem bei schnellen Bewegungen eliminiert Vsync die sogenannte Streifenbildung (Tearing).

PatkIllA
2011-10-22, 18:44:21
Ich empfehle allen einfach mal ein paar Spiele zutesten mit und ohne vsync und dann ehrlich zu sich selbst zu sein. Vor allem bei schnellen Bewegungen eliminiert vsync die sogenannte Streifenbildung.
Allgemein Tearing genannt. Das bestreitet auch niemand. Ich hab bewusst nur den zweiten Teil deines Postings zitiert.
Ich bin da persönlich je nach Spiel hin und hergerissen.

Amboss
2011-10-22, 18:47:24
Allgemein Tearing genannt. Das bestreitet auch niemand.
Ich bin da persönlich je nach Spiel hin und hergerissen. das Bild wird auch schärfer, angenehmer. Ich bin auch vom Fach und kann das beurteilen. Es hat viel mit der verbauten Bildaufbereitung der verschiedenen TFTs zu tun. Nicht alle Geräte reagieren gleich.

PatkIllA
2011-10-22, 18:48:13
das Bild wird auch schärfer, angenehmer. Ich bin auch vom Fach und kann das beurteilen. Es hat viel mit der verbauten Bildaufbereitung der verschiedenen TFTs zu tun. Nicht alle Geräte reagieren gleich.
Der TFT merkt genau null davon ob du VSync an hast oder nichts. Bei den üblichen Computermonitoren ist auch nicht soviel Bildbeaufbereitung in der Kette.

Amboss
2011-10-22, 18:51:57
Nun, er bekommt so viel Bildmaterial wie er dann auch darstellen kann (mit Vsync). Ohne Vsync sieht es mit den meisten TFTs dann bescheidener aus. Es wäre ineressannt zu wissen, was die gerätespezifische Bildaufbereitung mit den Mehr an Fps anstellt. Etwas passiert auf jeden Fall, sonst hätten wir ohne Vsync kein Tearing und die gleiche Bildqualität wie mit Vsync.

PatkIllA
2011-10-22, 18:53:46
Nun, er bekommt so viel Bildmaterial wie er dann auch darstellen kann (mit Vsync). Ohne Vsync sieht es mit den meisten TFTs dann bescheidener aus.
Er bekommt völlig unabhängig ob Spiel oder Desktop, VSync an oder aus, 10 fps, 60 fps oder 200 fps immer stumpf 60 Bilder pro Sekunde von der Grafikkarte. Teilweise kann man auch andere Refreshraten nutzen aber das wird bei Computermonitoren oft trotzdem intern auf 60 Hz durch ein Buffer gewandelt.
Es wäre ineressannt zu wissen, was die gerätespezifische Bildaufbereitung mit den Mehr an Fps anstellt.Der Monitor merkt das überhaupt nicht.
Etwas passiert auf jeden Fall, sonst hätten wir ohne Vsync kein Tearing und die gleiche Bildqualität wie mit Vsync.Das Tearing kommt weil die Grafikkarte mitten im Bild die Framebuffer tauscht. Mit VSync passiert das erst wenn das Bild komplett an den Monitor geschickt wurde. Ohne Triple Buffering muss die Anwendung notfalls warten. Deshalb hat man mit VSync enorme Sprünge in den fps die oft mehr nerven als das Tearing.

boxleitnerb
2011-10-22, 18:55:07
Du hast mal echt keine Ahnung! Hatte zuvor ne HD6950, die musste raus weil zu laut und ich wollte mal wieder Nvidia testen (die dann enttäuschte, Treiberabstürze und unter Last zu laut).
Weißt du das ich mit der HD6870 so gut wie alle Spiele (2-3 Ausnahmen) mit maximalen Settings inkl. Vsync mit 60fps spielen kann? Weißt du wieso ich auf einem TFT Vsync 60 bevorzuge statt 200fps? Schon mal die Grafik bewundert mit aktiviertem Vsync? Bild ist viel ruhiger, keine Streifen/Balkenbildung, sehr scharfe Texturen und bessere Farbdarstellung. Denk mal darüber nach was es bedeutet einen TFT (60) mit 200fps zu bombardieren? Ein TFT kann 200fps gar nicht darstellen. Bei 97% aller TFTs ist bei 60fps schluss.

Patkilla hat ja schon was zu den Texturen und Farben geschrieben...
Es gibt übrigens auch genug Spiele, in denen du mit einem 955BE nicht durchgehend 60fps hast, mit einem 2600K schon eher. Es kommt halt drauf an, was du spielst. Pauschal zu sagen, es gäbe keinen Unterschied, ist da einfach nicht richtig. Und ja, die 6870 bremst deine neue CPU oft aus, VSync sowieso. Das weiß man aber auch, bevor man 260 Euro ausgibt.

Amboss
2011-10-22, 19:02:00
Patkilla hat ja schon was zu den Texturen und Farben geschrieben...
Es gibt übrigens auch genug Spiele, in denen du mit einem 955BE nicht durchgehend 60fps hast, mit einem 2600K schon eher. Es kommt halt drauf an, was du spielst. Pauschal zu sagen, es gäbe keinen Unterschied, ist da einfach nicht richtig. Und ja, die 6870 bremst deine CPU oft aus, VSync sowieso. Das weiß man aber auch, bevor man 260 Euro ausgibt.

Vsync ist ne feine Sache und ich nutze es so oft wie möglich. Ich habe auch nicht pauschal behauptet das es keinen Unterschied gibt. Es gibt kaum einen (Alltagsanwendungen) die den Hype um die i7 i5 Prozessoren rechtfertigen. Ich denke das sich viele User von den Werbeplattformen vereinnahmen lassen. Schon als ich den i7 kaufte ahnte ich das es in diese Richtung gehen wird. Dieser i7 wird von nun an sehr lange seinen Dienst verrichten, einzig die HD6870 wird nächstes Jahr einer HD 7870 28nm @Leistung~GTX580 weichen müssen. Aber dann wird man wohl sagen eine HD7870 ist nur Mainstream und viel zu langsam. Na ja, 6 Monate abwarten.

ux-3
2011-10-22, 19:06:53
Ich glaube dem OP durchaus, dass er in seinen Spielen und Anwendungen keinen Unterschied merkt.

Die (fast) gleiche Erfahrung habe ich beim Wechsel von 450GTS auf 560ti gemacht. In den allermeisten Spielen die ich seither angeworfen habe, bemerke ich keinen Unterschied. Der einzige Unterschied, der mir sofort aufgefallen ist war, dass die neue Karte rasch laut wurde, wo die 450 GTS unhörbar war. Nach ein paar Versuchen hab ich dann Vsync erzwungen und es wurde wieder leise. Daraus hab ich gelernt, dass Mehrleistung nicht immer besser ist. ;)

Wie ich weiter oben bereits schrieb, sind selbst 30-40% mehr Performance nicht immer spürbar.

Deshalb rüste ich dafür auch nicht auf. Unter 100% lohnt es sich aus meiner Sicht meist nicht.

Der Fehler des OP liegt hier nicht in seiner subjektiven Wahrnehmung.

Da er über mehr aber gar nicht berichtet - und wenn doch, dann konkret an Zahlen - was willst Du ihm vorwerfen?

Sondern darin seinen Maßstab als allgemeingültig darzustellen.

Oh bitte! Genau das meinte ich mit dem Lesen. Er berichtet von sich und seinen Erfahrungen. Allgemeingültigkeit vermag ich da nur mit großer Anstrengung reinzudeuten. Schon im Titel redet er von (seiner) Erfahrung.

Möglicherweise wollte er damit diese Scheindiskussion starten, denn mit einem "Hi, ich merke den Unterschied nicht zwischen einem 955BE und einem 2600K. Gruß" wäre hier ja schnell dicht gewesen.

Jetzt läufst Du Gefahr, andere an Deinem Denken zu messen.

PS: Bitte lasst doch auch diese kleinen Sticheleien weg. Wir tauschen hier nur Meinungen aus. Nichts weiter.

Wo stichel ich denn? Bin vermutlich gar nicht gemeint...


Mehrleistung von bsw. 30-40% ist zwar messbar aber je nach Person kaum bis gar nicht spürbar.

Das ist die Natur des menschlichen Wahrnehmungssystems. Auch wenn es kaum einer glaubt, aber um einen Helligkeits- oder Lautstärkeunterschied sicher und sofort zu erkennen, muss ein Pegel etwa 100% höher sein als der andere.

So sehe ich ich das auch. Man hat eine CPU i.d.R. auch wesentlich länger als eine Grafikkarte im Rechner. So gesehen ist der Anschaffungspreis eines i7-2600K gar nicht so hoch in Anbetracht der Leistung. Außerdem wenn man nur Spiele wie BF BC2 o.ä. betrachtet könnte ich mir schon vorstellen das HT und/oder der größere Cache zukünftig doch was bringen. Außerdem ist es ein schönes "nice-2-have" Gefühl ;D

Mit der Logik ist es aber kontraproduktiv, eine neue CPU zu kaufen, wenn sie noch keinen subjektiven Mehrwert bietet - genau deswegen hat man sie ja eigentlich viele Jahre. Sonst kauft man jedes Jahr eine neue teure CPU mit der Rechtfertigung, dass man sie ja viele Jahre hat. :freak:

Reneeeeeee
2011-10-22, 19:37:51
HD 7870 28nm @Leistung~GTX580 weichen müssen.

Glaskugel? Will ja mit der 7er Serie auch meine 5870 ersetzen.

Aber erstmal sehen bis paar Benches kommen.

Zephyroth
2011-10-23, 01:03:18
Weißt du wieso ich auf einem TFT Vsync 60 bevorzuge statt 200fps? Schon mal die Grafik bewundert mit aktiviertem Vsync? Bild ist viel ruhiger, keine Streifen/Balkenbildung, sehr scharfe Texturen und bessere Farbdarstellung. Denk mal darüber nach was es bedeutet einen TFT (60) mit 200fps zu bombardieren? Ein TFT kann 200fps gar nicht darstellen. Bei 97% aller TFTs ist bei 60fps schluss.

Öhm, nein. Das ist grundlegend falsch. Jemand der behauptet vom Fach zu sein sollte es besser wissen.

PatKilla hat's eh schon richtig gesagt. Der Scanout zum Bildschirm erfolgt immer mit 60Hz, egal ob die Grafikkarte nun 200fps oder nur 30fps rendert. Es wird lediglich der Buffer aus dem die Daten übertragen werden gewechselt. Rendert die Karte nun mit 120fps, dann hast du den halben Bildschirm mit Daten aus Buffer A und die andere Hälfte mit Daten aus Buffer B. Dazwischen kommt's zum Tearing.

An den Farben oder der Schärfe der Textur ändert sich nichts.

Grüße,
Zeph

Blutmaul
2011-10-23, 08:57:19
Es ist aber möglich, das eine andere Grafikkarte auf dem TFT ein "besseres" Bild darstellt, als eine Karte anderen Typs.
Ich persönlich finde die ATI-Bildausgabe brillanter, als die Nvidia-Bildausgabe.
Und Tearing kann man schon als Bildverwaschung wahrnehmen, sodas Vsync "schärfer" wirkt und schärfer hat auch eine bessere Farbdarstellung zur Folge.
Ich seh das selber auch so.
Das eine ist eben das theoretisch/praktisch Technische und das andere die individuelle Wahrnehmung dessen.

PatkIllA
2011-10-23, 09:02:08
Nur das es halt reine Einbildung ist. Wie stark sowas sein kann sieht man schön am Voodoo bei Hifi.
Anderen Ahnungslosigkeit vorwerfen, sich vom Fach dazustellen und dann solche Wissenslücken zu haben ist schon ziemlich arm.

TobiWahnKenobi
2011-10-23, 10:04:06
von unterschieden in der brillianz kann ich hier nix erkennen -> und mein bild ist - wenn ich es möchte - 3m breit..



(..)

mfg
tobi

PatkIllA
2011-10-23, 10:13:46
Zumal ja auch recht genau festgelegt ist was rauskommen müsste.
DVI bietet da eigentlich kaum mögliche Fehlerquellen.
Gerade bei HDMI hat man ja noch so nette Dinge wie TV und PC-Range, DeepColor, RGB vs YCbCr mit verschiedenen Auflösungen für die Farbkanäle, verschiedene Farbräume und EDID Probleme.

Schnitzl
2011-10-23, 11:51:52
von unterschieden in der brillianz kann ich hier nix erkennen -> und mein bild ist - wenn ich es möchte - 3m breit..

(..)
mfg
tobi
wie denn auch wenn du nur nVidia-Karten hast???
Also echt, manchmal frage ich mich wirklich....
----->

Ich persönlich finde die ATI-Bildausgabe brillanter, als die Nvidia-Bildausgabe.

iDiot
2011-10-23, 13:47:22
Hm eine CPU Generation überlebt meist mehrere Grafikkartengenerationen wenn man sinnvoll aufrüstet. Du hast genau das Gegenteil davon gemacht, hm.

Beispiel von mir:
Q6600 G0 gekauft, auf 3Ghz getaktet (direkt bei erscheinen), 8GB Ram und eine HD4870 dazu - also ziemlich High-Endig damals.

Heute eine GTX 580 drin + eine SSD und der PC ist gefühlt (teilweise auch gebencht) wieder doppelt so schnell, ohne tausch der CPU bzw des Unterbaus.

Wo ich allerdings merke dass die CPU limitiert ist bei Starcraft II. Shooter wie Crysis 2 ließen sich dank der Grafikpower ohne weiteres spielen.

Bei BF3 und der 64er Beta Map stellte die CPU allerdings schon den limitierenden Faktor dar, d.h. die fliegt als nächstes.

Fazit:
Hätte ich das Geld für SSD + Graka in CPU + MB + RAM investiert wäre es ein ziemlicher reinfall. Wie beim TS.

*edit*
Brilliantere Bildausgabe? :D was für ein Quatsch, sry.

TobiWahnKenobi
2011-10-23, 14:43:21
wie denn auch wenn du nur nVidia-Karten hast???
Also echt, manchmal frage ich mich wirklich....
----->

3x NVidia, 1x intel (neben dem SLi), 2x ATI (eine aufm schrank, eine in der phenomgurke neben der GTX460)

-> manchmal frage ICH MICH wirklich.. *gg*


(..)

mfg
tobi

Die gelbe Eule
2011-10-23, 15:30:14
Wichtig wäre doch nur ob der Geschwindigkeitszuwachs auch finanziell Sinn gemacht hat oder nicht. Jeder hat doch bestimmt ein Zeil das mit einer Fixen Ausgabe erreicht werden soll.

Schnitzl
2011-10-23, 15:48:02
3x NVidia, 1x intel (neben dem SLi), 2x ATI (eine aufm schrank, eine in der phenomgurke neben der GTX460)

-> manchmal frage ICH MICH wirklich.. *gg*


(..)

mfg
tobi
laut deiner signatur hast du nur nvidia karten

TobiWahnKenobi
2011-10-23, 15:53:19
wäre auch ein bisschen überflüssig, die jetzt noch um readeon hdxxxx stellen zu erweitern; die ist eh schon knapp zu breit. unter "computer" auf meiner website sind detailiertere angaben als in den forensignaturen.

btw,
zum z68 gehört eine intel IGP und zum 880g eine AMD IGP.


(..)

mfg
tobi

Schnitzl
2011-10-23, 16:02:35
jo, und bei so ner umfangreichen sig könnte man annehmen dass die vollständig ist ;)

was solls, war eben ein Missverständnis

P.S.: ich finde mein 5850 hat ein einen tick besseres bild als die 570 phantom
früher zu matrox zeiten war der unterschied deutlicher:
Matrox >>> ATI > nvidia

PatkIllA
2011-10-23, 16:03:28
P.S.: ich finde mein 5850 hat ein einen tick besseres bild als die 570 phantom
früher zu matrox zeiten war der unterschied deutlicherFrüher war es ja auch noch analog.
Zumindest auf dem Desktop wirst du keine Unterschiede haben.

TobiWahnKenobi
2011-10-23, 16:16:27
jupp.. matrox hat sich den mythos zu analogen zeiten erkämpft.


(..)

mfg
tobi

Schnitzl
2011-10-23, 16:19:59
Früher war es ja auch noch analog.
Zumindest auf dem Desktop wirst du keine Unterschiede haben.
vielleicht ists auch einbildung, kann ich erst wieder in 2 wochen schauen

btw überlege ich ebenfalls von P-II 965 nach 2700k zu wechseln
oder gleich auf SB-E?
das ganze mit wasserkühlung und dann übertakten bis der arzt kommt
hatte eigentlich auf BD gehofft

gibts außer mehr lanes noh weitere vorteile der SB-E Plattform? Ist da auch die Grenze 5,3Ghz?

Cyv
2011-10-23, 16:26:44
Es kommt, wie immer, ganz auf die Anwendung drauf an;)
Ich bin von Q9650@4ghz auf i7-2600k gewechselt.
Selbst im default-Takt hatte ich in 1-2 Anwendungen deutlich mehr Leistung.
Grade MMORPG's sind sehr CPU-Lastig und profitieren von der neuen Architektur und der höheren Pro-Mhz-Leistung.
Paradebeispiel Aion:
Q9650@4 ghz (Hauptstadt): ~25 fps
i7-2600k @ default: ~43 fps
i7-2600@4,7 ghz: ~50+ fps

;)
Klar, wenn man im GPU-Limit hängt bringt die CPU nix.
Aber der Q9650 hatte definitiv mehr bums als ein 955BE, und trotzdem habe ich den Unterschied gespürt....

Amboss
2011-10-23, 18:09:51
Öhm, nein. Das ist grundlegend falsch. Jemand der behauptet vom Fach zu sein sollte es besser wissen.

Grüße,
Zeph

Dann kannst du ja auch sicher erklären warum Tearing unter Vsync so gut wie gar nicht vorkommt, all deiner Theorie zum Trotz. Auch hat der Schärfezugewinn und Farbbrillianz nichts mit Einbildung zu tun. Kann aber sein das ATI Karten mehr davon profitieren. Ja ich bin vom Fach, du währst überrascht was man so aller Theorie zum Trotz immer wieder erleben darf!

PatkIllA
2011-10-23, 18:11:23
Dann kannst du ja auch sicher erklären warum Tearing unter Vsync so gut wie gar nicht vorkommt, all deiner Theorie zum Trotz.Weil die beiden Buffer getauscht werden, wenn das Bild komplett an den Monitor ausgegeben wurden und nicht mittendrin. Niemand hat bestritten, dass VSync Tearing eleminiert. Das ist sogar genau der Punkt von VSync.
Auch hat der Schärfezugewinn und Farbbrillianz nichts mit Einbildung zu tun. Kann aber sein das ATI Karten mehr davon profitieren.Kann nicht sein, da sich nur einzige Stelle in der Pipeline ändert. Niemand sonst hat den je gesehen
Ja ich bin vom Fach, du währst überrascht was man so aller Theorie zum Trotz immer wieder erleben darf!Welches Fach? Computergrafik kann es eigentlich nicht sein.
Man findet eigentlich immer eine Erklärung aber oft liegt es darin, dass Leute Probleme lösen ohne sie zu verstehen und sich nicht evtl nötiges Wissen aneignen.

Was heißt "VSync" - und wie wendet man es an? (http://alt.3dcenter.org/artikel/2004/03-12_a.php)

Amboss
2011-10-23, 18:24:10
Welches Fach? Computergrafik kann es eigentlich nicht sein.

Was heißt "VSync" - und wie wendet man es an? (http://alt.3dcenter.org/artikel/2004/03-12_a.php)
Nein, nicht zum Thema Grafik.
Ich bin sehr selbstkritisch und würde nicht etwas behaupten was nicht war ist. Es hat daher nichts mit Einbildung und hörensagen zu tun. Ich bin ganz unvoeingenommen, ohne mich vorher anderweitig mit Vsync beschäftigt zu haben, an das Thema rangegangen. Die Bildqualität nimmt merklich zu und das liegt nicht nur am fehlenden Tearing (wobei man sagen muss, das Tearing den Bildgenuss deutlich schmälert!).

PatkIllA
2011-10-23, 18:27:26
Ich bin sehr selbstkritisch und würde nicht etwas behaupten was nicht war ist. Es hat daher nichts mit Einbildung und hörensagen zu tun. Ich bin ganz unvoeingenommen, ohne mich vorher anderweitig mit Vsync beschäftigt zu haben, an das Thema rangegangen. Die Bildqualität nimmt merklich zu und das liegt nicht nur am fehlenden Tearing.Das sagen auch Leute die Unterschiede zwischen HDMI-Kabeln sehen können.
Alleine schon weil man die ganze Zeit denkt, was der dumme Versatz im Bild macht, ist der Vergleich schon subjektiv.

Amboss
2011-10-23, 18:32:50
was der dumme Versatz im Bild macht, ist der Vergleich schon subjektiv.

Der dumme Versatz ist für sich schon alleine eine deutliche Minderung der Bildqualität. Wer betrachtet schon Standbilder?

PatkIllA
2011-10-23, 18:36:14
Der dumme Versatz ist für sich schon alleine eine deutliche Minderung der Bildqualität. Wer betrachtet schon Standbilder?
Bei Filterung und Antialiasing machen das schon einige. Wenn wirklich genau das tun will muss man das auch schon fast so machen.
Ohne VSync hat man halt in vielen Fällen hüpfende Frameraten, die das ganze Spielgefühl zerstören, weil der Rechner eben doch nicht schnell genug ist für 60 fps. Oder man muss deutlich die Qualität runterstellen damit man die halten kann.

Zephyroth
2011-10-23, 20:13:24
Dann kannst du ja auch sicher erklären warum Tearing unter Vsync so gut wie gar nicht vorkommt, all deiner Theorie zum Trotz. Auch hat der Schärfezugewinn und Farbbrillianz nichts mit Einbildung zu tun. Kann aber sein das ATI Karten mehr davon profitieren. Ja ich bin vom Fach, du währst überrascht was man so aller Theorie zum Trotz immer wieder erleben darf!

Ich meinte die dick unterlegte Passage, die von "besserer Farbwiedergabe und Brillianz" (oder so). Das VSync das Tearing verhindert ist schon richtig.

Bist du Verkäufer teurer HDMI-Kabel beim Mediamarkt in der HiFi-Abteilung? Da ist mir das letzte mal einer untergekommen, der auch behauptete "vom Fach" zu sein und darauf bestand das die Tonübertragung über ein digitales Cinch-Kabel besser sei als über das optische TOS-Link.

Gut, allen Belehrungen über digitale Datenübertragung (da bin ich nämlich vom Fach, sprich Hardwaredesigner) zum trotz wich er davon nicht ab...

Als es dann religiöse Züge annahm hab' ich aufgegeben. Der hat sich immer mehr in einer Wirbel reingeredet, das es ärger nicht geht. So wie du eben....

Aber ich lasse mich gerne belehren, analog verstehe ich noch einen Unterschied zwischen Karte A und Karte B, aber auch hier gibt's keinen zwischen VSYNC on und VSYNC off.

Nun haben wir eine digitale Datenübertragung (DVI hoffe ich), da fliegen Nullen und Einsen. Mehr Farbbrillianz oder Schärfe würde andere Daten bedeuten. Es kann dir aber jeder Spieleprogrammierer oder Treiberprogrammierer bestätigen, das die Bilddaten unhabhängig von der VSYNC-Einstellung sind.

Nun erklär' mir bitte, wie sich die Daten auf einmal ändern können? Imho liegt es nur an deiner visuellen Wahrnehmung, aber nicht am Computer oder Bildschirm. Du bis überhaupt der Erste der damit aufkreuzt.

Grüße,
Zeph

L.ED
2011-10-23, 21:12:11
Es wird natürlich (wenn denn) schon davor passieren, sehr vermutlich nutzen nv und AMD leicht unterschiedliche Werte in den Standard settings. Möglicherweise auch nur ein Effekt im Zusammenhang mit bestimmten Monitoren (Treiber interne Profile)? Sprich wenn man in den Einstellungen leicht dreht müsste man hüben wie drüben zu selben Ergebnissen dann gelangen können (wenn es denn nur das ist).

Zephyroth
2011-10-23, 21:18:14
Ich meine nicht einen Unterschied zwischen AMD/ATI oder nVIDIA, sondern einen Unterschied in der BQ abhänging vom VSYNC-Setting.

Grüße,
Zeph

y33H@
2011-10-23, 21:19:08
Es wird natürlich (wenn denn) schon davor passieren, sehr vermutlich nutzen nv und AMD leicht unterschiedliche Werte in den Standard settings.Nö, identisch.

L.ED
2011-10-23, 21:31:06
Ich meinte damit eher nicht was aus den Konfigurationsreglern hervor geht bei Konsumerkarten, könnte mir gut vorstellen das sich hier ein wenig Spielraum gelassen (die Hardware intern mit anderen werten dazu rechnet). Es würde zumindest solch Aussagen erklären, hört man ja öfters und es wäre ein billiger Weg für weitere Marken-nuancen zu legen (Unterscheidungsmerkmale).

Wie man sieht und hört manche sehen das und ihnen gefällt es sogar besser so. Ich weiß nicht ob es so verhält, weigere mich aber auch Leuten pauschal im Zweifel nur Einbildung zu unterstellen. ;)

Coda
2011-10-23, 21:32:44
Es ist Einbildung.

Blutmaul
2011-10-24, 07:23:33
Ich bin ausgebildeter Farbdrucker (ja, mit langjähriger Berufserfahrung)...irgendwo in dem ganzen Bildverarbeitungsprozess muß es es wohl doch einen Unterschied geben.

V2.0
2011-10-24, 07:51:28
Ich stehe gegenwärtig auch vor der Entscheidung.

Gegenwärtig ist im System ein Q9300 und eine GTX460. Das System ist ein Produktivsystem mit Spiele-Zweitfunktion. Hauptsächlich laufen Photoshop und Acrobat.

Ich frage mich nun im Hinblick auf BF3 selber welche Optionen Sinn machen.

a. bei 1280x1024 mit dam alten System zocken
b. nur CPU aufrüsten - preiswert aufrüsten i2400
c. 560Ti und neue CPU (z.B. 2500 + 560Ti)
d. CPU stark aufrüsten (i2600k)

Maorga
2011-10-24, 07:56:24
@Amboss

Ich glaube dir, dass es für dich einen Schärfezugewinn gibt mit V-Sync an. Dies liegt aber nicht daran, dass der Monitor etwas anderes Anzeigen würde als ohne V-Sync. Die verbesserte Schärfe kommt daher zu stande dass deinem Auge und dem Gehirn länger Zeit gelassen wird das Bild zu erfassen. Und mit V-Sync sinkt ja meistens die Framerate so auf ca. 30 und schon hast du das selbe Bild länger auf dem Bildschirm, auch muss sich der Monitor nicht so schnell umstellen (einzelne Farbinformationen), daher ist für dich das Bild besser.

Wir werden alle älter.....

R.I.P.
2011-10-24, 09:02:31
Ich stehe gegenwärtig auch vor der Entscheidung.

Gegenwärtig ist im System ein Q9300 und eine GTX460. Das System ist ein Produktivsystem mit Spiele-Zweitfunktion. Hauptsächlich laufen Photoshop und Acrobat.

Ich frage mich nun im Hinblick auf BF3 selber welche Optionen Sinn machen.

a. bei 1280x1024 mit dam alten System zocken
b. nur CPU aufrüsten - preiswert aufrüsten i2400
c. 560Ti und neue CPU (z.B. 2500 + 560Ti)
d. CPU stark aufrüsten (i2600k)

Würde dir eine Mischung davon empfehlen: I2400 und 560Ti

Coda
2011-10-24, 09:13:16
Ich bin ausgebildeter Farbdrucker (ja, mit langjähriger Berufserfahrung)...irgendwo in dem ganzen Bildverarbeitungsprozess muß es es wohl doch einen Unterschied geben.
Nein, die Ausgangskurve ist standardmäßig bei allen Grafikkarten völlig linear.

Aber Leute wie du würden es selbst dann nicht glauben, wenn ich dir mit einem Logic-Analyzer die Werte zeige die aus dem DVI-Port ausgegeben werden.

Es gibt über die digitale Schnittstellen keinen Unterschied mehr. Bei VGA ist das natürlich etwas anderes.

PatkIllA
2011-10-24, 09:24:01
Zumal das Farbempfinden äußerst subjektiv und situationsabhängig ist.
Mit dem bloßen Auge kann man das kaum im direkten Vergleich bewerten, was richtig ist.

Blutmaul
2011-10-25, 12:58:52
Nein, die Ausgangskurve ist standardmäßig bei allen Grafikkarten völlig linear.

Aber Leute wie du würden es selbst dann nicht glauben, wenn ich dir mit einem Logic-Analyzer die Werte zeige die aus dem DVI-Port ausgegeben werden.

Es gibt über die digitale Schnittstellen keinen Unterschied mehr. Bei VGA ist das natürlich etwas anderes.

Leute wie ich...^^

Weißt Du, es gab auch mal Leute, die haben behauptet, das bei einer CPU-Übertaktung der Leistungsgewinn IMMER unterhalb des Taktgewinns liegen muß.
Man mußte kein Nobelpreisträger sein, um sich Szenarien auszudenken, wo das anders sein kann und wo Benchmarks das Gegenteil beweisen, was ja auch geschehn ist.
Das dies in gewisser Weise in vorgegaukelter Effekt ist, das ist was ganz anderes ;)

Natürlich, ich muß zugeben, als ich jetzt auf die 6950 umgestiegen bin, habe ich keine Vergleichstests gemacht - möglicherweise ist jetzt tatsächlich kein Unterschied mehr sichtbar und ich meine jetzt nicht bloß ein Monitortestbild, sondern real Spiele/Anwendungen.

Was ich sagen will, eine praktisch gemachte Erfahrung von vorneherein abzulehnen, weil es nicht in den theoretischen Erwartungshorizont past, ist ein Zeichen von entweder Arroganz, oder Ignoranz!

Aber das muß man jetzt nicht ausweiten in einen Meinungskrieg, ich bin happy so wie es ist und das andere, darüber kann man philosophieren :)

anddill
2011-10-25, 14:14:08
Verwechselt mal nicht Desktop und Spiele. In Spielen wirkt das Bild der ATI/AMD Karten knackiger. Das liegt aber nicht an anderen Farben, sondern an unterschiedlichen Vorgaben für LOD und Texturfilter.
Oder man hat aus Versehen bei NV mal auf diese Desktop-Buntmach Funktion geklickt. Wirkt unnatürlich und aufdringlich. Dann liegt das aber am User, der den Ausschalter nicht findet.

uweskw
2011-10-26, 03:26:32
... In Spielen wirkt das Bild der ATI/AMD Karten knackiger....

Da sprichst du eine Wahrheit gelassen aus.
Ich bin von einer 4850 auf eine GTX 460 umgestiegen. Die physX Effekte in Batman und Alice möchte ich nicht mehr missen. Andererseits wirkt es jetzt mit NV immer irgendwie blasser, verwaschener, lebloser.
So kann ich mich fürs aufrüsten grad garnicht entscheiden. HD 6950 und freischalten oder für nen paar € mehr ne 570 GTX. Die sollen aber im neuen Referenz Design recht laut und kaum OC fähig sein....

Coda
2011-10-26, 11:04:22
Ich verwette sonstwas drauf, dass du in einem doppelten Blindtest bei gleicher Farbkalibrierung nichtmal einen Unterschied ausmachen könntest.

Das bisschen mehr Texturflimmern bei ATi macht das Bild sicher nicht weniger "leblos", "blass" und "verwaschen". Vor allem nicht zweiteres. Die Farben sind exakt gleich.

Und nur zur Info: Die nächste ATI-Generation wird dann auch so einen schrecklich "leblosen" Texturfilter haben, weil sie den Bug gefixt haben, der das Flimmern erzeugt hat.

N0Thing
2011-10-26, 11:31:55
Diesen Eindruck gab es auch schon zu Zeiten der X1950 und da kann es nicht am schlechten Filter gelegen haben.
Damals waren aber auch VGA-Anschlüsse noch recht weit verbreitet, was die Unterschiedlichen Wahrnehmungen zwischen Nvidia und ATI erklären könnte.

Vielleicht steckt diese Erwartungshaltung auch heute noch in den Köpfen und man sieht einen Unterschied, der gar nicht vorhanden ist.

Odal
2011-10-26, 11:49:03
Oder man hat aus Versehen bei NV mal auf diese Desktop-Buntmach Funktion geklickt. Wirkt unnatürlich und aufdringlich. Dann liegt das aber am User, der den Ausschalter nicht findet.

Meinst du Digital Vibrance/Digitale Farbanpassung? Diese Funktion ist für mich sehr nützlich bei all diesen farbarmen Braun und Grauschleier Spielen die es heutzutage gibt. Das ding so um 10-20% erhöht kann manchmal Wunder wirken