Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Launch-Analyse: nVidia GeForce GTX 560 Ti


Leonidas
2011-01-25, 20:19:05
Link zum Artikel:
http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-560-ti


Update 26.1. 06:40
Stromverbrauchswerte der 6950 aufgrund neuer Messungen von HT4U geändert von:
20W 44W 150W 185W
auf:
22W 44W 163W 213W

Update 26.1. 08:20
Nachtrag mit Preis/Leistungs-Tabelle, Aufteilung auf zwei Seiten

Deinorius
2011-01-25, 21:55:57
Wos is? Was ist beim Fazit bitte so schwer zu verstehen, dass es sich einseitig liest?

Die Radeon HD 6950 ist eine genauso gangbare Lösung - genauso wie auch die Radeon HD 5870 und 6870, die Unterschiede zur Geforce GTX 560 Ti sind überschaubar gering und man kann sich daher beim Kartenkauf zwischen diesen Angeboten problemlos von subjektiven Eindrücken leiten lassen.


Und der letzte Satz ist doch wohl eindeutig.

Die Geforce GTX 560 Ti ist sicherlich erstklassig ausgefallen, aber die AMD-Konkurrenz spielt zumindest in der gleichen Liga mit.


Sollen sie die nvidia Karte schlecht machen, damits für dich neutral ausfällt?

und dann ist plötzlich der stromverbauch hier gleichzusetzen mit der 6950. man bedient sich wieder bei der pcgh, die mit der direkten empfehlung zu nvidia. (irgendwovon müssen ja die werbeaufträge kommen)
Zitat cb:
"Unter Last sieht es für den neuesten Nvidia-Spross dann weniger gut aus, denn mit 356 Watt reiht sich die Grafikkarte schon im oberen Mittelfeld ein. "



Der Stromverbrauch kommt von HT4U, die man eher als Referenz für den Stromverbrauch ansehen darf als CB. Deren Stromwerte schau ich mir gar nicht mal mehr an. :P

Undergroundking
2011-01-25, 22:02:46
ja hallo? "die amd konkurrenz spielt zumindest in einer liga"?

achte mal auf die wortwahl. "zumindest" wer war gemeint? ok, wenn die 6870 gemeint war... jeder mit ein wenig ahnung von marketing und beinflussung (manipulation) hat, weiß, was solch wortwahl beim leser bewirkt. "spielt eben son bissle mit, aber ist halt nicht so gut" wer will das abstreiten?

die 6950 mit der höheren leistung, dem geringerenstromverbrauch und den 2 GB vram und der möglichkeit zum freischalten (was hier auch irgendwie vollkommen untergegangen ist), ist meiner meinung nach nicht zumindest in einer liga, sondern eher das zukunftssichere und bessere modell. ne liga höher eben.

was wird hier von der möglichkeit zum übertakten philosophiert und nicht erwähnt, dass man im gegenbeispiel aus ner 6950 ne 6970 machen kann. mit ner wahrscheinlichkeit nah an 100%
und absolut sicher dank dualbios.

Ziata von hier:
"Man kann ganz grob von einem Gleichstand sprechen, im genauen ist die Radeon HD 6950 aber gewöhnlich zwischen 0 und 5 Prozent schneller – also im eigentlich unrelevanten Bereich, wo dann eher andere Punkte entscheiden sollten."

aha. in 30er auflösung mit aa ist die 6950 laut cb nur schlappe 15% schneller als die nvidia. aber auch egal, gelle... zählt nicht :D

was waren denn die anderen punkte? die handvoll games mit lächerlicher gpu physx? oder cuda? das nerdprogramm? für... öhmm.. wofür eigentlich?..

oder kommt nun wieder das angebliche "flimmern" um von nvidias unscharfer matschgrafik abzulenken?

Gast
2011-01-25, 22:41:21
Ich find den Artikel eigentlich recht Objektiv.

Ich weiß garnicht ob dem lieben Nvidia Hasser über mir aufgefallen ist das die 560 einen extrem geringen Idle Verbrauch hat. Ich bin mit meinem Rechner deutlich mehr 2D als 3D unterwegs und ich denke so wird es vielen gehn. Ob ich jetzt 3 Stunden lang 5 Watt spare und dann eine Stunde zocke und 20 mehr verbrauche kommt irgendwie aufs gleiche raus.

Lautstärke der 560 ist jeder anderen Karte aktuell hoffnungslos überlegen.

Das Argument mit dem 30" ist sehr Fragwürdig. Wenn ich genug Kohle für nen vernünftigen 30" habe werd ich mir auch was größeres als ne 560 oder 6950 kaufen oder?

Eine 6950 auf ne 6970 bringt 15%. Ne 560 lässt sich auch gut 15% übertakten.


Ich kann nicht erkennen wo AMD oder Nvidia deutlich überlegen wäre. Auch steht nirgends im Artikel das die AMD Karten nicht mithalten würden!


Und damit ich hier nicht als Grüner dastehe, ich hab mir als letztes ne 4890 gekauft....

Deinorius
2011-01-25, 22:46:25
Geringerer Stromverbrauch? Ich verweise nochmal auf HT4U. Schau dir die Werte der beiden 6950 Muster an und sag noch mal, dass die nvidia merklich mehr verbraucht. Du kannst jetzt natürlich mit den Werten von CB und Anandtech kommen, von mir aus, zählen die rund 20 W höherer Verbrauch in die subjektive Kategorie. Du kannst dich jetzt weiter darüber streiten, welche Werte besser sind, oder HT4U ebenso vorwerfen, sie seien parteiisch. ;D

Die Leistung der 6950 ist nun mal zwischen 0 und 5,7 % höher, wo nun mal nur noch subjektive Eindrücke übrig bleiben, welche Karte man sich eher kaufen würde. Nicht jeder schaut nur auf die Leistung, wenns nur darum ginge, würde ich mir auch wieder eine ATI/AMD kaufen. Die 5 % erreicht man dann auch durch Übertakten der Geforce. Das Freischalten auf 6970, ist zwar ein tolles Feature, aber bald nimma möglich und mit der 1 GB Version schon mal gar nicht, was im Text auch als Vorteil für die AMD Karte genannt wird.
Sollen die in einem Artikel zu einer nvidia Karte etwa AMD Features ausgiebig wiederholen, die schon in vorigen Artikeln erwähnt wurden?

aha. in 30er auflösung mit aa ist die 6950 laut cb nur schlappe 15% schneller als die nvidia. aber auch egal, gelle... zählt nicht :D


Zählt nicht? Du liest den Text auch nicht vollständig durch, was?

Allerdings hat die AMD Karte weiterhin ihren erheblichen Vorteil unter sehr hohen Auflösungen (2560x1600), dort zieht sie dann der Geforce GTX 560 Ti schnell mit 10 % und mehr davon.

Undergroundking
2011-01-25, 23:07:00
nunja, die leistung der 560 ist auch oft auf niveau der 6870 und keinenfalls höher.

bzw in 30er auflösung ohne aa ist die 6870 laut cb 5% schneller als ne 560.

tja. und wenn ich nun nen 30er hab und aufgrund der auflösung auf aa versichten möchte, da in der auflösung eh die meisten games ohne aa viel besser laufen?

dann ist wohl die 6870 für 190€ die bessere wahl. gelle? und dann muß sich die 560 mit der 6870 vergleichen und noch nicht mal mit der 6950, die eh ne klasse besser ist....

Deinorius
2011-01-25, 23:22:15
Oft? Ohne AA liegt die nvidia Karte bei HT4U näher bei der 6950 als bei der 6870. Wennst immer ohne AA spielst (klar...), bitte. Ändert aber nichts am Fazit. Wer einen 30" besitzt, darf selber nach eigenen subjektiven Eindrücken entscheiden. Das gilt für jede Diagonale.

Hier mit lächerlichen Argumenten herziehen und damit Vorwürfe von sich geben, die nicht stichhaltig sind, ist traurig.

Knuddelbearli
2011-01-25, 23:29:27
naja der artikel selber ist schon leicht NV lastig das fazit dann aber gar nicht mehr

Undergroundking
2011-01-25, 23:36:57
Oft? Ohne AA liegt die nvidia Karte bei HT4U näher bei der 6950 als bei der 6870. Wennst immer ohne AA spielst (klar...), bitte. Ändert aber nichts am Fazit. Wer einen 30" besitzt, darf selber nach eigenen subjektiven Eindrücken entscheiden. Das gilt für jede Diagonale.

Hier mit lächerlichen Argumenten herziehen und damit Vorwürfe von sich geben, die nicht stichhaltig sind, ist traurig.


du bist ja genauso selektiv. kommst mir mit ausgesuchten seiten, die deiner meinung entsprechen.

bei cb liegen 6870 und 560 ohne aa auf einem niveau. punkt aus.
fakt!
und cb ist nicht unseriös oder? vielleicht liegts auch nur an der spieleauswahl? damit kann man eh viel manipulieren, dass weiß jeder, oder?

wenn du jetzt aufgrund einer anderen publikation eine andere meinung vertrittst, ok.

meine intention war nur folgende, wieso wird hier auf der seite eben bei vielen aspekten immer bezug auf "nvidiafreundliche" seiten genommen und das als tatsache dargestellt? und weiterverbereitet? und das meiner meinung nach wirklich krass selektiv.

somit erweckt man den eindruck der unobjektivität. das ist leider so.

PuppetMaster
2011-01-25, 23:38:56
[...] denn die Radeon HD 6950 1GB bietet gleiches bei den Punkten Performance, Preis und Stromverbrauch und liegt nur bei der Übertaktungseignung und der Referenzkühlung zurück. Dafür bietet die Radeon HD 6950 momentan noch die Option, diese Karte zur Radeon HD 6970 freizuschalten [...]

Hieß es nicht, dass die 6950 1 GB ebenso wie zukünftige Revisionen nicht mehr freischaltbar wäre?

Undergroundking
2011-01-25, 23:48:44
Hieß es nicht, dass die 6950 1 GB ebenso wie zukünftige Revisionen nicht mehr freischaltbar wäre?

die 1 gb version hat kein dualbios mehr, von daher gibts dort keine gefahrlose möglichkeit zu flashen und ich würde es unterlassen.

aber ne 2 gb 6950 mit dualbios kriegt man auch inzwischen für 236€.

und der geringe aufpreis zur 560 ist wohl alleine durch den doppelten speicher und der daraus erfolgenden besseren zukunftsauglichkeit wohl mehr als gerechtfertigt und diese ist unbedingt zu empfehlen.

ich mag mir zb nicht jedes halbe jahr ne neue karte kaufen, weil der speicher ausgeht....

Deinorius
2011-01-25, 23:56:31
naja der artikel selber ist schon leicht NV lastig das fazit dann aber gar nicht mehr


Da die 560 der Hauptakteur des Artikels ist, geht das ja in Ordnung.

du bist ja genauso selektiv. kommst mir mit ausgesuchten seiten, die deiner meinung entsprechen.


Da du ja nicht anders handelst, geht das ja in Ordnung. :biggrin:

Du findest es krass selektiv? Wenn ich mir das Fazit ansehe, dann seh ich aber nichts davon?

Undergroundking
2011-01-25, 23:59:55
Da die 560 der Hauptakteur des Artikels ist, geht das ja in Ordnung.
?


selten so gelacht.

mal ein beispiel, ein bericht vom cdu parteitag darf bzw soll auch pro cdu sein, weil die cdu ja das thema war?
omg. ich hab keine weiteren fragen mehr, irgendwann hört alles auf

Deinorius
2011-01-26, 00:18:41
Ah, sehr schön.

MadManniMan
2011-01-26, 00:26:03
oder kommt nun wieder das angebliche "flimmern" um von nvidias unscharfer matschgrafik abzulenken?

Und Du erhebst den Anspruch, objektiv zu sein?

kahlchen
2011-01-26, 01:57:22
ja hallo? "die amd konkurrenz spielt zumindest in einer liga"?

achte mal auf die wortwahl. "zumindest" wer war gemeint? ok, wenn die 6870 gemeint war... jeder mit ein wenig ahnung von marketing und beinflussung (manipulation) hat, weiß, was solch wortwahl beim leser bewirkt. "spielt eben son bissle mit, aber ist halt nicht so gut" wer will das abstreiten?

die 6950 mit der höheren leistung, dem geringerenstromverbrauch und den 2 GB vram und der möglichkeit zum freischalten (was hier auch irgendwie vollkommen untergegangen ist), ist meiner meinung nach nicht zumindest in einer liga, sondern eher das zukunftssichere und bessere modell. ne liga höher eben.

was wird hier von der möglichkeit zum übertakten philosophiert und nicht erwähnt, dass man im gegenbeispiel aus ner 6950 ne 6970 machen kann. mit ner wahrscheinlichkeit nah an 100%
und absolut sicher dank dualbios.

Ziata von hier:
"Man kann ganz grob von einem Gleichstand sprechen, im genauen ist die Radeon HD 6950 aber gewöhnlich zwischen 0 und 5 Prozent schneller – also im eigentlich unrelevanten Bereich, wo dann eher andere Punkte entscheiden sollten."

aha. in 30er auflösung mit aa ist die 6950 laut cb nur schlappe 15% schneller als die nvidia. aber auch egal, gelle... zählt nicht :D

was waren denn die anderen punkte? die handvoll games mit lächerlicher gpu physx? oder cuda? das nerdprogramm? für... öhmm.. wofür eigentlich?..

oder kommt nun wieder das angebliche "flimmern" um von nvidias unscharfer matschgrafik abzulenken?

Kann man hier im Forum einstellen, dass Posts von bestimmten Nutzern nicht mehr angezeigt werden?
Dann müsste zumindest ich mir diesen Quatsch nicht mehr reinziehen...

Die Frage war übrigens wirklich ernst gemeint.

Deinorius
2011-01-26, 02:17:31
Klar doch. Du kannst ihn einfach ignorieren. Damit meine ich die Forenfunktion.

Sentionline
2011-01-26, 06:58:32
Also ich finde die Ti gelungen. Fallbeispiel bei mir im Wohnzimmer:

1280x720 auf einem LCD mit 4xAA/16xAF in allen spielen, gewünschte laufruhe in 2D sowie 3D, möglichkeit die Rohleistung per SGSSAA und/oder Downsampling in WinXP in FPS umzusetzen. Unter 3D ok, Stromhungrig (aber sehr leise), im Idle beim YouTube schauen oder die nächste Doku anzuschmeissen mit dem MPC sehr sparsam.

Ich muss mir eine Nvidia kaufen. Nicht nur weil sie Wohnzimmer Rechner tauglich ist, sondern mir auch möglichkeiten bietet, diese NoAA Pest von den aktuellen Spielen weg zu bügeln (bsp: NFS:HP, AvP3, GTA4). Hinzu kommt schlicht die bessere Texturfilterung. Wenn ich schon keine UltraHighRes Auflösungen fahre, will ich die Optionen haben, die überschüssige Leistung in BQ zu stecken. Und glaubts mir, Spiele ohne AA Option sind die Pest. Erzeugen Augenkrebs und sind nicht angemessen heutzutage.

Konsoleros sei dank.

Wer kein Win7 will und somit auf DX10/11 verzichten kann, keine x1080 Auflösung verwendet und sich mehr BQ wünscht, kommt an Nvidia gar nicht vorbei. AMD unternimmt schlicht nichts für solche Anwender, die nicht immer das neuste haben (müssen). Schade.

Was mir noch auffällt, das hier keiner die Tesellationspower anspricht. Gehört das nicht auch in die "Zunkunftssicherheit" Sparte? Einst das Pro Argument der Nvidia gegner, nun komplett verstummt?

Frage VRAM ist auch so ne Sache. Hier (http://www.computerbase.de/forum/showpost.php?p=9249979&postcount=28) werd ich auf einen Link verwiesen, das GTA4 in 800x600 (0xAA/AF) auf 1,3GB VRAM Verbrauch kommt. Oder Quake 4 in 640x480 mit 8xAA/16xAF auf 1GB VRAM Verbrauch kommt. Was heisst das jetzt für mich? Hat noch nie einer GTA4 mit einer 512MB Karte gespielt weils so derbe ruckelt? Auf die Frage habe ich keine Antwort bekommen. Fehlender VRAM lässt sich m.E. sehr leicht jederzeit mit lokalem RAM ausgleichen. Denn ich spiele GTA4 in 1280x720. Butterweich. Somit ist das Pro Argument für die 2GB AMDs im keim erstickt. Da DDR3 Speicher jetzt einem hinterhergeworfen wird. Alles andere Bügelt Sandy Bridge gerade, womit ich ins OT schweife...

Knuddelbearli
2011-01-26, 07:43:14
Da die 560 der Hauptakteur des Artikels ist, geht das ja in Ordnung.




klar gehört der 560 die aufmerksamkeit ging mir ja nicht darum das die zuviel behandelt wurde ^^ sondern bisl selektiv und erst im fazit werden die kontras gebracht

und Tes wird nicht erwähnt da die auf einem lvl oder gar unter der von ATI ist ( 64x und solche spässchen wo dei rohleistung eh nicht ansatzweise ausreicht bei so ner karte mal aussen vor gelassen ) da die 560 um 50% beschnitten gegenüber dem 110 ist

Sentionline
2011-01-26, 07:57:12
und Tes wird nicht erwähnt da die auf einem lvl oder gar unter der von ATI ist ( 64x und solche spässchen wo dei rohleistung eh nicht ansatzweise ausreicht bei so ner karte mal aussen vor gelassen ) da die 560 um 50% beschnitten gegenüber dem 110 ist
Ist das so? (http://www.overclockers.at/articles/gtx-560-ti-vs-hd-6950-rollentausch/page_3) Schaut echt danach aus (http://www.tomshardware.com/reviews/nvidia-geforce-gtx-560-ti-gf114,2845-3.html), muss ich sagen (http://www.anandtech.com/show/4135/nvidias-geforce-gtx-560-ti-upsetting-the-250-market/15).

Die 1Ghz Variante mit 1GB ist einfach nur abartig schnell und überholt die HD6970 deutlich. Ich picke mal Unigine (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/17521-test-nvidia-geforce-gtx-560-ti.html?start=15) raus, wenn wir bei Tesselation und VRAM sind. Bitte beachten das die HD6970 auch 100€ mehr kostet und das Flagschiff von AMD darstellt (mehr Strom zieht, mehr VRAM hat, deutlich lauter ist und nach einigen Mutmasungen mehr Tesselationspower hat). 2560x1600 kann man rauslassen, das nutzt keiner in dieser Klasse um mit den Karten ernsthaft zum Spielen/Benchen.

Meiner Ansicht nach eignet sich die Karte hervorragend für Leute, die ne weile ruhe haben wollen, sich vor VRAM Verbrauch / Tesselationslastige Spiele in Zukunft nicht fürchten sollten. Manches das gestreut wird ist schlicht unwissen oder bezug auf eine Testquelle. Für 200€ eine verdammt gute Ti, die den Zusatz auch verdient. Gut sie zieht unter 3D mehr Strom, dafür bringt sie aber auch die Leistung. Ansonsten sehe ich nur Plus Werte ohne Kontras.

Dark_angel
2011-01-26, 09:32:22
Ist das so? (http://www.overclockers.at/articles/gtx-560-ti-vs-hd-6950-rollentausch/page_3) Schaut echt danach aus (http://www.tomshardware.com/reviews/nvidia-geforce-gtx-560-ti-gf114,2845-3.html), muss ich sagen (http://www.anandtech.com/show/4135/nvidias-geforce-gtx-560-ti-upsetting-the-250-market/15).

Die 1Ghz Variante mit 1GB ist einfach nur abartig schnell und überholt die HD6970 deutlich. Ich picke mal Unigine (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/17521-test-nvidia-geforce-gtx-560-ti.html?start=15) raus, wenn wir bei Tesselation und VRAM sind. Bitte beachten das die HD6970 auch 100€ mehr kostet und das Flagschiff von AMD darstellt (mehr Strom zieht, mehr VRAM hat, deutlich lauter ist und nach einigen Mutmasungen mehr Tesselationspower hat). 2560x1600 kann man rauslassen, das nutzt keiner in dieser Klasse um mit den Karten ernsthaft zum Spielen/Benchen.

Meiner Ansicht nach eignet sich die Karte hervorragend für Leute, die ne weile ruhe haben wollen, sich vor VRAM Verbrauch / Tesselationslastige Spiele in Zukunft nicht fürchten sollten. Manches das gestreut wird ist schlicht unwissen oder bezug auf eine Testquelle. Für 200€ eine verdammt gute Ti, die den Zusatz auch verdient. Gut sie zieht unter 3D mehr Strom, dafür bringt sie aber auch die Leistung. Ansonsten sehe ich nur Plus Werte ohne Kontras.

Schau die mal bei der Die 1Ghz Variante den Stromverbrauch an, der ist auch einfach nur abartig;D So lange wie das bei der HD6950 mit dem Freischalten noch funktioniert, ist sie das Maß aller Dinge, eine Freigeschaltete HD6950 läuft bei den meisten mit der Default Spannung einer HD6950 und mit den werten einer HD6970, das nenne ich abartig;D

BloodHound
2011-01-26, 10:11:40
Frage zum (meiner Meinung nach guten) Artikel, Seite 1

Zitat:
Vielmehr nähert sich die GeForce GTX 560 Ti von ihren Rohleistungen her sogar einer GeForce GTX 570 an – wobei hier der im obigen Diagramm nicht abgebildete Punkt einzurechnen ist, daß die GeForce GTX 560 Ti nur über 2 Raster-Engines und 7 Polymorph-Engines verfügt, die GeForce GTX 570 dagegen mit 4 Raster-Engines und 15 Polymorph-Engines um nahezu das doppelte.

Steht nicht ganz oben in der Gegenüberstellung was von acht Polymorph-Engines?

Oberst
2011-01-26, 12:12:47
Hallo,
also ich kann die Kritik von Undergrundking durchaus nachvollziehen. Für mich liest sich das Fazit auch so, dass die AMD Karten eine "Alternative" sind, aber eigentlich die GTX560 die bessere Wahl ist. Dafür sorgt der Satz Die GeForce GTX 560 Ti ist sicherlich erstklassig ausgefallen, aber die AMD-Konkurrenz spielt zumindest in der gleichen Liga mit Wäre der nicht drin, fände ich den Artikel sehr gut (vor allem die Gegenüberstellung/Tabelle ist gut gelungen).
Vielleicht sollte man mal mit dem Launchartikel (http://www.3dcenter.org/artikel/zum-launch-von-radeon-hd-6950-6970/nachtraege)der 6950/6970 vergleichen, da liest sich der Text nämlich bei weitem nicht so euphorisch. Und das, obwohl man die 6950 jetzt auf einem Niveau mit der GTX560 sieht. Beim Launch der 6950 wurde hingegen noch klar zur 5870 geraten (auf Grund der günstigeren Preise; dass der Preis einer neuen Karte aber innerhalb kürzester Zeit fällt, sollte man doch wissen). Inzwischen sieht man 5870 und 6950 hingegen auf einem ähnlichen Niveau und beide als direkte und ebenbürtige Konkurrenten zur GTX560. Nur war eben in beiden Artikeln der Tenor ein sehr verschiedener.

Auch das mit dem Verbrauchswerten ist nicht ideal gelöst. Korrekterweise hätte man beide Messwerte nennen sollen, und nicht nur zunächst die Besseren und dann die Schlechteren. Leider hat HT4U ja nicht die 2. Karte vermessen, sonst hätte man eventuell sehen können, warum die mehr verbraucht als das erste Muster (vielleicht höhere Spannung?).

Dass HT4U einen klasse Job macht, steht sicher fest. Seit dem Test der 4870 habe ich aber durchaus das Gefühl, dass sie teilweise eher zu NVidia tendieren, sonst hätten sie das "Temperaturproblem" damals klarer dementiert. Wenn man schon so einen Bock schießt, dann muss man den Fehler auch deutlich wieder klarstellen. Und das haben sie meiner Meinung nach versäumt (genauso wie herauszufinden, warum das 2. Muster der 6950 mehr verbraucht).

Das Freischalt-Feature der 6950 sehe ich übrigens auch nicht als Killer Feature, die zusätzlichen Shader bringen ja kaum was. Wenn möglich nimmt man die mit, aber dass sie dadurch jetzt interessanter ist als später mit Laserlock finde ich nicht. Dafür bringen die Shader zu wenig Mehrleistung (den Großteil macht einfach der Takt aus).

Im Endeffekt stört mich eigentlich nur der eine Satz, den auch UGK störend fand. Denn an der GTX560 gibt's ja kaum was zu meckern. Tolle Leistung zu einem passenden Preis, ein überragend leiser Kühler (auch wenn durch das niedrige Betriebsgeräusch die Temperaturen der Wandler und der Kartenrückseite relativ hoch sind) und ein guter Verbrauch. Rundum eine gute Karte, nicht besser und nicht schlechter als die Alternativen von AMD, nur mit anderen Schwerpunkten. Das kam im Fazit auch heraus, aber der eine Satz passt da eben nicht so rein.
M.f.G.

LovesuckZ
2011-01-26, 14:22:21
Die Diskussionen um eine Auflösung ab 2560xXXXX sind doch im grunde ziemlich lächerlich. Hier in Deutschland muss man mindesten 660€ für solch einen Monitor ausgeben. Nur mal als Vergleich, was man sich anstelle des Monitors kaufen könnte:
2x GTX560 von MSI mit 880MHz für 424€
1x sehr guten 1080p Monitor für 200€
1x Aufpreis für ein SLI-fähiges Mainboard 50€

Macht zusammen: 674€.
Und jetzt hat man nicht nur alles Sachen beienander, man hat auch 80% Mehrleistung durch SLI sowie die zusätzliche Mehrleistung aufgrund der kleineren Auflösung. Und diese zusätzliche Leistung kann man in mehr BQ und/oder mehr FPS investieren.

Wer auf 2560x angewiesen ist, der hat das Geld für eine leistungsstärkere Karte sowieso über und muss sich nicht um die 200€ herumbewegen.

Sentionline
2011-01-26, 14:29:05
Gleich sehen alle die Stromrechnung und mikroruckeln über den Tisch...:freak: Sei doch nicht so laut. Aber Hey...Eyefinity. :eek:

Mir persönlich würde die SLI + 3D-Vision Brille + 120hz Monitor Version besser zusagen. Inkl. SGSSAA. OMG wäre das ein geiles Bild :biggrin: Schade das es nur unter Direct3D funktioniert. Amnesia in 3D wäre echt heftig...wenns nicht OpenGL wäre...

Ich würde niemals auf die Idee kommen ein Riesenschirm zu kaufen. 1920x find ich persönlich ein viel zu großes Desktop und in Spielen viel zu kleine Texte/Anzeigen. Liegt womöglich im Auge des betrachters.

Schau die mal bei der Die 1Ghz Variante den Stromverbrauch an, der ist auch einfach nur abartig;D
Ach komm, so viel ist das jetzt auch nicht. :rolleyes: Die HD6970 und die 1Ghz GTX560Ti trennen 10 Watt unter Last. Fällt unter Messungenauigkeit + 100€ gespart (kann man in einen sparsamen SB investieren). Hast du eigendlich auch erwähnt, das die Garantie verloren geht, wenn beim flashen der HD6950 was schief geht, oder hast du erwähnt das die 1Ghz GTX560Ti mit Garantie daherkommt? Oder hast du erwähnt das man die HD6950 garantiert auf HD6970 geflasht bekommt?

Sichte gerade die Sparkle (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2011/januar/gtx-560-ti-mit-1-ghz-chiptakt-von-sparkle-und-gigabyte/). Übles Teil...

Knuddelbearli
2011-01-26, 23:09:24
Die Diskussionen um eine Auflösung ab 2560xXXXX sind doch im grunde ziemlich lächerlich. Hier in Deutschland muss man mindesten 660€ für solch einen Monitor ausgeben. Nur mal als Vergleich, was man sich anstelle des Monitors kaufen könnte:
2x GTX560 von MSI mit 880MHz für 424€
1x sehr guten 1080p Monitor für 200€
1x Aufpreis für ein SLI-fähiges Mainboard 50€

Macht zusammen: 674€.
Und jetzt hat man nicht nur alles Sachen beienander, man hat auch 80% Mehrleistung durch SLI sowie die zusätzliche Mehrleistung aufgrund der kleineren Auflösung. Und diese zusätzliche Leistung kann man in mehr BQ und/oder mehr FPS investieren.

Wer auf 2560x angewiesen ist, der hat das Geld für eine leistungsstärkere Karte sowieso über und muss sich nicht um die 200€ herumbewegen.

gleichzeitig wird 3D immer extrem beworben ...

und Mikroruckler inklusive

und die meisten leute haben nicht soviel geld weill sie das geld aus dem fenster schmeissen wieso sollte ich 200€ mehr ausgeben + höheren evrbrauch wenns auch weniger tut

als kleiner fanboy darfste deinen partner natürlich gerne weiter unterstüzen ...

Leonidas
2011-01-30, 18:36:20
Frage zum (meiner Meinung nach guten) Artikel, Seite 1

Zitat:
Vielmehr nähert sich die GeForce GTX 560 Ti von ihren Rohleistungen her sogar einer GeForce GTX 570 an – wobei hier der im obigen Diagramm nicht abgebildete Punkt einzurechnen ist, daß die GeForce GTX 560 Ti nur über 2 Raster-Engines und 7 Polymorph-Engines verfügt, die GeForce GTX 570 dagegen mit 4 Raster-Engines und 15 Polymorph-Engines um nahezu das doppelte.

Steht nicht ganz oben in der Gegenüberstellung was von acht Polymorph-Engines?


Ein Fehler, es sind 8 bei der 560Ti (und 7 bei der 460). Gefixt.






Rundum eine gute Karte, nicht besser und nicht schlechter als die Alternativen von AMD, nur mit anderen Schwerpunkten. Das kam im Fazit auch heraus, aber der eine Satz passt da eben nicht so rein.
M.f.G.



Danke für die ausformulierte Kritik. Stimmt alles und auch die Sache mit dem letzten Satz passt - der war vielleicht nicht ganz so passend oder wurde zumindest anders aufgefasst als von mir gemeint. Aber ok, man lernt (immer noch) dazu.




Ansonsten generell: Der eine sagt, 2560 wäre lächerlich. Der andere will 3D-Support, der nächste findet die Freischaltung nicht so wesentlich. Andere wiederum brauchen Eyefinity, etc. etc. etc. - genau deswegen ja die Tabelle am Ende des Artikels, wo gerade die diversen Unterschiede aufgelistet sind. In einem Meer guter Angebote kann man sich ruhig von subjektiven Vorlieben treiben lassen - womit ich dann nicht gezwungen bin, in diesem Feld subjektiver Nutzungseigenschaften irgendwelche absoluten Sieger küren zu müssen.