PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 260 mit 216SPs: (P)Review-Thread - war: Test zur GTX 260 GOLD


Silverbuster
2008-09-14, 15:13:20
Hier ein schöner Vergleich zwischen der alten 260GTX und der 260GTX Gold :smile: (http://www.hkepc.com/?id=1684&page=2&fs=idn#view)


weitere Tests:
Anandtech (http://www.anandtech.com/video/showdoc.aspx?i=3408)
Techpowerup (http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_260_Amp2_Edition/)
Guru3d (http://www.guru3d.com/article/geforce-gtx-260-core-216--bfg-ocx-maxcore/1)
HardwareCanucks (http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/10103-evga-geforce-gtx-260-core-216-216-sp-superclocked-edition-review.html)
Hothardware (http://www.hothardware.com/Articles/NVIDIA-GeForce-GTX-260-Core-216-EVGA-Zotac/?page=2)
Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/)

Gast
2008-09-14, 15:43:43
Die 8xAA Werte würde ich nicht zu hoch bewerten, am Ende war es CSAA. Aber an Lost Planet und Crysis sieht man, da is noch kein CPU Limit, da bringt der Cluster was.

Raff
2008-09-14, 15:54:44
Maximal 9 Prozent mehr Dampf. War zu erwarten. Wenn sie die "alte" GTX 260 ersetzt und dann genauso viel kostet, ist das nett. Aber: Braucht wirlich irgendjemand diese Zwischenstufe? Außer Nvidia – die können die HD 4870 damit besser kontern.

MfG,
Raff

Silverbuster
2008-09-14, 16:04:43
Ich denke damit wollte man sich besser zur 4870 positionieren. In bisherigen Tests schneidet die 260GTX ja quasi gleichauf mit der 4870 ab. Das ist aber schlecht für das Marketing. MIt diesem kleinen Update hat man es geschafft sich hauchzart vor die 4870 zu setzen. In der Werbung klingt das dann so "Schneller als 4870", stimmt, aber der Vorsprung ist irrelevant, was aber die meisten User gar nicht interessiert. Hauptsache schneller.

Gast
2008-09-14, 16:14:53
Nicht zu vergessen, funktionierendem 2D Modus :)

Spass beiseite, keine Namensänderung ist, wie bei NV leider "üblich" totaler Bullshit. Glücksache so eine Karte zu bekommen, bis zum EOL werden beide Kartentypen auf dem Markt sein. Das finde ich, wie schon bei den kleineren Karten die auf 55nm shrumpfen, ziemlich blöde.
Kein richtiges offizielles Unterscheidungsmerkmal, die Shops müssen sich auf Retouren versierter User einstellen und man hat nur Ärger, wenn man eine entsprechende Karte ergattern will (in den ersten 2 Monaten zumindest wirds extrem).

James Ryan
2008-09-14, 16:24:13
Aber: Braucht wirlich irgendjemand diese Zwischenstufe?

Ich finde die Karte durchaus interessant:
Sie braucht nur 2 "normale" 6 PIN-Stromanschlüsse, frisst deutlich weniger Strom als eine GTX280, bleibt kühler und bietet aber eine relativ ähnliche Leistung wie ihre große Schwester.
Außerdem lassen sich GTX260 Karten sehr gut übertakten.
Bleibt nur die Frage nach dem Preis. Eigentlich sollte die Karte nicht mehr als 210,- kosten, bedenkt man die Leistung und den Preis einer HD4870.

MfG :cool:

Gast
2008-09-14, 16:26:12
wird die Gold-Edition-GPU in 55nm gefertigt?

Gast
2008-09-14, 16:38:28
datrauf habe ich gewartet...jetzt wäre es nur noch interessant wie die Gold im Vergleich zur 4870 mit 1 GB ram anschneidet

r@h
2008-09-14, 16:50:52
Da der Mehrspeicher bei den 48x0 so gut wie nix bringt... dürfte des genauso aussehen.
Sehr interessante Karte... wenn tatsächlich zum Preis der günstigsten GTX260 'old'.

Razor

Gast
2008-09-14, 16:58:13
Interessant zum Übertakten wäre, wenn der Chip ein neues Stepping hätte!

Gast
2008-09-14, 17:03:26
der mehrspeicher wir bei kommenden games schon was bringen

ich erinnere immer wieder an die TI 4200 wo auch alle gesagt haben dass die 128 MB Version nicht schneller ist und 2 Monate später kam nen Game raus ( ich glaube es war Unreal 2 ) wo sie dann 30% schneller war

Die Frage ist aber trotzdem wie man an die neue GTX 260 kommt...Nvidea ist sooooo doof....nen Käufer wie mich hätten sie dazu bewegt die GTX 260 anstatt der ATI zu kaufen ...aber wenn ich nicht weiß wo ich sie bekomm weil sie genauso heißt wie die late GTX 260 ,dann bringt das nix

Und einen auf assozial machen und Karten bestellen um sie dann wieder zurückzuschicken mach ich net

Die Leute die sowas machen sind nämlich genau die,die sich dannbeschweren wenn sie Rückläufer bekommen!!!

Silverbuster
2008-09-14, 17:04:51
Da der Mehrspeicher bei den 48x0 so gut wie nix bringt... dürfte des genauso aussehen.
Sehr interessante Karte... wenn tatsächlich zum Preis der günstigsten GTX260 'old'.

Razor

Was für ein "Mehrspeicher"? In der Regel hat die 4870 512MB (Die paar 1GB Verionen mal außen vor gelassen) Die 260GTX hat regulär 896MB!

Schlammsau
2008-09-14, 17:05:42
wenn sie nicht teurer als die aktuelle 260' wird, kann man mit der neuen Karte leben!
Möchte nur wissen, wie nV das machen will. Da sie ja die alte Karte schon deutlich unter dem veranschlagtem Preis "vrscherbeln" müssen! Ich denke, dass die 4870 noch billiger werden kann und es bald auch werden wird. Das wird dann der Konter von ATi werden.
Aber eigentlich schadet nV sich nur selber, jetzt hat man nochg weniger Gründe für die 280'.......

r@h
2008-09-14, 17:07:12
der mehrspeicher wir bei kommenden games schon was bringen
Reine Spekulation... derzeit bringts nullkommanichts... bei ATI.
OK, wenn man ultra-hohe Auflösungen fährt vielleicht (2500 aufwärts und auch dann nur marginal)...

Bei nVidia allerdings kanns offenbar gar nicht genug Speicher sein.
Obwohl hier der Unterschied zw. GTX280 und GTX260 (egal ob alt oder neu) ebenfalls mit nullkommanix ins Gewicht fallen dürfte.

Razor

r@h
2008-09-14, 17:08:53
wenn sie nicht teurer als die aktuelle 260' wird, kann man mit der neuen Karte leben!
Nur, wenn es dann auch endlich mal alternative und effiziente Lüfter-Systeme dafür gibt.
In der derzeitigen Situation würde ich mir keine GTX2x0 zulegen...

Razor

P.S.: Wasserkühlung kommt bei mir nicht in Frage... des muss 'intelligenter' gehen.

Gast
2008-09-14, 17:24:35
Da der Mehrspeicher bei den 48x0 so gut wie nix bringt... dürfte des genauso aussehen.

Razor

Reine Spekulation... derzeit bringts nullkommanichts... bei ATI.


Razor

Kannst du das mit Benchmarks beweisen oder sollen wir die von dir völlig aus der Luft gegriffene Aussagen so einfach glauben?

Gast
2008-09-14, 17:57:20
immer wieder diese argument*bingt im mOment nix*....damals bei der TI 4200 hats auch im Moment nix gebracht bis dann das erste Game rauskam wo es 30% Mehrleistung warn

DrFreaK666
2008-09-14, 23:20:14
immer wieder diese argument*bingt im mOment nix*....damals bei der TI 4200 hats auch im Moment nix gebracht bis dann das erste Game rauskam wo es 30% Mehrleistung warn

Also wenn es in Crysis gerade mal 2FPS ausmacht dann glaube ich nicht, dass andere games mehr davon profitieren.
Ich bin jedenfalls gespannt wieviel die karte kosten wird.
Habe gerade ca. 300€ Steuern zurück bekommen :biggrin:

Gast
2008-09-15, 08:56:45
wenn das 2FPS mini sind,sind das schon 5FPS mehr mini sogar gegenüber der X2.....keine Ahnung was ATI da versaut...doppelte max FPS zb.in Crysis und 4 FPS weniger mini..ein absoluter Witz..naja Hauptsache nen langen Balken...

Gast
2008-09-15, 11:51:58
der mehrspeicher wir bei kommenden games schon was bringen

sehe ich auch so, wenn wenig bis garkein aufpreis vorhanden ist, sind karten mit mehr speicher imo immer zu bevorzugen.

auch bei den gerade vorgestellten 4670-karten, was bringen einem die vielleicht 10% mehrperformance der 512er-version in spielen in denen der speicher ausreicht, die spürt man eh nicht. die 30-50% die potentiell entstehen könnten wenn der speicher nicht ausreicht spürt man dagegen deutlich.

user77
2008-09-15, 12:05:46
warum wird die nicht GTX 265 oder GTX 270 genannt?

Wie Marketingabteilung von NV gehört zum Mond geschossen!

VooDoo7mx
2008-09-15, 13:11:17
Ich glaube sie wird sogar GTX260+ heißen.

Modulor
2008-09-15, 13:17:01
warum wird die nicht GTX 265 oder GTX 270 genannt?

Wie Marketingabteilung von NV gehört zum Mond geschossen!

Da wohl alle Anbieter die neuen Karten auch in irgend einer Weise kennzeichnen/umbenennen werden (z.B. "Gold" und "260²") sehe ich darin kein Problem.Notfalls muß man sich beim Händler die Eigenschaft der 216 Prozessoren schriftlich zusichern/auf der Rechnung vermerken lassen,wer das als Händler nicht macht bleibt sowieso drauf sitzen...:popcorn:

Gast
2008-09-15, 14:23:56
Ich glaube sie wird sogar GTX260+ heißen.

Wir können ja froh sein, wenn der 55nm Shrink das + bekommt...
Bei den anderen GPUs ist das nicht der Fall, also bei nV kann man aktuell von garnichts ausgehen.

Gast
2008-09-15, 14:26:23
Nur, wenn es dann auch endlich mal alternative und effiziente Lüfter-Systeme dafür gibt.
In der derzeitigen Situation würde ich mir keine GTX2x0 zulegen...

Razor

P.S.: Wasserkühlung kommt bei mir nicht in Frage... des muss 'intelligenter' gehen.

Öhm die GTX260 gehört zu den leisesten Karten (an eine 8800GTS reicht leider nichts mehr heran) auf dem Markt und sie ist sehr gut gekühlt. Weiß ja nicht was für Erfahrungen du hast, aber Temperaturprobleme hat eine GTX260 auch unter Volllast nicht.

Unyu
2008-09-15, 14:35:50
Sogar jetzt wo schon Beweise vorliegen, das das gute Stück "Gold" heißt, wird der Name noch angezweifelt und die Karte als ununterscheidbar zur "nicht Gold" dargestellt. ;D

Gast
2008-09-15, 15:36:31
ich glaube nicht dass die af dem freien Markt auch *Gold* heißt ...das war ein testsample

AnarchX
2008-09-15, 17:21:11
Sogar jetzt wo schon Beweise vorliegen, das das gute Stück "Gold" heißt, wird der Name noch angezweifelt und die Karte als ununterscheidbar zur "nicht Gold" dargestellt. ;D

Gold ist natürlich nur ein Kürzel was Inno3D angehängt hat, Zotac nennt sie z.B. AMP2!, jedoch wird es wohl auch Hersteller geben, die sie nicht extra bezeichen, der "Overstock" der alten GTX 260 muss ja auch abgesetzt werden.

ZipKaffee
2008-09-15, 22:03:04
Also bei Herr der Ringe Online auf 1680x1050 2aa und allles auf max, wird die 512 geknackt!

Obwohl laut Rivatuner immer wieder Grafikspeicher freigeschaufelt wird was irgendwie zu leichten rucklern führt. Somit bleibt es immer kurz vor 512mb.

Unyu
2008-09-15, 22:24:00
jedoch wird es wohl auch Hersteller geben, die sie nicht extra bezeichen
Ist das definitiv so oder nur eine Spekulation? ;)

In dem Fall sind die betreffenden Hersteller selbst schuld, die ihr eigenes Produkt nicht richtig vermarkten aber damit auch nicht werben. :rolleyes:

Dann gibts also:
GTX 260 Gold, mit garantierten 109% Leistung, zu unbekannten Preisen
GTX 260 mit 100% ...... und mit Glück 109% (nur bei denen die keine Gold haben) Leistung zu unveränderten Preisen
:eek:

reunion@work
2008-09-16, 12:00:54
Sogar jetzt wo schon Beweise vorliegen, das das gute Stück "Gold" heißt, wird der Name noch angezweifelt und die Karte als ununterscheidbar zur "nicht Gold" dargestellt. ;D

Wer keine Ahnung hat sollte das Maul nicht so weit aufreißen.

Ist das definitiv so oder nur eine Spekulation? ;)

In dem Fall sind die betreffenden Hersteller selbst schuld, die ihr eigenes Produkt nicht richtig vermarkten aber damit auch nicht werben. :rolleyes:


Schuld ist einzig und alleine nV, die es wieder mal nicht auf die Reihe bekommen ein vernünftiges und halbwegs nachvollziehbares, geschweige denn transparentes Produktmarketing aufzustellen. Die Boardpartner können nur Schadensbegrenzung betreiben und die neuen Karten irgendwie abheben, ansonsten ist der Kunde schlicht der Blöde und kann nur auf Glück hoffen um die schnellere GTX260 zu bekommen.

reunion@work
2008-09-16, 12:03:53
Gold ist natürlich nur ein Kürzel was Inno3D angehängt hat, Zotac nennt sie z.B. AMP2!, jedoch wird es wohl auch Hersteller geben, die sie nicht extra bezeichen, der "Overstock" der alten GTX 260 muss ja auch abgesetzt werden.

Zumal keiner weiß ob die alte GTX260 jetzt vom Markt verschwindet oder noch weiter abgesetzt wird. Böse Zungen könnten behaupten die neue GTX260 ist da um die Kunden zu täuschen, während die alte verkauft wird.

tombman
2008-09-16, 12:12:40
Naja, "politische" Karte, nix weiter ;)
Aber wenn jemand ne 260er will, sollte er schon auf die neue achten.

Ich will endlich wissen wie der nächste Monsterchip in 45nm von Nvidia aussieht. Ich will meeeeehr shader cores sehen :cool:

Unyu
2008-09-16, 12:14:59
Die Boardpartner können nur Schadensbegrenzung betreiben und die neuen Karten irgendwie abheben, ansonsten ist der Kunde schlicht der Blöde und kann nur auf Glück hoffen um die schnellere GTX260 zu bekommen.
Der Kunde ist nicht der blöde. Der Kunde weiß ja noch nichts von den 109% Leistung der Speziall 260. Guck dir doch mal die 260 Reviews an, die seit Monaten stehen. :rolleyes:
Wenn der Kunde tatäschlich Gold mit nicht Gold durcheinander bringt ist er wahrlich blöd.

Der Kunde kennt nur:
100% Leistung der normalen 260 und 109% Leistung bei der Gold und AMP²!

Die 109% bei einer normalen 260 sind nicht selbstvertändlich und nur als kostenloser Bonus zu sehen, wenn die betreffenden Hersteller versagen, ihr Produkt zu bezeichnen. Und in der Situation wird die Karte nicht teurer sein.


Schuld ist einzig und alleine nV, die es wieder mal nicht auf die Reihe bekommen ein vernünftiges und halbwegs nachvollziehbares, geschweige denn transparentes Produktmarketing aufzustellen.
Nö, nvidia lässt den Herstellern Freiraum für Produktabgrenzungen. :eek:
Wenn die Hersteller meinen keinen neuen Aufkleber auf der Packung spendieren zu müssen, dann werden sie nicht von den 9% profitieren können.

Gast
2008-09-16, 12:25:30
Man Unyu die ist im durschnitt 5% schneller in Games.

Gast
2008-09-16, 13:46:24
Man Unyu die ist im durschnitt 5% schneller in Games.Wo gehts hier um die Geschwindigkeit?
Es geht doch darum, das der Kunde bei Hersteller X eindeutig den Unterschied zwischen normal und unnormal sieht und das das als schlecht dargestellt wird.
Bei Hersteller Y sieht der Kunde keinen Unterschied, aber dort hat er damit nicht zu rechnen, im besten Fall bekommt er ohne Aufpreis einen Bonus.

Die Spezifikation der 260 ist eindeutig und ändert sich nicht durch die Gold.

Sorkalm
2008-09-16, 15:09:54
Die Karte ist gelauncht - offiziell heißt die aber nur Geforce GTX 260 (http://www.hardware-infos.com/news.php?news=2397).

Sprich die Partner müssen sich ausdenken, wie die die Karte im Vergleich zur Alten kennzeichnen.

w0mbat
2008-09-16, 15:14:44
PCGH-Test: Nvidia Geforce GTX 260 mit 216 ALUs (http://www.pcgameshardware.de/aid,660150/Test/Benchmark/PCGH-Test_Nvidia_Geforce_GTX_260_mit_216_ALUs/)

Gast
2008-09-16, 15:27:54
offiziell heißt die aber nur Geforce GTX 260[/URL].

Nö, offiziell ist der Name Sache der Hersteller.

Sorkalm
2008-09-16, 15:30:17
Nö, offiziell ist der Name Sache der Hersteller.

Was soll denn das Getrolle wieder? Meine Aussage war eindeutig, und ja, der offizielle Name ist Geforce GTX 260. Und diesen Namen legt in diesem Fall Nvidia fest.

Die Partner können die Karte anders kennzeichnen, das ist korrekt, schrieb ich aber auch. Und bleibt nun auch deren Aufgabe.

James Ryan
2008-09-16, 18:28:43
Die Karte ist gelauncht - offiziell heißt die aber nur Geforce GTX 260 (http://www.hardware-infos.com/news.php?news=2397).

Sprich die Partner müssen sich ausdenken, wie die die Karte im Vergleich zur Alten kennzeichnen.

Ich krieg echt zuviel... wie kann NVIDIA nur sooooo dermaßen dumm sein? :|
Übrigens, die Zotac GTX260² kostet mal eben schlappe 270€. :eek:

MfG :cool:

dildo4u
2008-09-16, 19:38:37
Zotac GeForce GTX 260 Amp² Edition 216 Shaders Review

Avg 3D Lastverbrauch

http://s8.directupload.net/images/080916/7tdzjlzi.jpg

Full 3D Lastverbrauch

http://s2.directupload.net/images/080916/rwyvamk9.jpg

Performance per Watt

http://s2.directupload.net/images/080916/s86main2.jpg


http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_260_Amp2_Edition/24.html

Raff
2008-09-16, 19:43:53
Wie das, wenn die GPU laut Nvidia höchstselbst gar kein Shrink ist?

MfG,
Raff

dildo4u
2008-09-16, 19:48:53
Die Unterschiede wären sogar noch krasser mit einer Default GTX 260² da die AMP² die dort getestet wurde ja eine OC Version mit erhötem Takt ist.

Schlammsau
2008-09-16, 19:58:09
Vielleicht ein Fehler beim messen? Mal andere Reviews abwarten.

AnarchX
2008-09-16, 20:06:51
Wohlmöglich eine 3D-Spannung <1.1V, wie sie einige User via Tools nachträglich eingestellt hatten und auch einiges unter Last einsparen konnten bei gleichzeitigem OC, zwar etwas merkwürdig für eine Werks-OC-Version, aber vielleicht hat sich ja das Yield verbessert...

Chris2CB
2008-09-16, 23:09:07
Wohlmöglich eine 3D-Spannung <1.1V, wie sie einige User via Tools nachträglich eingestellt hatten und auch einiges unter Last einsparen konnten bei gleichzeitigem OC, zwar etwas merkwürdig für eine Werks-OC-Version, aber vielleicht hat sich ja das Yield verbessert...


Da der Peak Wert fast der selbe ist, spricht das schon für veränderte Profile, oder( was ich eher Denke) bessere Spannungswandler, die enorme Bandbreite zwischen Peak und Idle lässt da sicher viel Spielraum zum optimieren.

Tarkin
2008-09-16, 23:22:42
http://www.anandtech.com/video/showdoc.aspx?i=3408&p=9

Anand sagt, die 216er braucht mehr Strom

(bitte beachten - Anand verwendet eine nvidia Testplattform... darum der relativ geringe Idle Verbrauch der Geforce Karten. Mit Intel oder AMD siehts ganz anders aus... wollte ich nur gesagt habe)

knallebumm
2008-09-17, 03:53:55
Die COD4 Benchmarks von Techpowerup können eigentlich auch nur Quatsch sein.

http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_260_Amp2_Edition/6.html

Deutlich schneller als eine GTX280?

Bin mal gespannt, wann das gefixt wird.

Schlammsau
2008-09-17, 05:37:35
Erste Preise für die neue GeForce GTX 260 (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/september/erste_preise_geforce_gtx_260/)

r@h
2008-09-17, 06:35:15
Die COD4 Benchmarks von Techpowerup können eigentlich auch nur Quatsch sein.
Wenn... dann haben alle Seiten "quatsch" gemacht und voneinander abgeschreiben.
Auch bei FiringSquad wurde von einer überdurchschnittlichen Leistungssteigerung ggü. der 'Standard' gesprochen... 12%...
... sonst eher 5-9%... was aber kaum auf hardware-seitige Gründe zurück zu führen sein dürfte.

Der Takt ist bei der "Core 216" normal identisch und damit sind es ausschließlich 12,5% mehr Shader.
Da das Speicherinterface hier gleich geblieben ist, muss man davon dann im Schnitt noch einfach knapp die Hälfte abziehen... that's it.
(da bei den CoD's der "Speicher-Ausbau" klassischer weise sehr wichtig ist, dürfte man hier Äpfel und Birnen verglichen haben ;-)

Anand sagt, die 216er braucht mehr Strom
Was Anand "sagt", ist nur das, was sich jeder mit ein wenig Nachdenken auch selber 'denken' kann...

Mehr aktive Einheiten, mehr Strom - so einfach ist das.

Keine Ahnung, was TechPowerUp da 'gemessen' haben wollen, aber 3DMurks03-Nature ist da einfach nicht mehr zeitgemäß.
Da hättens doch wohl besser das dafür wesentlich besser geeignete FurMark nehmen sollen... auch wenn damit ATI/AMD-Karten aus dem Vergelich fallen.

Erste Preise für die neue GeForce GTX 260 (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/september/erste_preise_geforce_gtx_260/)
Besser hier:
http://geizhals.at/deutschland/?cat=gra16_512&sort=artikel&bpmax=&asuch=260+216&asd=on&v=e&pixonoff=off&filter=+Liste+aktualisieren+&bl1_id=100&xf=132_512
Geht ab etwa 275€ los... Preis nach oben offen.
(den einen NoName-Anbieter klammern wir mal aus ;-)

Völling normal bei Release ohne Verfügbarkeit.
Ansonsten schreibt CB hier wieder furchtbaren Quatsch...

MSRP liegt bei 279-299 USD, was hier auf ca. 234 - 251€ hinaus läuft (bei einem Wechselkurs von 1,42:1 heute morgen).
Alles, was darüber angeboten wird, ist wie immer auf das Verhältnis von Angebot und Nachfrage zurück zu führen...
(in diesem Fall: kein Angebot aber wohl unspezifizierte Nachfrage ;-)

Razor

Schlammsau
2008-09-17, 07:14:39
Was Anand "sagt", ist nur das, was sich jeder mit ein wenig Nachdenken auch selber 'denken' kann...

Mehr aktive Einheiten, mehr Strom - so einfach ist das.

Keine Ahnung, was TechPowerUp da 'gemessen' haben wollen, aber 3DMurks03-Nature ist da einfach nicht mehr zeitgemäß.
Da hättens doch wohl besser das dafür wesentlich besser geeignete FurMark nehmen sollen...

Der FURMark ist nur gut, die maximal mögliche Laeistungsaufnahme auszuloten, mehr nicht. Die FURMark Werte sind jenseits jeder Realität!

=Floi=
2008-09-17, 07:31:03
was ist denn fern der realität, wenn der verbrauch die realität ist? ;D
fakt ist das können diese karten maximal verbrauchen und dazu gibt es nichts mehr zu diskutieren.

Schlammsau
2008-09-17, 07:57:49
was ist denn fern der realität, wenn der verbrauch die realität ist? ;D
fakt ist das können diese karten maximal verbrauchen und dazu gibt es nichts mehr zu diskutieren.

:| hä? Es gibt kein Game, dass die Karte auch nur Ansatzweise wie der FURMark auslastet. Ich selber hab beim zocken ~310W Verbrauch, wenn der FURMark alleine läuft, sinds schon über 360Watt. Ohne CPU Auslastung......

Chris2CB
2008-09-17, 10:57:50
was ist denn fern der realität, wenn der verbrauch die realität ist? ;D
fakt ist das können diese karten maximal verbrauchen und dazu gibt es nichts mehr zu diskutieren.


Für Privat ist Fur Mark gut, da merkt man was die Kühlung bringt.

Benchmarktools haben aber ansonsten in einem test sehr wenig verloren, für Personen die den ganzen Tag benchen mag das wichtig sein, für die meisten ist das aber nicht von Bedeutung.

frix
2008-09-17, 13:12:18
hab gerade gesehen, dass die preise ja sehr deutlich über der alten GTX 260 liegen? Damit wird das ganze unterfangen die GTX 260 näher an der konkurrenz ati 4780 zu platzieren ja ad absurdum geführt.
Nvidia meinte doch großspurig, dass man einfach nach und nach den alten mit dem schnelleren chip ersetzen will.

MartinRiggs
2008-09-17, 13:22:58
hab gerade gesehen, dass die preise ja sehr deutlich über der alten GTX 260 liegen? Damit wird das ganze unterfangen die GTX 260 näher an der konkurrenz ati 4780 zu platzieren ja ad absurdum geführt.
Nvidia meinte doch großspurig, dass man einfach nach und nach den alten mit dem schnelleren chip ersetzen will.

sehe ich auch so, ich hab meine HD4870 für 192€ bei Mindfactory geschossen, vor ca. 3 Wochen.
Da ich ne alte Bastelseele bin würde ich gerne mal ne GTX 260 testen, aber mehr bezahlen für die gleiche bzw. manchmal sogar weniger Leistung:confused:
Der Preis der neuen Zotac² ist mehr wie nur pervers, da kann man gleich ne GTX280 kaufen:uponder:

Schlammsau
2008-09-17, 13:42:22
wartets doch mal ab, bis welche verfügbar sind. Der Preis wird schon deutlich nach unten gehen!

Voyager
2008-09-17, 15:48:59
Die COD4 Benchmarks von Techpowerup können eigentlich auch nur Quatsch sein.

http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_260_Amp2_Edition/6.html

Deutlich schneller als eine GTX280?

Bin mal gespannt, wann das gefixt wird.

Liegt wahrscheinlich daran das die COD4 GTX280 Benches mit dem "alten" Treiber vor dem Performance Sprung gemacht wurden.
Demnach ist die normale GTX260 auch schneller als dort abgedildet.

Gast
2008-09-17, 17:50:48
die vielfältigkeit der produkte und die unzähligen bezeichnungen der unterschiedlichen
herstellen werden imo immer schlimmer, schon seit jahren ist ein durchschnittskäufer
total überfordert - vom verkäufer wollen wir mal gar nicht reden, ob es nun gewollt
oder "evolution" am markt ist sei mal dahingestellt

interessant finde ich die "neue" gpu schon, da sieht man mal wie schnell nv reagieren
kann wenn sie entsprechende konkurenz bekommt, was intel wohl aus der
schublade zaubern würde ? D

Nazar
2008-09-18, 00:37:35
Liegt wahrscheinlich daran das die COD4 GTX280 Benches mit dem "alten" Treiber vor dem Performance Sprung gemacht wurden.
Demnach ist die normale GTX260 auch schneller als dort abgedildet.

Kann nicht sein, da auch die 280 mit dem gleichen Treiber wie die neue 260 gebencht wurde.

http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_260_Amp2_Edition/5.html

Die Werte sind schon recht seltsam, wenn man bedenkt, dass die 280 das Basisdesign ist und die 260² gerade mal 48 MHz höheren Core Takt hat und ansonsten die 280 besser Werte liefert.
http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_260_Amp2_Edition/1.html
Für 48 MHz mehr Coretakt ist der Unterschied riesig und wäre wohl nur über eine Designänderung zu erklären, was ja aber nicht der Fall sein soll, es wurde nur mehr "freigeschaltet".
Seltsam auch, dass dies nur in CoD4 der Fall ist.

Zur Zeit verstehe ich auch die extrem hohen Preise nicht, da man damit keine Käufer gewinnen kann (selbst wenn die Ware noch nicht lieferbar ist).
Um die 200€ wäre sie mit Sicherheit ein harte Nuss für die 4870!

HD-Ronny
2008-09-18, 20:32:33
Zur Zeit verstehe ich auch die extrem hohen Preise nicht, da man damit keine Käufer gewinnen kann (selbst wenn die Ware noch nicht lieferbar ist).
Um die 200€ wäre sie mit Sicherheit ein harte Nuss für die 4870!

Was denkst du denn wo die ganzen "alten" 260er hinsollen ??
Erst müsen die Lager mit den "alten" 260er geleert sein bevor man wirtschaftlich die "neue" anbietet. Dafür braucht man kein BWL studiert zu haben. :wink:

Savay
2008-09-18, 22:10:35
naja ich weiß ja nicht...mit ihrer namensgebungs philosophie. (reinste kundenverarsche ahoi) macht sich nvidia bei mir zunehmend unbeliebt! ATi ist da deutlich transparenter...

da reißt auch das bessere AF nix mehr raus. bzw der umstand ist mindestens so skandalös wie das ATi AF...mir kommt so schnell keine NV mehr in den rechner! °_° schade denn die neue GTX260 ist an sich nen feines kärtchen auch wenn die P/L immernoch nicht auf höhe mit der ATi ist

mapel110
2008-09-18, 22:29:25
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/

btw auch mal wieder ein netter Treibervergleich.
260 alt -> Geforce 177.39
260 neu -> Geforce 177.92

Modulor
2008-09-18, 22:41:44
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/


Zitat CB:"Interessanterweise wird die normale GeForce GTX 260 mit 55 Dezibel ein gutes Stück lauter." (Anm.: unter Last: GTX260 55dB / GTX260-216 49dB)
Es geschehen Zeichen und Wunder... :)

Sorkalm
2008-09-18, 22:43:30
Vorallem haben sie gestern noch im selben Testsystem für den Artikel Catalyst 8.9 mit die 4870 mit dem neusten Treiber gemessen und teilweise relativ deutliche Leistungssteigerungen festgestellt. Wie gesagt, im gleichen Testsystem.

Dreimal darf man jetzt raten, welchen Treiber man in der direkten Gegenüberstellung mit der neuen GTX 260 verwendet: Genau, den 8.6 Release 5.

Klasse gemacht. ;D

Raff
2008-09-18, 22:46:53
Manchen hier scheint nicht ganz klar zu sein, was für ein unglaublicher Aufwand hinter solchen Artikeln steckt. Nur zwei Grafikkarten in zwei Spielen bei fünf Settings zu benchen dauert lange. Sind es plötzlich 10 Grafikkarten mit ebenso vielen Spielen, steigt der Aufwand noch ein klitzekleines bisschen an. Damit kann man eine Person 'ne Woche beschäftigen. Mit jedem Treiber jede Karte neu zu benchen ist völlig utopisch, wenn der dazugehörige Artikel nicht mit mehreren Wochen Verspätung erscheinen soll.

MfG,
Raff

Savay
2008-09-18, 22:52:33
gut raff...ergo kauft man demnächst nur noch nach sympathie.
alles andere ist ja nur noch augenwischerei und sollte man nicht so genau nehmen und 10-20% toleranz und meßungenauigkeiten bei den benches mit einplanen. :D :rolleyes:

dann braucht ja auch keiner die pcgh mehr. :wink:

Raff
2008-09-18, 22:55:17
Ich find's einfach lächerlich, wie sich viele an 5-10 Prozentchen aufhängen. "Mimimi, die HD 4870 ist aber doch gar nicht 3,89211% langsamer als die GTX 260, sondern im Schnitt 2,8323% schneller!" Ein Treiber verschiebt das alles um ähnliche Größenordnungen. Mal legt die Geforce zu, mal die Radeon. Am Ende bleibt die Aussage: Die Karten sind im Schnitt gleich schnell. Bei 20+ Prozent Differenz entsteht so langsam eine Fühlbarkeit für den Käufer, darunter aber nicht.

Fiel mir nur spontan auf. ;)

MfG,
Raff

mapel110
2008-09-18, 22:58:05
Aber das direkte Vorgängermodell sollte man schon mit dem selben Treiber testen. Die alte und die neue GTX 260. Aber nunja, auch CB wird nicht alle Karten immer im Haus zum Testen haben. Das ist wohl das eigentliche Problem, von den ganzen kleinen Hardware-Testseiten

Sorkalm
2008-09-18, 23:10:10
Manchen hier scheint nicht ganz klar zu sein, was für ein unglaublicher Aufwand hinter solchen Artikeln steckt. Nur zwei Grafikkarten in zwei Spielen bei fünf Settings zu benchen dauert lange.

Nun ja, aber für den 8.9-Artikel lagen ja bereits 4870-Benchers mit dem 8.9 auf der absolut selben Plattform (!) vor:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_ati_catalyst_89/
Ich weiß was das für eine Arbeit ist, weil ich selbst in solchen Abläufen teilweise drinnehänge. Aber wenn da schon Werte vorhanden sind, kann man die auch nehmen.

Aber nunja, auch CB wird nicht alle Karten immer im Haus zum Testen haben. Das ist wohl das eigentliche Problem, von den ganzen kleinen Hardware-Testseiten

Ja, das ist in der Tat ein relativ großes Problem...

Gast
2008-09-18, 23:13:33
Ich weiß was das für eine Arbeit ist, weil ich selbst in solchen Abläufen teilweise drinnehänge. Aber wenn da schon Werte vorhanden sind, kann man die auch nehmen.

Als würde der soviel ausmachen... bei Qualitätssettings ganz sicher nicht

Sorkalm
2008-09-18, 23:20:08
Als würde der soviel ausmachen... bei Qualitätssettings ganz sicher nicht

Schau doch einfach mal in den Test. ;)

Gast
2008-09-18, 23:33:52
Schau doch einfach mal in den Test. ;)

Selber. Maximal 3% unter 1600x1200 4xAA/16xAF lol

Botcruscher
2008-09-18, 23:37:20
Bei 20+ Prozent Differenz entsteht so langsam eine Fühlbarkeit für den Käufer, darunter aber nicht.


So kann der Treiber in Bioshock um gute sieben Prozent zulegen, während es in Crysis sowie Lost Planet ohne Kantenglättung gleich zehn Prozent sind. Die Sternstunde erlebt der Treiber in World in Conflict, da er die von uns eingesetzte Radeon HD 4870 gleich um 22 respektive 15 Prozent (ohne AA/AF, mit AA/AF) beschleunigt.

Da hast du deine 20%.
Bei Karten die so nahe bei einander liegen fallen die Treiber schon extrem ins gewicht. Imo sollte CB die Ergebnisse mit alten Treibern wenigstens mit outdatet und einem Verweis markieren. Das jetzige "wir werfen mal alles in einen Topf" ist so nicht brauchbar.

MartinRiggs
2008-09-19, 08:17:50
was ich gut finde ist das die GTX260² bei dem Computerbase-Test um einiges leiser und kühler läuft als die alte GTX260!
Wäre interessant zu wissen ob das nur die Zotac betrifft oder ob die hersteller jetzt generell weniger Saft auf den GT200-Chip geben wegen besseren Chips:confused:
Den hohen Preis wird wohl der Markt mal wieder regeln, für 270€ ist sie leider absolut keine Alternative und wird wohl eher der HD4870 weiteren Rückenwind geben.

gnomi
2008-09-19, 09:15:52
Ich find's einfach lächerlich, wie sich viele an 5-10 Prozentchen aufhängen. "Mimimi, die HD 4870 ist aber doch gar nicht 3,89211% langsamer als die GTX 260, sondern im Schnitt 2,8323% schneller!" Ein Treiber verschiebt das alles um ähnliche Größenordnungen. Mal legt die Geforce zu, mal die Radeon. Am Ende bleibt die Aussage: Die Karten sind im Schnitt gleich schnell. Bei 20+ Prozent Differenz entsteht so langsam eine Fühlbarkeit für den Käufer, darunter aber nicht.

Fiel mir nur spontan auf. ;)

MfG,
Raff

Na endlich sagt das mal jemand. :up:

Modulor
2008-09-19, 09:36:08
Na endlich sagt das mal jemand. :up:

Full ack ebenfalls von mir ("Mimimimi" :D)
Primär geht es in dem Test um die Gegenüberstellung der beiden GTX260 und nicht um den Vergleich 4870<->260GTX/GTX-216.Außerdem werden die Treiberrevisonen genannt,wer sich ernsthaft für die 4870 interessiert wird sich schon entsprechende Tests mit dem Catalyst 8.9 suchen.

Modulor
2008-09-19, 21:18:54
was ich gut finde ist das die GTX260² bei dem Computerbase-Test um einiges leiser und kühler läuft als die alte GTX260!
Wäre interessant zu wissen ob das nur die Zotac betrifft oder ob die hersteller jetzt generell weniger Saft auf den GT200-Chip geben wegen besseren Chips:confused:


Das scheint für alle GTX260 mit 216 SPs zu gelten: Meine heute unter großen Anstrengungen ins Gehäuse "gepreßte" EVGA GTX260 Core216 hat auch 1,06V:

http://www.tilebase.de/screenies/temp/gtx260vcore.png

Idle ist die Lautstärke ok aber ab 70° geht es dann so langsam los mit dem Lüfter...möchte nicht wissen wie laut die "alten" GTX260 ab Werk sind...

Steel99
2008-09-25, 17:05:31
Öhm, ich hab ne GTX260 ("alt") ....

das Bios der neuen in die alte zu flashen nützt vermutlich nix oder? ....

Gast
2008-09-25, 17:35:10
das Bios der neuen in die alte zu flashen nützt vermutlich nix oder? ....

vermutlich nicht.

Modulor
2008-09-25, 18:40:04
Öhm, ich hab ne GTX260 ("alt") ....

das Bios der neuen in die alte zu flashen nützt vermutlich nix oder? ....

Welchen Zweck sollte das haben? :conf2:

Gast
2008-09-25, 18:49:47
Welchen Zweck sollte das haben? :conf2:

er will wohl auch 9 cluster haben ;)

Gast
2008-09-26, 11:50:12
er will wohl auch 9 cluster haben ;)

Das war der Gedanke jo :)

Früher ging ja sowas mal ....

James Ryan
2008-09-27, 15:37:33
Die Preise bleiben weiter unverändert hoch, und es gibt nur ein paar Hersteller die die neue GTX 260 anbieten.
Welchen Sinn hat die Karte für NVIDIA? :confused: :|

MfG :cool:

Gast
2008-09-27, 16:03:36
Welchen Sinn hat die Karte für NVIDIA? :confused: :|



wohl platzmachen für die kommende performance/mainstreamgeneration.

diese kommt der originalen 260GTX wohl zu nahe.

Gast
2008-09-28, 12:03:11
Welchen Sinn hat die Karte für NVIDIA? :confused: :|

MfG :cool:

DIe 4800 Reihe von ATi kam ihr auch zu nahe.

JaniC
2008-09-28, 18:33:21
http://www.alternate.de/html/product/Grafikkarten_NVIDIA_PCIe/Leadtek/GTX260/274022/?

209€ ... Superpreis, wo ist der Haken?
(zugegebenermaßen hier nicht mitgelesen)

Ha Chi
2008-09-28, 18:40:43
http://www.alternate.de/html/product/Grafikkarten_NVIDIA_PCIe/Leadtek/GTX260/274022/?

209€ ... Superpreis, wo ist der Haken?
(zugegebenermaßen hier nicht mitgelesen)
Merkt man. :rolleyes:
Das ist keine neue GTX mit 216SPs sondern eine alte mit 192.

aths
2008-09-28, 19:15:09
Die Preise bleiben weiter unverändert hoch, und es gibt nur ein paar Hersteller die die neue GTX 260 anbieten.
Welchen Sinn hat die Karte für NVIDIA? :confused: :|Geld zu verdienen? :confused: :|

Modulor
2008-09-28, 19:26:27
Geld zu verdienen? :confused: :|

Ack...

James Ryan
2008-09-29, 05:45:31
Geld zu verdienen? :confused: :|

Wer kauft bitteschön eine GTX260² für über 250€, wenn diese nur einen Hauch schneller ist, als eine 200€ HD 4870?
Wie soll man so Geld verdienen? ;D

Ich verstehe auch nicht, warum man nur die Streamprozessoren verändert hat.
Lieber eine ROP-Partition dran, dann hätte man gleichzeitig mehr Speicher und mehr Speicherbandbreite, und man hätte das Ding auch noch in GTX 270 umbenennen können.


MfG :cool:

=Floi=
2008-09-29, 07:34:51
es gibt aber auch andere gründe für die karte. Mir persönlich wäre eine normale GT lieber, die nur im takt gedrosselt ist und sonst die gleiche hardware wie die normale karte bietet. Sowas wird es wohl die nächsten jahre nicht mehr geben und bei den preisen kann ich mir auch das topmodell locker kaufen.

Unyu
2008-09-29, 11:14:40
Ich verstehe auch nicht, warum man nur die Streamprozessoren verändert hat.
Weil man auch mehr TMUs + TAUs bekommt? :confused:

Geld zu verdienen?
Wer kauft bitteschön eine GTX260² für über 250€, wenn diese nur einen Hauch schneller ist, als eine 200€ HD 4870?
Wer kauft eine GTX 260² für 250€, wenns eine übertaktete GTX 260² für 270€ gibt? :confused:


Wie soll man so Geld verdienen?
Indem man Karten verkauft? :eek:

James Ryan
2008-09-29, 12:59:50
Weil man auch mehr TMUs + TAUs bekommt? :confused:

Das allein bringt aber kaum Mehrleistung.
Mehr SPs, TMUs, TAUs, ROPs und RAM hätte deutlich mehr gebracht.


Wer kauft eine GTX 260² für 250€, wenns eine übertaktete GTX 260² für 270€ gibt? :confused:

Super...
Wenn man soviel Geld hat, kauft man gleich eine GTX 280!

Indem man Karten verkauft? :eek:

Wenn der Preis so unattraktiv, angesichts der Leistung, ist, verkauft man aber keine Karten.

MfG :cool:

MartinRiggs
2008-09-29, 13:18:52
Bleib doch ruhig:wink:
Der Markt regelt das, so wie beim Launch der GT200-Serie.
Kann mir kaum vorstellen das die GTX260² sich angesichts von Preisen ab 250€ gut verkauft.

Unyu
2008-09-29, 13:23:01
Das allein bringt aber kaum Mehrleistung.
Mehr SPs, TMUs, TAUs, ROPs und RAM hätte deutlich mehr gebracht.

Klar, aber war eben nicht drin. :rolleyes:


Super...
Wenn man soviel Geld hat, kauft man gleich eine GTX 280!

Von 270€ nach 350€ ist ein großer Sprung, größer als von überteuerten 250€ nach sinnvolleren 270€.

Wenn der Preis so unattraktiv, angesichts der Leistung, ist, verkauft man aber keine Karten.
Was ist daran unattraktiv? Nur weils irgendwelche HD4 für weniger € gibt? Toll die 4870 hat die selben Schwachpunkte wie die 4850, nur schlimmer und ist nicht so viel schneller, wie sie teurer ist. Ist die 4870 aus deiner Sicht ebenfalls unattraktiv?

http://geizhals.at/deutschland/?cat=gra16_512;asuch=gtx+260;v=e;sort=p&xf=132_512%7E545_Zotac
Zotac GTX 260 -> 220€
Zotac GTX 260² -> 252€
Zotac GTX 260 AMP! -> 287€
Zotac GTX 260 AMP² -> 273€

Die AMP² ist billiger als die AMP!, das nennst du unattraktiv? :comfort2:

aths
2008-09-29, 15:17:51
Wer kauft bitteschön eine GTX260² für über 250€, wenn diese nur einen Hauch schneller ist, als eine 200€ HD 4870?
Wie soll man so Geld verdienen? ;DModulor kauft zum Beispiel. Wenn ich mir die Preise ansehe für die die aufgefrischte 260 über den Tisch geht, glaube ich, verkauft sie sich allgemein ganz gut (sonst wäre der Preis schon runter.) Immerhin hat man bessere Texturqualität als bei der 4870 sowie Option auf Supersampling. Und man kann über Cuda PhysX beschleunigen.

Ich verstehe auch nicht, warum man nur die Streamprozessoren verändert hat.
Lieber eine ROP-Partition dran, dann hätte man gleichzeitig mehr Speicher und mehr Speicherbandbreite, und man hätte das Ding auch noch in GTX 270 umbenennen können.Man muss auch die Speicherbausteine selbst aufs Board packen, alleine durch die ROP-Partition hat man nicht mehr Speicher. Die GTX-Serie hat eh "zu viel" Bandbreite. Shader- und Textur-Power ist wichtiger. Nvidia wollten offensichtlich keine Umbenennung in GTX 270 und es soll auch noch ein Abstand zur GTX 280 gewahrt bleiben, die ja (immer bezogen auf ein und denselben Hersteller) pro Leistungseinheit etwas mehr kostet als die 260-er.

Palpatin
2008-09-29, 17:07:30
Das allein bringt aber kaum Mehrleistung.
Mehr SPs, TMUs, TAUs, ROPs und RAM hätte deutlich mehr gebracht.




Super...
Wenn man soviel Geld hat, kauft man gleich eine GTX 280!



Wenn der Preis so unattraktiv, angesichts der Leistung, ist, verkauft man aber keine Karten.

MfG :cool:

Wenn ich nicht schon ne 280er hätte (zum glück eine die sich gut ocen läst und kein heat bug) würde imo die Entscheidung zwischen der neuen 260 oder der 1GB 4870 fallen. Pro Ati grad bei vielen neueren Games deutlich bessere Performance bei hohen Auflösungen und AA. Pro NV, bessere Kühlung, vermutlich die 260 etwas mehr OC Potential und etwas besseres AF. Preislich die ATI nen kleinen Tick billiger. 50:50 aus meiner Sicht. :)

Gast
2008-09-29, 20:08:35
Wer kauft bitteschön eine GTX260² für über 250€, wenn diese nur einen Hauch schneller ist, als eine 200€ HD 4870?

-Für die HD 4870 musste schonmal 230€ ansetzen (1GB-Version), für 200€ gibts nur magere 512MB, die früher oder später zum Problem werden (bzw. vereinzelt jetzt schon Leistungseibußen verursachen).

-Die HD 4870 haben alle ein schweres Problem mit den Spannungswandlern! Bei Vollast gibts Notabschaltung bzw. mit bisl pech ne abgerauchte Karte! ATI hat schon mit Drosselung der Karten per Treiber reagieren, was wenn das auch bei einigen kommenden Spielen notwendig wird -> :eek:.

-Die HD 4870 hat miese AF-Bildqualität! Bei NV-Filterqualität würde sie wohl performancemäßig alt gegen die GTX260 aussehen. Die HD 4870 hat damit miesere BQ als so manche 50€-Karte -> das darf bei High End nicht sein! Andersherum hätte die NV-Karte (wenn sie auch wie ATI nur Krüppel-AF bieten wollten) ja auch noch mehr Power für ALU-Leistung übrig, wenn sie, wie ATI an Transistoren für TMU-Power sparen würden und dafür ein paar mehr ALUs verbauen würden.

-HD 4870 hat kein Stromsparmodus (gut kann man per Rivatuner selbst zusammenbasteln, was man aber vom Durchschnittskunden nicht erwarten darf).

-HD 4870 bietet kein SSAA und auch AAA geht oft nicht oder nicht richtig!

-GTX260 hat mehr Übertaktungsreserven (nur wichtig für Übertakter, welche aber in dieser Preisklasse besonders präsent sind).


So, wer kauft bitteschön eine HD 4870, wenn er für beinahe den gleichen Preis was deutlich besseres bekommt? Ja sogar für einen bessere Preis (GTX260 mit 192 SPs für 205€) ein besseres Produkt bekommt! :eek::cool:

Ronny G.
2008-09-29, 20:34:16
-Für die HD 4870 musste schonmal 230€ ansetzen (1GB-Version), für 200€ gibts nur magere 512MB, die früher oder später zum Problem werden (bzw. vereinzelt jetzt schon Leistungseibußen verursachen).

-Die HD 4870 haben alle ein schweres Problem mit den Spannungswandlern! Bei Vollast gibts Notabschaltung bzw. mit bisl pech ne abgerauchte Karte! ATI hat schon mit Drosselung der Karten per Treiber reagieren, was wenn das auch bei einigen kommenden Spielen notwendig wird -> :eek:.

-Die HD 4870 hat miese AF-Bildqualität! Bei NV-Filterqualität würde sie wohl performancemäßig alt gegen die GTX260 aussehen. Die HD 4870 hat damit miesere BQ als so manche 50€-Karte -> das darf bei High End nicht sein! Andersherum hätte die NV-Karte (wenn sie auch wie ATI nur Krüppel-AF bieten wollten) ja auch noch mehr Power für ALU-Leistung übrig, wenn sie, wie ATI an Transistoren für TMU-Power sparen würden und dafür ein paar mehr ALUs verbauen würden.

-HD 4870 hat kein Stromsparmodus (gut kann man per Rivatuner selbst zusammenbasteln, was man aber vom Durchschnittskunden nicht erwarten darf).

-HD 4870 bietet kein SSAA und auch AAA geht oft nicht oder nicht richtig!

-GTX260 hat mehr Übertaktungsreserven (nur wichtig für Übertakter, welche aber in dieser Preisklasse besonders präsent sind).


So, wer kauft bitteschön eine HD 4870, wenn er für beinahe den gleichen Preis was deutlich besseres bekommt? Ja sogar für einen bessere Preis (GTX260 mit 192 SPs für 205€) ein besseres Produkt bekommt! :eek::cool:

Ich als alter noch "NV-Fanboy" kann dir überhaupt nicht zustimmen, in keinen der Fälle, weil sie von dir sinnlos ins negative gepusht werden.

1.Es sollte bekannt sein das ATI wesentlich effizienter mit dem Speicher umgeht, somit sind 512mb kein problem, die AA-Werte Leistungswerte sprechen wohl ne klare sprache.

2.So schlimm kann es nicht sein, ich habe beispielsweise gerade Crysis Warhead ohne probleme durchgezockt, das erschwerend für die SW mit Voltmod+OC. Wichtig ist eing gut gelüftetes Gehäuse. Furmark ist auch kein Problem.

3.AF-qualli kann ich nicht bemängeln, ich spiele zu 100% mit 16xAF, bin da scheinbar kein Pingel.

4.das stimmt schon, da liegen ne menge IDLE-Stromeinsparungen brach, schade.

5.Raff bestätigt teils das die AA_modis vom RV770 besser als die von NV aussehen, und kosten auch weniger Leistung als bei NV

6.OC geht schon, vielleicht nicht so dolle, aber das ist doch kein Argument

Warum also 50€ mehr ausgeben? Und wie schon erwähnt wurde scheint die Kundschaft sehr zufieden.
Genauso könnte man jetzt die GTX260 schlecht machen, bringt aber nix, die beiden Karten nehmen sich halt einfach nicht viel.

Gast
2008-09-29, 21:03:37
3.AF-qualli kann ich nicht bemängeln, ich spiele zu 100% mit 16xAF, bin da scheinbar kein Pingel.


dann musst du aber schon extrem unempfindlich sein, wenn dich das grauenhafte AF nichtmal bei Warhead stört.

Aquaschaf
2008-09-29, 22:32:40
dann musst du aber schon extrem unempfindlich sein, wenn dich das grauenhafte AF nichtmal bei Warhead stört.

Bei Warhead stört es gar nicht sehr. Einerseits wegen dem starken post processing. Andererseits weil die Grafik sowieso nicht flimmerfrei zu bekommen ist.

Raff
2008-09-30, 00:22:27
1.Es sollte bekannt sein das ATI wesentlich effizienter mit dem Speicher umgeht, somit sind 512mb kein problem, die AA-Werte Leistungswerte sprechen wohl ne klare sprache.

Sagen wir's mal so: Es ist relativ schwer, die 512 MiB einer Radeon in 1.680x.1050 zu überladen. D.h. es ist gar nicht schwer, nur hat das bei Weitem nicht so krasse Auswirkungen wie wenn einer GeForce der VRAM ausgeht. Es gibt nur 1-2 Extremfälle (volle Rotze getweakt), bei denen eine 512-MiB-Radeon unspielbare Fps auswirft, während die 1-GB-Version noch halbwegs flutscht.

3.AF-qualli kann ich nicht bemängeln, ich spiele zu 100% mit 16xAF, bin da scheinbar kein Pingel.

Wenn's drauf ankommt (hochfrequente Texturen), dann versagt das AF total. Flimmerhölle ahoi. Das sind Fakten. Fakten, die jedoch nicht von jedem wahrgenommen werden. Trotzdem kann es nur im Sinne von allen sein, wenn man den Kram bei Bedarf abstellen kann.

5.Raff bestätigt teils das die AA_modis vom RV770 besser als die von NV aussehen, und kosten auch weniger Leistung als bei NV

Das sind auch Fakten. ;) 24x ED-CFAA ist eine Augenweide, wenn ein Spiel nicht an Textur-/Shaderflimmern leidet. Denn dann kann dieser AA-Modus seine überlegene Polygonglättung voll ausspielen und es entsteht ein brutal geiles Bild. Leider flimmert jedes aktuelle Spiel mehr oder minder, weil der Content "scharf" sein soll ...

MfG,
Raff

James Ryan
2008-10-01, 11:21:02
-Für die HD 4870 musste schonmal 230€ ansetzen (1GB-Version), für 200€ gibts nur magere 512MB, die früher oder später zum Problem werden (bzw. vereinzelt jetzt schon Leistungseibußen verursachen).

-Die HD 4870 haben alle ein schweres Problem mit den Spannungswandlern! Bei Vollast gibts Notabschaltung bzw. mit bisl pech ne abgerauchte Karte! ATI hat schon mit Drosselung der Karten per Treiber reagieren, was wenn das auch bei einigen kommenden Spielen notwendig wird -> :eek:.

-Die HD 4870 hat miese AF-Bildqualität! Bei NV-Filterqualität würde sie wohl performancemäßig alt gegen die GTX260 aussehen. Die HD 4870 hat damit miesere BQ als so manche 50€-Karte -> das darf bei High End nicht sein! Andersherum hätte die NV-Karte (wenn sie auch wie ATI nur Krüppel-AF bieten wollten) ja auch noch mehr Power für ALU-Leistung übrig, wenn sie, wie ATI an Transistoren für TMU-Power sparen würden und dafür ein paar mehr ALUs verbauen würden.

-HD 4870 hat kein Stromsparmodus (gut kann man per Rivatuner selbst zusammenbasteln, was man aber vom Durchschnittskunden nicht erwarten darf).

-HD 4870 bietet kein SSAA und auch AAA geht oft nicht oder nicht richtig!

-GTX260 hat mehr Übertaktungsreserven (nur wichtig für Übertakter, welche aber in dieser Preisklasse besonders präsent sind).


So, wer kauft bitteschön eine HD 4870, wenn er für beinahe den gleichen Preis was deutlich besseres bekommt? Ja sogar für einen bessere Preis (GTX260 mit 192 SPs für 205€) ein besseres Produkt bekommt! :eek::cool:

Ich wollte keinen Flamewar starten.
Es sollte ja bekannt sein, dass ATi bei mir nicht besonders gut dasteht, aber deine oben aufgeführten Gründe sind für 98% der User irrelevant.
Klar ist die BQ bei NVIDIA-Karten seit der G8x Generation deutlich besser, aber selbst hier im 3DCenter interessiert das die wenigsten, und hier gucken die Leute schon besonders gründlich hin!

Ich stand übrigens auch vor der Entscheidung, welche Graka ich mir kaufen sollte, aber dank des hohen GTX 260² Preises habe ich mich doch für einen neuen Monitor entschieden.
Ich hoffe ja dass die GT206 noch was reißen wird, besonders Preis/Leistungsmäßig!

MfG :cool:

Unyu
2008-10-01, 12:06:37
aber selbst hier im 3DCenter interessiert das die wenigsten, und hier gucken die Leute schon besonders gründlich hin!

Was auch daran liegen kann, das das 3DC ATI AMD lastig ist.

Schlammsau
2008-10-01, 12:26:20
Was auch daran liegen kann, das das 3DC ATI AMD lastig ist.

Das glaube ich nicht! Bis zur 4xxx Serie hatten mehr als doppelt so viele hier eine nVidia Karte. Ich nenne das eher nVidia lastig.

MartinRiggs
2008-10-01, 12:35:47
Das glaube ich nicht! Bis zur 4xxx Serie hatten mehr als doppelt so viele hier eine nVidia Karte. Ich nenne das eher nVidia lastig.

Es ist weder noch, die Leute kaufen nur mittlerweile meist das was ein gutes oder sogar hervorragendes P/L-Verhältnis hat.
Eine kleine minderheit sind Fanboys die immer nur NV oder nur ATI kaufen.

Und zu sagen die BQ von NV ist deutlich besser ist auch totaler Quark, ich bin erst von ner 8800GT auf ne HD4870 umgestiegen und man sieht selten einen Unterschied.

James Ryan
2008-10-01, 12:59:49
Und zu sagen die BQ von NV ist deutlich besser ist auch totaler Quark, ich bin erst von ner 8800GT auf ne HD4870 umgestiegen und man sieht selten einen Unterschied.

Du siehst vielleicht selten einen Unterschied, das kann man aber nicht verallgemeinern.

MfG :cool:

Unyu
2008-10-01, 15:28:44
Das glaube ich nicht!
Aus den Kartenbeständen des 3DC kannst du noch lange nicht sehen, welche Seite mehr Fans hat. ;)

Unyu wird sie aber sehen weil er kein vergleich hat...Ach bist du mein Nachbar, der mich heimlich observiert? :down:

Zeig dich und sei ein echter Mann!

MartinRiggs
2008-10-01, 15:35:29
Du siehst vielleicht selten einen Unterschied, das kann man aber nicht verallgemeinern.

MfG :cool:

Die meisten sehen kaum Unterschiede und du wirst es wohl erst recht nicht beurteilen können da du ATI-Karten generell meidest.
Außerdem sollte jeder der mit ner GF7 leben konnte auch mit ner HD4870 glücklich werden können;D

Gast
2008-10-01, 16:00:06
Außerdem sollte jeder der mit ner GF7 leben konnte auch mit ner HD4870 glücklich werden können;D

es gibt einen großen unterschied, bis zum release der R5xx-serie gab es keine wirklich bessere wahl, im bezug auf die qualität.

heute hat man aber die wahl etwas besseres zu kaufen, und so soll das bitte auch bleiben, auch wenn alle flimmerverharmloser das ständig zu verhindern versuchen.

James Ryan
2008-10-01, 16:30:18
und du wirst es wohl erst recht nicht beurteilen können da du ATI-Karten generell meidest.


Durch meine Arbeit werde ich zwangsläufig mit ATi-Karten konfrontiert.
Ich kann mir ein Urteil der BQ von aktuellen ATi-Karten erlauben, und diese ist für mich nicht akzeptabel.
[/Offtopic]

MfG :cool:

Dalai-lamer
2008-10-01, 16:59:32
Sollen die neuen 260er endlich auch mal in einen bezahlbaren Rahmen kommen ?
Also <230 € ?

denn 30% Aufpreis für 5-10% mehr Leistung ist doch ... ^^

MartinRiggs
2008-10-02, 13:13:41
Durch meine Arbeit werde ich zwangsläufig mit ATi-Karten konfrontiert.
Ich kann mir ein Urteil der BQ von aktuellen ATi-Karten erlauben, und diese ist für mich nicht akzeptabel.
[/Offtopic]

MfG :cool:

Aha, zockst beruflich oder was?
Für mich hört sich das an den Haaren herbeigezogen an, sag du setzt halt nur auf NV und gut, aber die ATI-BQ als unakzeptabel hinzustellen nimmt dir kein Mensch ab.

Simon
2008-10-02, 14:39:51
aber die ATI-BQ als unakzeptabel hinzustellen nimmt dir kein Mensch ab.
Hat er doch gar nicht? :|
Für ihn (und für mich ;) ) ist es aber einfach so. Das heißt aber nicht, dass das generell für alle gelten muss..,

The Blue Magic
2008-10-04, 01:42:25
Sollen die neuen 260er endlich auch mal in einen bezahlbaren Rahmen kommen ?
Also <230 € ?

denn 30% Aufpreis für 5-10% mehr Leistung ist doch ... ^^


Genau deiner Meinung bin ich auch wenn se 220 inklusive versand kostet kaufe ich sie mir und wenn sie keine 750 / 1544 / 1150 macht fliegt sie gleich wieder raus.

akuji13
2008-10-04, 13:09:34
heute hat man aber die wahl etwas besseres zu kaufen, und so soll das bitte auch bleiben, auch wenn alle flimmerverharmloser das ständig zu verhindern versuchen.

Und 99% aller Flimmeranfälligen spielen mit TN Panels (mieses Bild, dazu meist Auflösungen unter 1900x1200) und 1 zu langsamen Grafikkarte (FPS nicht permanent über 60).

Sooo wild kann es mit den Qualitätsansprüchen der Meisten also nicht sein.

pXe
2008-10-04, 13:58:40
Und 99% aller Flimmeranfälligen spielen mit TN Panels (mieses Bild, dazu meist Auflösungen unter 1900x1200) und 1 zu langsamen Grafikkarte (FPS nicht permanent über 60).

Sooo wild kann es mit den Qualitätsansprüchen der Meisten also nicht sein.

Was für eine Grafikkarte würdest Du denn so empfehlen für Crysis/Warhead in 1900x1200 mit permanent über 60fps?


pXe

Unyu
2008-10-04, 14:21:57
Und 99% aller Flimmeranfälligen spielen mit TN Panels
Was hat jetzt nochmal Flimmern mit TN Panels zu tun? :rolleyes:

Gast
2008-10-04, 15:17:16
Und 99% aller Flimmeranfälligen spielen mit TN Panels

was hat das mit AF-flimmern zu tun? durch die schnellen panels und das farbdithering wird es eher noch verstärkt.

Coda
2008-10-05, 14:33:35
Und 99% aller Flimmeranfälligen spielen mit TN Panels
Was ein Schwachsinn.

_DrillSarge]I[
2008-10-05, 16:50:14
Was für eine Grafikkarte würdest Du denn so empfehlen für Crysis/Warhead in 1900x1200 mit permanent über 60fps?


pXe
möglichst viele gtx280 oder wahlweise möglichst viele hd4870x2
oder den low-schalter in den optionen.:biggrin:


wo ist der zusammenhang zwischen tn-panel und flimmern?

Raff
2008-10-05, 18:14:00
Und 99% aller Flimmeranfälligen spielen mit TN Panels (mieses Bild, dazu meist Auflösungen unter 1900x1200) und 1 zu langsamen Grafikkarte (FPS nicht permanent über 60).

Sooo wild kann es mit den Qualitätsansprüchen der Meisten also nicht sein.

Interessante Argumentation. In 2.560x1.600 (das bieten nur 30-Zöller) ist das Flimmern wegen der kleineren Pixel und des nach hinten verschobenen Textur-LODs natürlich kleiner. Dumm nur, dass die meisten Nicht-DAUs in 1.680x1.050 spielen und dafür eine Grafikkarte nutzen, die um die 200 €uro kostet.

Ich nutze übrigens ein S-PVA-Panel, das im Vergleich mit so manch anderem Schirm sehr scharf ist. Geradezu messerscharf. An meinem LCD nehme ich jedes Artefakt wahr, an so manch anderem nicht ... und am CRT, vielleicht mit überfahrener Lochmaske, schon gar nicht. Meine These würde eher lauten, dass TN & Co. das Flimmern partiell "schlucken".

MfG,
Raff

Gast
2008-10-05, 19:51:14
Meine These würde eher lauten, dass TN & Co. das Flimmern partiell "schlucken".Ich würde mal sagen, dass es bei TFT-Monitoren zwei Probleme gibt, die sich aufs Flimmern auswirken können.
Erstens hätten wir da das temporale Dithering von 6bit-Panels, was bereits ein geringes "Grundflimmern" erzeugen sollte.
Zweitens wäre da Overdrive, was dem Textur- und Shaderaliasing noch einen zusätzlichen Kick verpasst. Schon bei vernünftigem Bildinhalt schießt es oft genug übers Ziel hinaus, bei überscharfem Bildinhalt erst recht.

Theoretisch könnte man noch die zusätzlich berechneten Zwischenbilder durch DNM-Zeug als weiteren Aliasingverstärker nennen, aber diese Krankheit hat ja glücklicherdings bisher erst Fernseher befallen. Wer allerdings einen solchen als Monitor nutzt könnte bei zu knuspriger Darstellung versuchen, das DNM-Zeug abzustellen. Verträgt sich durch die zusätzliche Latenz eh nicht sonderlich mit der Zockerei.

aths
2008-10-06, 01:55:23
Ich würde mal sagen, dass es bei TFT-Monitoren zwei Probleme gibt, die sich aufs Flimmern auswirken können.
Erstens hätten wir da das temporale Dithering von 6bit-Panels, was bereits ein geringes "Grundflimmern" erzeugen sollte.
Zweitens wäre da Overdrive, was dem Textur- und Shaderaliasing noch einen zusätzlichen Kick verpasst. Schon bei vernünftigem Bildinhalt schießt es oft genug übers Ziel hinaus, bei überscharfem Bildinhalt erst recht.

Theoretisch könnte man noch die zusätzlich berechneten Zwischenbilder durch DNM-Zeug als weiteren Aliasingverstärker nennen, aber diese Krankheit hat ja glücklicherdings bisher erst Fernseher befallen. Wer allerdings einen solchen als Monitor nutzt könnte bei zu knuspriger Darstellung versuchen, das DNM-Zeug abzustellen. Verträgt sich durch die zusätzliche Latenz eh nicht sonderlich mit der Zockerei.Inwiefern verstärkt DNM das Aliasing?

Gast
2008-10-06, 15:53:16
Inwiefern verstärkt DNM das Aliasing?Die Zwischenbilder sind ja zwangsläufig interpoliert. Wenn man das korrekte Zwischenbild berechnen will braucht man natürlich erstmal aliasingfreie Quelldaten, sprich das eigentliche Signal, dessen temporale Auflösung erhöht werden soll. Mit einer Menge Rechenpower und einem recht großen Referenzfenster kann man dieses zwar relativ gut annähern, für den praktischen Einsatz ist das aber nichtmal denkbar.

Nehmen wir mal ein einfaches Beispiel:
Eine blinkende Lampe bewegt sich in einer geraden Linie und wird dabei gefilmt. Sie blinkt langsam genug, um in der unbearbeiteten Aufnahme eindeutig als "blinkend" erkennbar zu sein, aber zu schnell, um ihre Frequenz direkt bestimmen zu können. Mit einem ausreichend großen Referenzfenster von vielen Frames Quellmaterial kann die ursprüngliche Blinkfrequenz und Bewegungsgeschwindigkeit ermittelt werden.
Das ist aber ein unrealistischer Sonderfall. Im allgemeinen haben wir keine konstanten Frequenzen, die durch längere Beobachtung zurückgewonnen werden, sondern ein ziemliches Wirrwarr schon innerhalb einer Szene plus dem Problem, dass die Szene (also das temporal höher aufzulösende Signal) so schnell durch eine andere ersetzt wird, dass selbst bei unbegrenzter Rechenleistung und genügendem Speicher nicht genug Quellmaterial zur Verfügung steht, um das Signal annähernd rekonstruieren zu können.

Später vielleicht mehr, Zeit ist gerade knapp :usad:

aths
2008-10-07, 00:29:17
Die Zwischenbilder sind ja zwangsläufig interpoliert. Wenn man das korrekte Zwischenbild berechnen will braucht man natürlich erstmal aliasingfreie Quelldaten, sprich das eigentliche Signal, dessen temporale Auflösung erhöht werden soll. Mit einer Menge Rechenpower und einem recht großen Referenzfenster kann man dieses zwar relativ gut annähern, für den praktischen Einsatz ist das aber nichtmal denkbar.

Nehmen wir mal ein einfaches Beispiel:
Eine blinkende Lampe bewegt sich in einer geraden Linie und wird dabei gefilmt. Sie blinkt langsam genug, um in der unbearbeiteten Aufnahme eindeutig als "blinkend" erkennbar zu sein, aber zu schnell, um ihre Frequenz direkt bestimmen zu können. Mit einem ausreichend großen Referenzfenster von vielen Frames Quellmaterial kann die ursprüngliche Blinkfrequenz und Bewegungsgeschwindigkeit ermittelt werden.
Das ist aber ein unrealistischer Sonderfall. Im allgemeinen haben wir keine konstanten Frequenzen, die durch längere Beobachtung zurückgewonnen werden, sondern ein ziemliches Wirrwarr schon innerhalb einer Szene plus dem Problem, dass die Szene (also das temporal höher aufzulösende Signal) so schnell durch eine andere ersetzt wird, dass selbst bei unbegrenzter Rechenleistung und genügendem Speicher nicht genug Quellmaterial zur Verfügung steht, um das Signal annähernd rekonstruieren zu können.

Später vielleicht mehr, Zeit ist gerade knapp :usad:DNM reduziert eher das Aliasing. Eine bereits etwas flimmrige Textur mit z. B. 25 fps bewegt flimmert mehr als wenn sie schön mit 50 oder 75 fps bewegt wird. Blinken zu rekonstruieren ist nicht Aufgabe von DNM. Soweit möglich, wird das zeitliche Aliasing reduziert (das Ruckeln.)

Analog zum räumlichen Antialiasing wäre eine Technik, die Treppenstufen erkennt und bei hinreichender Länge der Kante selbst Zwischenstufen berechnet. Das ist bei harten Kontrasten im Prinzip möglich. Genau wie bei DNM sind durch die Filterung im Nachhinein natürlich Grenzen gesetzt. Linienflimmern würde somit nicht unterdrückt, aber das was groß genug fürs Raster ist, würde besser dargestellt.