PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : CB: Duell der Generationen...


MadManniMan
2009-08-15, 10:02:00
... mit von der Partie:

Radeon X800 XL, X1650 XT, X1800 XT, X1950 XTX, HD 2600 XT, HD 2900 XT, HD 4890 & GeForce 6800, 7600 GT, 7900 GT, 7900 GTX, 8600 GTS, 8800 GTS und GTX 285.

Man hätte zwar gern noch ne 7800er, lieber eine 6800 GT und ne aktuelle kleinere nehmen können, aber was soll's!

Viel Spaß =) (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_duell_generationen/)

Captain Future
2009-08-15, 10:08:53
Ich vermisse, wie immer, Kommentare zu den einzelnen Benchmarks. Sowohl Durchfürhung als auch Ergebnisse bleiben zumeist im Dunkeln.

Vorab wird erwähnt, dass die X800 XL wg. SM2 manchmal eine andere Detaildarstellung zeigt - aber mal eine Spiel-by-Spiel-Einschätzung davon ist wohl zu schwierig. :(

MadManniMan
2009-08-15, 10:17:14
Aye, da hast Du vollkommen Recht. Ich hab auch erst mit dem Lesen angefangen, nachdem ich den Link gepostet habe - und fand mich schnell gelangweilt.

Captain Future
2009-08-15, 10:24:10
Aber die Idee solcher Artikel finde ich nice. Gab's ja auch schon hier im 3DC vor einiger Zeit mal:
http://www.3dcenter.org/artikel/die-leistungsf%C3%A4higkeit-alter-grafikkartengenerationen
Dann hat ihn PCGH nachgemacht (wenn auch etwas anders): http://www.pcgameshardware.de/aid,674689/Sechs-Grafikkarten-Generationen-im-Benchmark-Test/Grafikkarte/Test und nun eben CB. :)

san.salvador
2009-08-15, 11:08:33
Mir gibt das auch nicht viel. Nette Balken, sicherlich - aber was wollen die mir sagen?

xiao didi *
2009-08-15, 11:15:36
So ist zum Beispiele die GeForce 7600 GT „nur“ etwa drei Jahre älter als die GeForce GTX 285, die neuere Karte rendert aber um 713 Prozent (ohne AA/AF) beziehungsweise gar 1.035 Prozent (mit AA/AF) schneller.
Ähnliches gilt auch für das ATi-Lager: Die Radeon HD 4890 liegt um 551 Prozent (ohne AA/AF) respektive 653 Prozent (mit AA/AF) vor der Radeon X1650 XT.
:uconf3:

Mal ehrlich, Computerbase ist doch nicht mehr ernstzunehmen, oder?

Gast
2009-08-15, 11:43:24
Mal ehrlich, Computerbase ist doch nicht mehr ernstzunehmen, oder?
computerbase schmort im eigenen saft, außerhalb dieses paralleluniversums kann man über die artikel meist nur den kopf schütteln. seit die moderation kritische beiträge aus dem forum verbannt hat, sind die artikel per definition über jeden zweifel erhaben.

"super test, wie immer."
"danke, toll dass ihr euch so viel mühe macht."
"man erkennt, dass ein phenom in spielen einem core i7 ebenbürtig ist, gute arbeit."
"nvidia vernachlässigt wie so oft die ältere generation, ati-karten werden mit der zeit immer schneller."
"liebhaber von 8xaa wissen das zu schätzen."

den artikel hier finde ich gar nicht mal so übel, bei den alten karten braucht man das testsetup nicht so ernst nehmen. das ist ja nur spaß.

MartinRiggs
2009-08-15, 11:56:05
:uconf3:

Mal ehrlich, Computerbase ist doch nicht mehr ernstzunehmen, oder?

Das hab ich mir auch gedacht, wenn man schon so einen unsinnigen Vergleich führen will dann doch bitte die 7900GTX mit der GTX285 vergleichen und selbst dann ist es klar das die aktuelle Generationen meilenweit voraus ist:rolleyes:
Aber klar, ne 3 Jahre alte Midrange ist ja soviel langsamer als das aktuelle High-End Modell:lol::ucrazy4:

StefanV
2009-08-15, 11:56:50
Warum??
Weil die Prozente über 100 angeben??
Wenns mehr wird, kanns so sein.

Aber die Formulierung ist einfach scheisse, einfacher wäre es von 7x bzw 10x schneller oder, bei AMD, 5,5x bzw 6,5 mal schneller.
Wäre auch verständlicher...

Gast
2009-08-15, 12:15:16
:uconf3:

Mal ehrlich, Computerbase ist doch nicht mehr ernstzunehmen, oder?
Witzig ist, das sich diese Angaben daraus ergeben, das manche Karten mit 0 FPS oder unspielbaren FPS bewertet werden.

30 FPS sind natürlich 30x mal besser als 0 FPS, nicht 29x mal oder 32x mal. :ugly:

Gast
2009-08-15, 12:21:05
computerbase schmort im eigenen saft, außerhalb dieses paralleluniversums kann man über die artikel meist nur den kopf schütteln. seit die moderation kritische beiträge aus dem forum verbannt hat, sind die artikel per definition über jeden zweifel erhaben.

Kritik ist möglich, aber es kritisiert leider praktisch kaum einer.

Kritik gibts nur wenn mal HD4823a 2,11398% langsamer als GTX 267b ist, obwohl das nicht sein kann, in Unsinnssetting 4711d sind es nur 0,1498%.


"super test, wie immer."
"danke, toll dass ihr euch so viel mühe macht."
"man erkennt, dass ein phenom in spielen einem core i7 ebenbürtig ist, gute arbeit."
"nvidia vernachlässigt wie so oft die ältere generation, ati-karten werden mit der zeit immer schneller."
"liebhaber von 8xaa wissen das zu schätzen."
Sehr treffend auf den Punkt gebracht.
Unwissenheit wird groß geschrieben. Wer aus der Reihe tanzt wird abgestraft, aber zum Glück tanzt praktisch keiner aus der Reihe.

Nakai
2009-08-15, 14:41:25
Lol, HD2900XT sehr oft langsamer oder kaum schneller als eine X1950XT. Und die alte Geforce 7900GTX kackt bei hohen Settings total ab. Da ist eine Geforce 8600GTS oft schon ebenbürtig oder besser.


mfg Nakai

Ewiger-Gast
2009-08-15, 15:10:08
:uconf3:

Mal ehrlich, Computerbase ist doch nicht mehr ernstzunehmen, oder?


Genau der Teil, den du hier auch zitierst hat bei mir übelstes Kopfschütteln verursacht: Was willl man uns damit sagen?

Eine (noch) aktuelle HighEnd Karte gegen eine 3 Jahre alte Mittelklassekarte? Wobei auf den Klassenunterschied nichtmal eingegangen wird.

Da könnte ich genauso sagen: Eine 88GTX ist um (hier hohe Zahl in % einfügen) schneller als eine 3 Jahre _jüngere_! G210. Auch 0 Information.

Für den unwissenden steht im CB Artikel: neue Karte rockt 3 Jahre alte weg. Das aber kaum ein halbes Jahr später die 88GTX erschienen ist, die man wen schon wegen alter Highend gegen neuer Highend Karte vergelichen sollte, vergessen wir mal (Wenn schon GF 7 hätte sich mehr 7900 GTX, GT aus dem Test für ein paar Kommentare geeignet).

Ich lese noch CB (wie einige hier scheinbar auch sonnst würde sich keiner drüber aufregen) aber die Artikel nehme ich alles andre als für bare Münze. Ich kann auch hier genug Meinungen tw. nicht nachvollziehen, aber das ist jetzt nicht das Thema ....

Der Test ist so übel Zusammengewürfelt: Warum 800 XL? warum keine 1600 pro? Wo ist 88GTX/Ultra???!!! (<<<-total unverständlich), 3850/70? 8600 GT/GTS?

Und als moderne mittelGrakas (vor allem wei 88GTS/GTS 512 und alle GF9/GTS 2xx Derivate fehelen) GTS 250 und 4770 als Vergleich.


Und am besten ist _wie_ getestet wird. OK die Grafikarten werden mit unterschiedlichen Optimierungen (Bildverschlechterungen) getestet und welche Detaileinstellungen schreiben wir lieber gelich gar nicht hin.

Wäre ein Test nicht sinnvolle mit Aussagen: Eine GF 7 riecht noch für 1280x1024 in Mittleren Details (mit schwachem AF das hier scheinbar sowiso standardmäßig Verwendet wird, und ohne AA). Oder mit einer 88GTS 640 solllten sich gegen eine 4770 entscheiden und wenn auf die neue ATI Generation warten, oder gleich ins Higend Segment greifen. DAS wären mal Schlussfolgerungen.

sklave_gottes
2009-08-15, 15:12:07
Lol, HD2900XT sehr oft langsamer oder kaum schneller als eine X1950XT. Und die alte Geforce 7900GTX kackt bei hohen Settings total ab. Da ist eine Geforce 8600GTS oft schon ebenbürtig oder besser.


mfg Nakai

Jo, das ist echt bemerkenswert. Selbst eine 8800gts(320MB) ist meist nicht schneller. Hut ab, die X1800/X1900 Karten waren echt eine sehr gute Gen.

mfg martin

Nakai
2009-08-15, 15:29:11
Man kann sagen was man will. Der Test verdeutlicht, wie die Leistung in den letzten Jahren angestiegen ist.
Der Test zeigt nur, dass seit 2005 die Leistung etwa 14facht hat.
Aber vor allem ist es so, dass die Chips einfach besser mit den steigenden BQ-Features umgehen können.


mfg Nakai

mapel110
2009-08-15, 15:49:48
Ich glaub eher, dass die alten Karten so stark einbrechen, weil ihnen schlicht in den meisten Fällen der VRam ausgeht.

Gast
2009-08-15, 15:50:12
Man kann sagen was man will. Der Test verdeutlicht, wie die Leistung in den letzten Jahren angestiegen ist.
Der Test zeigt nur, dass seit 2005 die Leistung etwa 14facht hat.
Woran siehst du das?

Geteste Karten aus dem Jahr 2005 sind:
X1800 XT

Außerdem, 15 fache Leistung, wie wird das bemessen? 0 FPS gehen ins Rating ein.
Macht das Sinn?
Wie genau wird das bewertet, macht das so Sinn? Alternativ Setting, um mehr als so und so viel FPS zu bekommen?

VRAM Limitierung:
Manche Karten werden an ihrem VRAM in den Settings limitiert. Die FPS sind zwar längst im unspielbaren, aber dank dem Mangel fallen sie im Rating zurück.
Das Rating tut so, als ob es tatsächlich die Leistung wäre.

Aber vor allem ist es so, dass die Chips einfach besser mit den steigenden BQ-Features umgehen können.Alles andere wär auch entgegen aller Erwartungen.
Ok, eine X1xxx kann teilweise noch besser mit "BQ-Features" umgehen als eine HDx.

w0mbat
2009-08-15, 16:39:18
Jo, das ist echt bemerkenswert. Selbst eine 8800gts(320MB) ist meist nicht schneller. Hut ab, die X1800/X1900 Karten waren echt eine sehr gute Gen.

mfg martin

Waren?

*tätscheltseinex1900xt512mb* :D

Lawmachine79
2009-08-15, 16:46:08
Jo, das ist echt bemerkenswert. Selbst eine 8800gts(320MB) ist meist nicht schneller. Hut ab, die X1800/X1900 Karten waren echt eine sehr gute Gen.

mfg martin
Das ist ein Armutszeugnis für die Abteilung "Treiberentwicklung" von ATI. Sagt ein Besitzer von 4 ATI-Karten in 4 Rechnern...

=Floi=
2009-08-15, 16:59:55
die alten karten können doch garnicht mit der hohen shaderlast der aktuellen generation umgehen. rein von der logik her passt das nicht zusammen. die verfahren und technologien ändern sich einfach.

CB wollte bei dem vergleich wohl 2 gleich teure karten nehmen und dann kommen eben solche sachen dabei raus. ca 260€ für beide karten könnte durchaus passen. bei der 7600gt bin ich mir aber nicht so sicher.
die idee dahinter ist ja nicht schlecht, aber auf den ersten blick ist es so eben kein fairer vergleich. für eine 8800GTX bekomme ich heute GTX285 SLI!

ich finde CB hat sich hier schon mühe gegeben und es gibt eigentlich wenig kritikpunkte wie ich finde. es kamen alte und neue spiele darin vor und die settings sind auch fair gewählt. ich denke man hat hier gute arbit geleistet.

die 2900XT ist vom chip her so gut wie baugleich mit der 3870 und deshalb gibt es diese karte nicht im benchmarkt. man hat eben die anzahl der karten begrenzen müssen, weil es sonst eine zu große anzahl an benchmarks gegeben hätte.

Gast
2009-08-15, 17:11:43
Das ist ein Armutszeugnis für die Abteilung "Treiberentwicklung" von ATI.
Dazu müsste die Hardware bombastisch sein. Kann ich mir nicht vorstellen, das die HD 2900 XT noch derart viele Reserven hat.

y33H@
2009-08-15, 17:32:05
Selbst eine 8800gts(320MB) ist meist nicht schneller.Die GTS/320 war schon beim Release ein übler Speicherkrüppel. Wenig verwunderlich, dass eine X1900XT/512 (*meine lieb anguck*) schneller ist.

EDIT
Das Actionspiel „Lost Planet Colonies“ gibt es in zwei verschiedenen Versionen: Eine Direct3D-9- und eine Direct3D-10-Variante; Letztere hat es in unseren Parcours geschafft.Eine X1k und D3D10? ;D

Nakai
2009-08-15, 18:44:31
Ich glaub eher, dass die alten Karten so stark einbrechen, weil ihnen schlicht in den meisten Fällen der VRam ausgeht.

Naja, die 7900GTX hat 512MB, die 8600GTS hat in diesem Test nur 256MB. Und die X1950XTX hat ja auch 512MB und bricht nicht so stark ein. Aber es ist ja irgendwie bekannt, dass ATI ein besseres Speichermanagement besitzt, jedenfalls zu der Zeit. Außerdem, wenn man die getesteten Spiele anschaut, sieht man das bei Fear und HL2 die 7900GTX gut mithalten kann. Aber sobald man auf Crysis umschwenkt, rutscht die Karte ab. Sogar schon ohne AA und AF. Ich denke, der Geforce 7-Serie schmeckt keine modernere Software.

VRAM Limitierung:
Manche Karten werden an ihrem VRAM in den Settings limitiert. Die FPS sind zwar längst im unspielbaren, aber dank dem Mangel fallen sie im Rating zurück.
Das Rating tut so, als ob es tatsächlich die Leistung wäre.

Nicht bei allen Fällen limitiert der VRAM. Man muss nur die 7900GT(256MB) mit der 7900GTX (512MB) vergleichen.

Ok, eine X1xxx kann teilweise noch besser mit "BQ-Features" umgehen als eine HDx.

Komischerweise, ja...;D

Außerdem, 15 fache Leistung, wie wird das bemessen? 0 FPS gehen ins Rating ein.
Macht das Sinn?
Wie genau wird das bewertet, macht das so Sinn? Alternativ Setting, um mehr als so und so viel FPS zu bekommen?

Ja, wieso nicht? Der Test zeigt doch eh nur auf, was sich in den letzten Jahren verändert hat. Das die alten Karten so am Limit laufen, sollte nicht verwundern. Jedenfalls wäre es interessant zu sehen, wie die Karten nicht mit vollen Settings performen, jedenfalls die Karten die da richtig abkacken. Aber da sind wir wieder bei der typischen Diskussion, wie man richtig bencht.


mfg Nakai

Gast
2009-08-15, 19:37:19
Eine X1k und D3D10? ;D
Hach, du hast gerade einen schweren Fehler gefunden. ;)
Alle D3D9 Karten müssten mit 0 FPS eingetragen werden. ;D
Das Spiel könnte man weiter tragen, nur noch D3D10 Spiele testen, tja dann sind die D3D9 Karten weit hinten. ;D


Nicht bei allen Fällen limitiert der VRAM. Man muss nur die 7900GT(256MB) mit der 7900GTX (512MB) vergleichen.
Habe ich gemacht, in WoC 1680, 4xAA, 16xAF ist die 7900 GT schneller als die 7900 GTX. ;D

mictasm
2009-08-15, 21:33:32
Erinnert mich vom Erkenntnisgewinn irgendwie an die Autobild. Die haben letzte Woche in einem Bericht herausgearbeitet, dass Autos mit zunehmender Beladung, mit mehr Gaspedaldruck und Geschwindigkeit und durch Dachaufbauten mehr Kraftstoff verbrauchen. Fehlt nur noch der Hinweis, dass man durch Bremsen zum Stillstand kommt. :)

Nakai
2009-08-15, 22:57:00
Habe ich gemacht, in WoC 1680, 4xAA, 16xAF ist die 7900 GT schneller als die 7900 GTX.

Das ist selbst unter Beücksichtigung aller Möglichkeiten nicht möglich...:freak:

Fehler Nummer 2 bei CB?


mfg Nakai

The_Invisible
2009-08-15, 23:12:33
Erinnert mich vom Erkenntnisgewinn irgendwie an die Autobild. Die haben letzte Woche in einem Bericht herausgearbeitet, dass Autos mit zunehmender Beladung, mit mehr Gaspedaldruck und Geschwindigkeit und durch Dachaufbauten mehr Kraftstoff verbrauchen. Fehlt nur noch der Hinweis, dass man durch Bremsen zum Stillstand kommt. :)

vor allem da die Renderingqualität zwischen den ganzen Karten sehr schwankt.

mfg

y33H@
2009-08-15, 23:20:57
Die „Optimierungen“ des anisotropen Filters im Treiber belassen wir bei den Standard-Einstellungen. Uns ist bewusst, dass so die Grafikqualität zwischen den unterschiedlichen Generationen zum Teil stark unterschiedlich ist. Jedoch ist die Performance der älteren Karten bereits dermaßen niedrig, sodass wir diese nicht noch weiter verringern wollen. Eine generelle Vergleichbarkeit wäre durch die sehr unterschiedlichen AF-Algorithmen zudem unmöglich zu erreichen.Ohne AF benchen wäre eine Option, aber wer will schon auf AF verzichten.Es wurde ohne und mit AF gebencht.

Schrotti
2009-08-15, 23:24:30
Ich lese den Kram bei CB eh nicht mehr.

Habe sachliche Kritik geübt und habe dafür einen Punkt kassiert.

Super Sache.

Lawmachine79
2009-08-16, 00:14:12
Dazu müsste die Hardware bombastisch sein. Kann ich mir nicht vorstellen, das die HD 2900 XT noch derart viele Reserven hat.
Japp, die HD2900XT hat mich überrascht. Wenn sie damals tatsächlich in Relation zur 88GTS so abgeschnitten hätte, wäre sie immerhin Durchschnitt und kein Flop gewesen.

Gast
2009-08-16, 00:35:53
Ich lese den Kram bei CB eh nicht mehr.

Habe sachliche Kritik geübt und habe dafür einen Punkt kassiert.

Super Sache.
Ach laber keinen. Sachliche kritik ist sicher möglich. Nur einige wissen gar nicht mehr was sachlich ist :rolleyes

Kephis
2009-08-17, 08:53:46
Ich finde schon das der Test für die Zielgruppe hilfreich ist, nämlich für Leute die sich für ne Aufrüstung ihrer Graka interessieren und mal einen direkt Vergleich haben wollen wie ihre alte Graka gegen eine heutige in Spiel XY abschneidet. Auch wenn natürlich der Test durch Sachen wie das einfliessen von 0 FPS ins Performance Rating nicht wirklich Handwerklich gut gemacht ist.
Aber das ist glaub ich etwas das nur Leute stört die den Test aus dem Gesichtspunkt des testens um des testens willen betrachten.
Ein Zocker der kein Hardwarefreak ist aber seine alte Graka mal austauschen möchte der sieht in dem Test schön das seine Graka in game XY bei Settings/Resolution XY so und so viel bringt und das wenn er Graka YX kaufen würde es so und so viel bringt. Mehr will er ja gar nicht wissen.

Was mir der Test nochmals schön vor Augen führte, ich aber natürlich eh schon wusste, war das das einzige mal wo ich mir eine High End Graka kaufte sich der Kauf voll und ganz bezahlt hat. Die Radeon X1900XTX war einfach ein Schmuckstück bis zum letzten Tag und hat auch nie zicken gemacht, habe die damals ~500€ nie bereut.
Natürlich sollte man trotzdem niemandem empfehlen High End zu kaufen ausser er sagt ausdrücklich Geld ist ihm egal. Die Radeon X1900XTX war zwar eine sehr gute Karte aber das sie jetzt noch so gut dasteht ist ganz besonders zwei Faktoren zu verdanken:

1) ATI haut in seine Babys scheinbar aus Prinzip ohne Sinn und Verstand Shader Einheiten die dann unbenutzt brach liegen, was sich wiederum dann später bezahlt machte als Spiele kamen die die dann auch wirklich nutzten.

2) Ich sollte mich bei MS bedanken für das Desaster was sie mit DX 10 ablieferten, durch die Bindung an Vista war DX 10 quasi tot. So konnte man mit ner DX 9 Karte gut zu recht kommen ohne auf irgendwas verzichten müssen.

Ich hatte meine Radeon X1900XTX bis Juli diesen Jahres und war bis zur letzten Sekunde glücklich mit ihr. Gekauft hatte ich sie 2005 um ~500€ wenn ich mich richtig erinnere. Und seit damals gab es kein Spiel das ich nicht spielen konnte und das auf meinem 22 Zöller mit ner nativen Auflösung von 1680x1050.Natürlich musste ich je nach Spiel AA anpassen, aber sonst lief alles wunderbar. Selbst Crysis habe ich noch mit der Karte durchgezockt damals, natürlich nur auf Medium Settings und ohne AA aber mit keinerlei Abstriche bei der Spielbarkeit/Spielspaß. Die meisten Sachen liefen sogar noch auf high Details flüssig, was auch daran liegt das die Grafik seit einigen Jahren auf der Stelle tritt.

Erst diesen Juli habe ich die Karte ersetzt da ich mein MB wegen Defekt erneuern musste und ich mir dann auch noch CPU/RAM neuholen musste, da dachte ich mir dann kauf ich mir gleich ne neue GraKa. Habe jetzt die Sparkle Geforce 260 GTX 896mb. Leistung stieg natürlich an aber zufrieden bin ich mit der Karte nicht wirklich, werde sobald die ersten guten DX 11 Karten von ATI kommen auf jedenfall wechseln.
Komme mit den NVIDIA Treibern so gar nicht zurecht und vermisse mein ATT sehr. Ausserdem ist wurde die Bildquali in manchen games sogar schlechter trotz nhancer und max settings. Ist wahrscheinlich ein Bug aber in z.b. FIFA 09 habe ich Aliasing ohne Ende, die Tribünen flimmern das man nach ner Stunde spätestens aushört aus Angst vor nem Epileptischen Anfall! :eek:

tldr:

Guter Test für die angestrebte Zielgruppe!
Ich liebe meine Radeon X1900XTX!;D

mfg, Kephis!

Schlammsau
2009-08-17, 09:30:59
Ich finde schon das der Test für die Zielgruppe hilfreich ist, nämlich für Leute die sich für ne Aufrüstung ihrer Graka interessieren und mal einen direkt Vergleich haben wollen wie ihre alte Graka gegen eine heutige in Spiel XY abschneidet. Auch wenn natürlich der Test durch Sachen wie das einfliessen von 0 FPS ins Performance Rating nicht wirklich Handwerklich gut gemacht ist.
Aber das ist glaub ich etwas das nur Leute stört die den Test aus dem Gesichtspunkt des testens um des testens willen betrachten.
Ein Zocker der kein Hardwarefreak ist aber seine alte Graka mal austauschen möchte der sieht in dem Test schön das seine Graka in game XY bei Settings/Resolution XY so und so viel bringt und das wenn er Graka YX kaufen würde es so und so viel bringt. Mehr will er ja gar nicht wissen.

Was mir der Test nochmals schön vor Augen führte, ich aber natürlich eh schon wusste, war das das einzige mal wo ich mir eine High End Graka kaufte sich der Kauf voll und ganz bezahlt hat. Die Radeon X1900XTX war einfach ein Schmuckstück bis zum letzten Tag und hat auch nie zicken gemacht, habe die damals ~500€ nie bereut.
Natürlich sollte man trotzdem niemandem empfehlen High End zu kaufen ausser er sagt ausdrücklich Geld ist ihm egal. Die Radeon X1900XTX war zwar eine sehr gute Karte aber das sie jetzt noch so gut dasteht ist ganz besonders zwei Faktoren zu verdanken:

1) ATI haut in seine Babys scheinbar aus Prinzip ohne Sinn und Verstand Shader Einheiten die dann unbenutzt brach liegen, was sich wiederum dann später bezahlt machte als Spiele kamen die die dann auch wirklich nutzten.

2) Ich sollte mich bei MS bedanken für das Desaster was sie mit DX 10 ablieferten, durch die Bindung an Vista war DX 10 quasi tot. So konnte man mit ner DX 9 Karte gut zu recht kommen ohne auf irgendwas verzichten müssen.

Ich hatte meine Radeon X1900XTX bis Juli diesen Jahres und war bis zur letzten Sekunde glücklich mit ihr. Gekauft hatte ich sie 2005 um ~500€ wenn ich mich richtig erinnere. Und seit damals gab es kein Spiel das ich nicht spielen konnte und das auf meinem 22 Zöller mit ner nativen Auflösung von 1680x1050.Natürlich musste ich je nach Spiel AA anpassen, aber sonst lief alles wunderbar. Selbst Crysis habe ich noch mit der Karte durchgezockt damals, natürlich nur auf Medium Settings und ohne AA aber mit keinerlei Abstriche bei der Spielbarkeit/Spielspaß. Die meisten Sachen liefen sogar noch auf high Details flüssig, was auch daran liegt das die Grafik seit einigen Jahren auf der Stelle tritt.

Erst diesen Juli habe ich die Karte ersetzt da ich mein MB wegen Defekt erneuern musste und ich mir dann auch noch CPU/RAM neuholen musste, da dachte ich mir dann kauf ich mir gleich ne neue GraKa. Habe jetzt die Sparkle Geforce 260 GTX 896mb. Leistung stieg natürlich an aber zufrieden bin ich mit der Karte nicht wirklich, werde sobald die ersten guten DX 11 Karten von ATI kommen auf jedenfall wechseln.
Komme mit den NVIDIA Treibern so gar nicht zurecht und vermisse mein ATT sehr. Ausserdem ist wurde die Bildquali in manchen games sogar schlechter trotz nhancer und max settings. Ist wahrscheinlich ein Bug aber in z.b. FIFA 09 habe ich Aliasing ohne Ende, die Tribünen flimmern das man nach ner Stunde spätestens aushört aus Angst vor nem Epileptischen Anfall! :eek:

tldr:

Guter Test für die angestrebte Zielgruppe!
Ich liebe meine Radeon X1900XTX!;D

mfg, Kephis!

Dem ist nichts hinzuzufügen, volle Zustimmung meinerseits!

Gast
2009-08-17, 11:16:07
Sachliche kritik ist sicher möglich.
Dennoch geht CB/Wolfgang praktisch nicht auf die Kritik ein, die sich zwischen den ganzen Lobeshymnen finden lässt.

Gast
2009-08-17, 11:21:26
http://www.computerbase.de/forum/showthread.php?p=6483843#post6483843 *hust*

Gast
2009-08-17, 11:26:19
Ich finde schon das der Test für die Zielgruppe hilfreich ist, nämlich für Leute die sich für ne Aufrüstung ihrer Graka interessieren und mal einen direkt Vergleich haben wollen wie ihre alte Graka gegen eine heutige in Spiel XY abschneidet. Auch wenn natürlich der Test durch Sachen wie das einfliessen von 0 FPS ins Performance Rating nicht wirklich Handwerklich gut gemacht ist.
Aber das ist glaub ich etwas das nur Leute stört die den Test aus dem Gesichtspunkt des testens um des testens willen betrachten.
Ein Zocker der kein Hardwarefreak ist aber seine alte Graka mal austauschen möchte der sieht in dem Test schön das seine Graka in game XY bei Settings/Resolution XY so und so viel bringt und das wenn er Graka YX kaufen würde es so und so viel bringt. Mehr will er ja gar nicht wissen.
Das 0FPS einfliessen ist tragischer.
Hinten am Tests gibt es das Rating. Viele schauen als allererstes (und damit auch als letztes) ins Rating.

Die 0FPS sind kein Schönheitsfehler, sie sind ein grober Mangel. Mit einem Setting, das überall läuft wäre es gegangen, aber nein....
So wird nicht die Performance gezeigt, sondern irgendwas. Andere Settings sind wieder ungut für neue Karten, stimmt, die Sache ist schwierig.
Hilflreich wäre auf jeden Fall der alte 4Ghz Quad gewesen, um in Verbindung mit weniger CPU limtitierten Szenen die CPU als Fehler auszumerzen.

Der kleine VRAM alter Karten fliesst ebenfalls ein, das ist auch so eine Sache.
Bei einstelligen oder unspielbaren 20 FPS limtitiert dort öfter mal der VRAM, praxisnah ist es keineswegs.
Eine 6800 mit 512MiB wäre in dem Test deutlich schneller, im realen Leben ist der Unterschied ein Witz.
Die Aussage eines Tests, wo bei unspielbaren FPS der VRAM limitiert tendiert somit gegen null.

Gast
2009-08-17, 11:27:22
http://www.computerbase.de/forum/showthread.php?p=6483843#post6483843 *hust*
Einmal hat er einen Bruchteil der Kritik beantwortet.

Gast
2009-08-17, 11:31:07
Ach so, "auf Kritik eingehen" heißt also nicht die sachlichen Erwägungen darzulegen sondern "zu kreuze kriechen und die Genialität versammelter Spezialisten anerkennen, die sowieso alles besser wissen und können", ja stimmt, das macht er wirklich nicht.

LovesuckZ
2009-08-17, 11:54:17
Warum sollten 0 FPS nicht mit ins Rating einfließen? :confused:

Schlammsau
2009-08-17, 11:54:43
Wenn ich mir die Kritiken der meisten hier und bei CB so durchlese, beschleicht sich mir das Gefühl, als solle man bei jeden Hardware Test, eine Doktorarbeit ablegen.

Leute.....auch wenn die Tests nicht immer optimal durchgeführt sind, sind sie trotz allem ein sehr guter Leistungsindikator. CB gibt sich, denke ich, sehr viel Mühe bei den Tests und geht die Sache auch recht unparteiisch an.

Als schade empfinde ich aber, dass keine Review Seite bisher, auf die 2 Display Problematik der aktuellen GTX2xx Serie eingeht.

Kephis
2009-08-17, 13:15:03
Das 0FPS einfliessen ist tragischer.
Hinten am Tests gibt es das Rating. Viele schauen als allererstes (und damit auch als letztes) ins Rating.

Die 0FPS sind kein Schönheitsfehler, sie sind ein grober Mangel. Mit einem Setting, das überall läuft wäre es gegangen, aber nein....
So wird nicht die Performance gezeigt, sondern irgendwas. Andere Settings sind wieder ungut für neue Karten, stimmt, die Sache ist schwierig.
Hilflreich wäre auf jeden Fall der alte 4Ghz Quad gewesen, um in Verbindung mit weniger CPU limtitierten Szenen die CPU als Fehler auszumerzen.

Der kleine VRAM alter Karten fliesst ebenfalls ein, das ist auch so eine Sache.
Bei einstelligen oder unspielbaren 20 FPS limtitiert dort öfter mal der VRAM, praxisnah ist es keineswegs.
Eine 6800 mit 512MiB wäre in dem Test deutlich schneller, im realen Leben ist der Unterschied ein Witz.
Die Aussage eines Tests, wo bei unspielbaren FPS der VRAM limitiert tendiert somit gegen null.

Nur das du denke ich übersiehst für wen der Test gemacht wurde!
Der Zielgruppe ist es Wurst das die Karte 0 FPS hat weil kein SM3 oder das ob sie 0 FPS hat weil zulangsam (wenns sowas geben würde), die sind nur am Resultat = 0FPS interessiert. Das heißt sie können das game mir der Karte nicht zocken, warum und wieso sie es nicht zocken können interessiert doch die Zielgruppe gar nicht.

Genauso das Beispiel mit dem VRAM, was nützt es wenn der Otto Normal Zocker weiß das GraKa XY nicht gut läuft weil VRAM zu klein ist, ihm ist egal warum sie nicht läuft. Der will ne GraKa die er ansteckt und am besten noch Windows gleich erkennt damit er keine Treiber installieren muß, und die dann läuft und läuft und läuft................

Das Forum hier ist halt nicht das Klientel das CB ansprechen will.
Ich reg mich ja auch nicht über Tests von Computer Bild auf weil die so simpel sind, sondern ich weiß welche Zielgruppe angesprochen werden soll.
Das ist übrigens generell in der Wirtschaft so das man bevor man sagen kann ein Produkt ist gut oder nicht gut erstmal die Intention des Herstellers dahinter kennen muß.

elianda
2009-08-17, 13:28:13
Ich finde diese Tests immer recht unprofessionell vorbereitet, als ob man schnell Content rauswerfen will.
Moechte man einen vernuenftigen Überblick über alte Generationen haben, so waehlt man doch jeweils die populaere Mainstream Karte, die Standard Karte und die High End Karte einer Generation aus, also in etwa:
6600GT populaere Mainstream Karte
6800GT Standard Karte
6800 Ultra High End
bzw.
7600GT populaere Mainstream Karte
7900GTX Standard Karte
7950GX2 High End Karte

Damit setzt man Performancepunkte und kann damit gleich das Verhaeltnis der Karten zwischen den Generationen vergleichen, ob z.B. Mainstream an High End heranrueckt von Generation 6xxx zu 7xxx.
Dann natuerlich das Feature Problem, also sind denn alle Karten unter gleichen Voraussetzungen gebencht. Wenn nicht, wo liegt der Unterschied?
Bei Verschiedenen Generationen kommt dieses Problem doch zwangslaeufig hoch.

Dann sekundaere Features, wie Multi Monitor. Da wurde gar nicht dazu gesagt. Stromverbrauch ok - aber warum gibts da keine Referenz ohne Grafikkarte, also der Null-Wert?

Und relativ allgemein, wie kommt die Endwertung zustande? Sollte man nicht mal von den Zahlen wegkommen und sich nach Spielbarkeit fragen?
Jeder normale Spieler mit einer schlechteren Grafikkarte fragt sich viel eher folgendes:
Wie weit muss ich im Spiel die Grafik runterstellen, damit es noch spielbar laeuft.
Wie weit sinkt dabei die Grafikqualitaet?
Erst dann kommt abhängig vom Budget die Frage, ob es ihn massgeblich stoert und er sich eine neue kauft.

Vielleicht sollte man Blindtests machen, wo man Probanden vor ein Spiel setzt und diese einen Fragebogen nach Testspielen von Szenen ausfuellen zu Spielbarkeit und Grafikqualitaet, ggf. mit Vergleichsreferenzbild. Ganz ohne FPS Zahlen.

Gast
2009-08-17, 13:44:26
Warum sollten 0 FPS nicht mit ins Rating einfließen? :confused:
Weil es ein Leistungsvergleich sein soll. 10 FPS vs 0 FPS ist eine Steigerung von Unendlich, folglich müsste im abschließenden Rating eine 8800 GTS 640 unendlich mal schneller als eine 7900 GTX sein, nicht xxx%.

Nur das du denke ich übersiehst für wen der Test gemacht wurde!
Der Zielgruppe ist es Wurst das die Karte 0 FPS hat weil kein SM3 oder das ob sie 0 FPS hat weil zulangsam (wenns sowas geben würde), die sind nur am Resultat = 0FPS interessiert. Das heißt sie können das game mir der Karte nicht zocken, warum und wieso sie es nicht zocken können interessiert doch die Zielgruppe gar nicht.

Naja, im Fazit wirft CB mit % um sich, nicht mit Spielbarkeit.
Die Erkenntnis die man gewinnt ist, das eine neue Karte schneller als eine alte Karte ist.

HL2 kann man mit einer 6800 spielen, kein Thema. Eine GTX 285 kann HL2 höhere Settings fahren. Eine 6800 ist in diesen Settings hoffnungslos verloren.
Aber was bringt diese Erkenntnis? Ich meine das ist doch vorher klar gewesen.

Genauso das Beispiel mit dem VRAM, was nützt es wenn der Otto Normal Zocker weiß das GraKa XY nicht gut läuft weil VRAM zu klein ist, ihm ist egal warum sie nicht läuft. Der will ne GraKa die er ansteckt und am besten noch Windows gleich erkennt damit er keine Treiber installieren muß, und die dann läuft und läuft und läuft................
Die Karten laufen nicht wegen dem VRAM so lahm. Die FPS sind im unspielbaren Bereich, aber die Karten mit wenig VRAM sind nochmal ein Stück schlechter, obwohl in der Praxis völlig ohne Belang. Nur fürs Rating zählt es obs 11 oder 15 FPS sind.

Verstehst du was ich meine? Otto bringt das nichts. Es wirbelt lediglich das Rating durcheinander.


Das Forum hier ist halt nicht das Klientel das CB ansprechen will.
Ich reg mich ja auch nicht über Tests von Computer Bild auf weil die so simpel sind, sondern ich weiß welche Zielgruppe angesprochen werden soll.
Das ist übrigens generell in der Wirtschaft so das man bevor man sagen kann ein Produkt ist gut oder nicht gut erstmal die Intention des Herstellers dahinter kennen muß.
Irgendwo hast du Recht, der Test ist nicht fürs 3DC und auch nicht zum Hinterfragen gedacht.

LovesuckZ
2009-08-17, 13:53:33
Weil es ein Leistungsvergleich sein soll. 10 FPS vs 0 FPS ist eine Steigerung von Unendlich, folglich müsste im abschließenden Rating eine 8800 GTS 640 unendlich mal schneller als eine 7900 GTX sein, nicht xxx%.


Ja und wieso sollten 0 FPS nicht mit einbezogen werden? Das Problem besteht doch wohl darin, dass aus einer absoluten Zahl eine relative Zahl gemacht wird.
Ein Leistungsindex kann also nur immer aus den Teilnehmer gebildet werden, die alle Tests durchlaufen können. Sollte irgendwo eine 0 auftreten, dann kann diese Karte auch im umfassenden Index nicht plaziert werden.
Oder die komplette Messung aller Teilnehmer darf nicht berücksichtig werden.

Schlammsau
2009-08-17, 14:29:07
....

Definiere Spielbar!
Für den einen reichen 25FPS, für den anderen ist alles unter 50FPS "Augenkrebsfördernd".

Wie du siehst, alles nicht so einfach.

xiao didi *
2009-08-17, 14:39:36
Wenn ich mir die Kritiken der meisten hier und bei CB so durchlese, beschleicht sich mir das Gefühl, als solle man bei jeden Hardware Test, eine Doktorarbeit ablegen.

Leute.....auch wenn die Tests nicht immer optimal durchgeführt sind, sind sie trotz allem ein sehr guter Leistungsindikator. CB gibt sich, denke ich, sehr viel Mühe bei den Tests und geht die Sache auch recht unparteiisch an.

Als schade empfinde ich aber, dass keine Review Seite bisher, auf die 2 Display Problematik der aktuellen GTX2xx Serie eingeht.
Sorry Schlammsau, aber da musste ich gerade echt lachen. Das klingt so absurd aufgesetzt, dass man dir böse Absicht unterstellen könnte.

Mich stören an diesem Artikel auch gar nicht die Tests. Die verstehe ich als just for fun, und das ist auch in Ordnung so. Aber warum muss das Fazit sich dann wieder so toternst nehmen und damit völlig unpassend sein? Handwerklich schlechte Tests durchführen und dann dem Leser bewiesene Erkenntnisse suggerieren, ist schlicht unprofessionell.

Kephis
2009-08-17, 15:13:57
Weil es ein Leistungsvergleich sein soll. 10 FPS vs 0 FPS ist eine Steigerung von Unendlich, folglich müsste im abschließenden Rating eine 8800 GTS 640 unendlich mal schneller als eine 7900 GTX sein, nicht xxx%.


Die Leute interessiert doch nur ob es läuft oder eben nicht, ob das ganze mathematisch korrekt ist ist doch dem Otto Normal Zocker latte.
0 FPS sagt ihm gut die Karte läuft mit dem Spiel nicht, mehr will er gar nicht wissen, warum die nicht läuft ist ihm sowas von egal.


Naja, im Fazit wirft CB mit % um sich, nicht mit Spielbarkeit.
Die Erkenntnis die man gewinnt ist, das eine neue Karte schneller als eine alte Karte ist.

Die Erkenntnis ist ja auch richtig, wenn ich jemand bin der sich mit Hardware nicht auskennt und ich will meine alte GraKa aufrüsten, dann ist für mich eine 260GTX oder 4870 besser als eine 8800, warum und wieso ist mir dann egal.
Ich kauf die 260 oder 4870 und zock weiter vor mich hin.


HL2 kann man mit einer 6800 spielen, kein Thema. Eine GTX 285 kann HL2 höhere Settings fahren. Eine 6800 ist in diesen Settings hoffnungslos verloren.
Aber was bringt diese Erkenntnis? Ich meine das ist doch vorher klar gewesen.


Ja uns ist das vorher klar gewesen, das versuch ich ja zu vermitteln!
Der Test ist nicht für uns gemacht, für die gedachte Zielgruppe ist der test völlig ausreichend. Würde ich jetzt aber z.b. auf der Strasse irgendeinen Fragen ob die 6800 oder die 285 schneller ist, hätte der keine Ahnung. Genau für den ist dieser Test gemacht.


Die Karten laufen nicht wegen dem VRAM so lahm. Die FPS sind im unspielbaren Bereich, aber die Karten mit wenig VRAM sind nochmal ein Stück schlechter, obwohl in der Praxis völlig ohne Belang. Nur fürs Rating zählt es obs 11 oder 15 FPS sind.

Siehe oben, ohne belang für die Zielgruppe warum etwas nicht funktioniert.


Verstehst du was ich meine? Otto bringt das nichts. Es wirbelt lediglich das Rating durcheinander.

Doch Otto kann seinen nutzten ziehen daraus, er wird sich eine der oberen Karten kaufen also eine 285 oder 4890 und damit lange lange Zeit glücklich sein. Mehr braucht Otto nicht, denn er will ja im Gegensatz zu uns Freaks nicht die GraKas untereinander vergleichen um des vergleichen willens, sondern er will einen EINFACHEN/SCHNELLEN Vergleich den er einmal liest und sich dann ne Karte kauft die ihn für lang Zeit zufrieden stellt.


Irgendwo hast du Recht, der Test ist nicht fürs 3DC und auch nicht zum Hinterfragen gedacht.

Genau meine Rede, ich verstehe eh nicht warum hier über CB und andere hergezogen wird und jeder neue Test ein neuer Thread wert ist. So langsam sollte sich doch schon herum gesprochen haben das CB nicht wirklich für Freaks und Enthusiasten geeignet ist. Warum man sich das dann trotzdem immer wieder antut verstehe ich nicht. Ihr kauft doch auch nicht jedesmal Computer Bild um dann wieder über deren Tests zu meckern, oder? Es wird scheinbar gemeckert um des meckerns willen, anstatt das man einfach solche Seiten die nicht mich ansprechen wollen meidet.

Gast
2009-08-17, 15:16:42
Ja und wieso sollten 0 FPS nicht mit einbezogen werden? Das Problem besteht doch wohl darin, dass aus einer absoluten Zahl eine relative Zahl gemacht wird.
Ein Leistungsindex kann also nur immer aus den Teilnehmer gebildet werden, die alle Tests durchlaufen können. Sollte irgendwo eine 0 auftreten, dann kann diese Karte auch im umfassenden Index nicht plaziert werden.
Oder die komplette Messung aller Teilnehmer darf nicht berücksichtig werden.
Ob die 0 FPS einbezogen werden teilt CB nicht mit. Ebensowenig wie die anderen bewertet werden, wenn die 0 FPS nicht einbezogen werden würden.

CB ist nicht dahergegangen und hat die Karten am Ende mit 0% bewertet.
Nachdem ich dein Post so durchlese komme ich zu dem Schluss, das dies so hätte geschehen müssen, egal ob das Ergebniss dadurch an Wert verliert.
Was CB gemacht hat, das bleibt ein Geheimnis, jedenfalls ist es nicht der erste Test, wo mal 0 FPS rauskommen.

Einen Test wo alle D3D9 Karten am Ende mit 0% hervorgehen, die neuen Karten mit unendlich viel %, halte ich für sinnfrei.
Die für mich resultierende Lösung heißt: Vergleichbare und nutzbare Settings. Ein schwarzes Bild ist unnütz.

Wolfgang@CB
2009-08-17, 16:14:59
Warum sollten 0 FPS nicht mit ins Rating einfließen? :confused:

Das frage ich mich auch. Immerhin ist 0 FPS im Prinzip ein Totalsuafall, da das Setting nicht dargestellt werden konnte. Also eine nicht erbrachte Leistung. Soll man die Karten deswegen im Rating besser darstehen lassen, weil sie etwas gar nicht können?

MadManniMan
2009-08-17, 16:23:49
Und wie wird die 0 einberechnet? Einmal unendlich viel schlechter bleibt immer unendlich viel schlechter.

Kephis
2009-08-17, 16:28:09
omg ihr macht euch über Dinge gedanken........ ^^

Gast
2009-08-17, 16:32:27
Und wie wird die 0 einberechnet? Einmal unendlich viel schlechter bleibt immer unendlich viel schlechter.
Das ist der Punkt der mich brennend interessiert.

LovesuckZ
2009-08-17, 16:36:39
Das Problem ist doch, dass die Leute aus der abschließenden absoluten Zahl eine relative in Zusammenhang mit den anderen machen wollen/müssen. Das es dann natürlich unsinnig ist, steht außer Frage.

Iwan
2009-08-17, 16:54:51
Ja man kann so vergleiche nicht auf einen einzelnen Prozentwert herunterbrechen. Wenn dann muss es mindestens noch auf die verschiedenen DX-Level aufgedrösselt werden. So sehr ich simple Darstellungen mag, hier hat sich CB es etwas zu leicht gemacht.

pest
2009-08-17, 17:07:52
Und wie wird die 0 einberechnet? Einmal unendlich viel schlechter bleibt immer unendlich viel schlechter.

0 fps und 100 fps sind im schnitt 50 fps :rolleyes::eek::freak:

Gast
2009-08-17, 17:44:44
0 fps und 100 fps sind im schnitt 50 fps :rolleyes::eek::freak:
Ich gehe also davon aus, dass ich im Schnitt mit 50 Fps spielen kann. Da stehe ich aber dumm da, wenn ich dann das "0-Fps"-Spiel am Wickel habe und es gar nicht spielen kann.

Gast
2009-08-17, 17:45:13
omg ihr macht euch über Dinge gedanken........ ^^
Angst vorm Denken?

pest
2009-08-17, 17:47:36
Ich gehe also davon aus, dass ich im Schnitt mit 50 Fps spielen kann. Da stehe ich aber dumm da, wenn ich dann das "0-Fps"-Spiel am Wickel habe und es gar nicht spielen kann.

wenn 9 leute im monat 1000,-€ verdienen und einer 1mio € dann sind das im schnitt immernoch 100900,-€ verdienst :wink:

Gast
2009-08-17, 17:59:22
wenn 9 leute im monat 1000,-€ verdienen und einer 1mio € dann sind das im schnitt immernoch 100900,-€ verdienst :wink:
Dann kann man eine Pauschalsteuer von 40000€ einführen. :)

Gast
2009-08-18, 00:08:27
Als schade empfinde ich aber, dass keine Review Seite bisher, auf die 2 Display Problematik der aktuellen GTX2xx Serie eingeht.;D

y33H@
2009-08-18, 00:16:48
Als schade empfinde ich aber, dass keine Review Seite bisher, auf die AF-, Treiber- und VRM-Problematik der aktuellen HD-Serie eingeht.

Kephis
2009-08-18, 00:51:25
Angst vorm Denken?

Ne denken ist was wundervolles, aber man kann halt auch 10 Stunden darüber diskutieren warum Computer Bild dieses und jenes tut, nur ob das wirklich irgendwie sinnvoll ist ist halt die andere Frage.
Ich gehe ja auch nicht ins Kino um mir einen Teletubbie Film anzuschauen nur um dann zu meckern wie kindisch der doch ist und das eine Sonne ja eigentlich nicht aus Pappe sein kann und die Studio Scheinwerfer Schatten werfen die nicht zur Sonne passen. :freak:

Oder ich kann einfach akzeptieren das für die Zielgruppe für die Teletubbie gemacht ist, es einfach nicht relevant ist ob die Sonne aus Pappe ist und die Schatten dank der Studio Scheinwerfer nicht zur Papp Sonne passen.
Und gehe dafür in einen Film der auch auf mich zugeschnitten ist, wenn darin dann irgendwas nicht passt, dann kann ich darüber diskutieren und mich austauschen.

Aber einfach nur Tests lesen um dann begierig nach Fehlern zu suchen die eh schon von vornherein klar waren ist doch vollkommen, ähm witzlos.
Wenn ich einmal CB lese und merke das die dort nicht mein Niveau von Berichterstattung bringen, warum sollte ich dann immer wieder dorthin zurück gehen anstatt z.b. mir Seiten wie 3dguru oder planet3d anzusehen die ja genau auf mich zugeschnitten sind?

Wolfram
2009-08-18, 01:52:10
Ich finde diese Tests immer recht unprofessionell vorbereitet, als ob man schnell Content rauswerfen will.
Das wird einfach am Geld(-mangel) liegen.

Moechte man einen vernuenftigen Überblick über alte Generationen haben, so waehlt man doch jeweils die populaere Mainstream Karte, die Standard Karte und die High End Karte einer Generation aus, also in etwa:
6600GT populaere Mainstream Karte
6800GT Standard Karte
6800 Ultra High End
bzw.
7600GT populaere Mainstream Karte
7900GTX Standard Karte
7950GX2 High End Karte

Damit setzt man Performancepunkte und kann damit gleich das Verhaeltnis der Karten zwischen den Generationen vergleichen, ob z.B. Mainstream an High End heranrueckt von Generation 6xxx zu 7xxx.
Für Aufrüster ist das aber uninteressant, die haben ja irgendeine Karte irgendeiner Generation. Insofern finde ich den Querbeet-Vergleich nicht schlimm. Zumal, wie gesagt: Je vollständiger der Vergleich, desto teurer.

Die Feature-Problematik wiegt schwerer. Da muß man einfach mal angeben, inwieweit das Fehlen bestimmter Features bei bestimmten Spielen einen Bildqualitäts-Verlust bedeutet. Wie wichtig der ist, ist dann allerdings wieder höchst subjektiv. Insofern würde ich mich auf das Benchen älterer Spiele-für die alle Karten ein geeignetes Featureset haben- beschränken.

Das ist natürlich unfair für die neueren Karten, zB wenn die bei shaderlastigen Spielen überproportional schneller sind, was ja ein Praxisfall ist. Also im Idealfall neuere Karten nochmal extra benchen oder, wie gesagt: Sich beschränken.


Und relativ allgemein, wie kommt die Endwertung zustande? Sollte man nicht mal von den Zahlen wegkommen und sich nach Spielbarkeit fragen?
Jeder normale Spieler mit einer schlechteren Grafikkarte fragt sich viel eher folgendes:
Wie weit muss ich im Spiel die Grafik runterstellen, damit es noch spielbar laeuft.
Wie weit sinkt dabei die Grafikqualitaet?
Erst dann kommt abhängig vom Budget die Frage, ob es ihn massgeblich stoert und er sich eine neue kauft.

Das ist sowieso ein Grundproblem, nicht nur bei Computerbase: Unspielbare Settings zu benchen. IMO haben das HardOCP den richtigen Ansatz, die benchen nicht nur schon seit langem mit realen Spielszenen statt mit Benchmarks oder Timedemos, sondern testen auch jeweils, was (nach ihren Maßstäben) spielbar ist.

(del)
2009-08-18, 02:41:51
Das ist sowieso ein Grundproblem, nicht nur bei Computerbase: Unspielbare Settings zu benchen. IMO haben das HardOCP den richtigen Ansatz, die benchen nicht nur schon seit langem mit realen Spielszenen statt mit Benchmarks oder Timedemos, sondern testen auch jeweils, was (nach ihren Maßstäben) spielbar ist.Für mich wäre nicht ein Meer an Grakas der Knaller, sondern viele Treiberversionen.

Wie rennt denn so Stalker auf einer 3870 oder 4670 mit dem "ältesten" und dem aktuellsten Treiber. Was mir oft fehlt sind nämlich Vergleiche was die Coder alles veranstalten und auf welche Art meine Grafikkarten altern...

Das würde mir selber mehr bringen als 20 Karten zu testen von welchen ich 18 nicht hatte.

Wolfram
2009-08-18, 02:52:18
Für mich wäre nicht ein Meer an Grakas der Knaller, sondern viele Treiberversionen.

Wie rennt denn so Stalker auf einer 3870 oder 4670 mit dem "ältesten" und dem aktuellsten Treiber. Was mir oft fehlt sind nämlich Vergleiche was die Coder alles veranstalten und auf welche Art meine Grafikkarten altern...

Das würde mir selber mehr bringen als 20 Karten zu testen von welchen ich 18 nicht hatte.
Ja... sofern Du Deine Karte eigentlich lieber behalten willst. Und falls der Einfluß unterschiedlicher Treiberversionen wirklich nennenswert sein sollte. Dann muß man wieder auf Sachen achten wie: Mehr Speed durch schlechtere Bildqualität, oder: Künstliches Verlangsamen älterer Karten, um den Verkauf der neueren zu pushen. Das wird vermutlich sehr viel Zeit kosten, auch wenn es fraglos interessant ist.

=Floi=
2009-08-18, 02:56:42
die älteste version unterstützt aber ggf. stalker erst garnicht und dementsprechend ist dann das ergebnis. das sehe ich eher als zeitverschwendung. immer schon war der aktuellste treiber der "beste". (keine erbsenklauberei hier!)

das problem an alten spielen ist das gigantische cpu-limit. man muß selbst die neuen grafikkarten extrem fordern um da rauszukommen und je älter das spiel, desto schwieriger/unmöglicher wird das ganze.

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/14/#abschnitt_battlefield_2
hier ist die 8800GTX _immer_ im cpu-limit (CPU ist ein 2,6ghz X2 A64)

StefanV
2009-08-18, 07:56:13
Der Test ist so übel Zusammengewürfelt: Warum 800 XL? warum keine 1600 pro? Wo ist 88GTX/Ultra???!!! (<<<-total unverständlich), 3850/70? 8600 GT/GTS?
Nunja, das würde ich mit: "wir testen halt mal das, was gerad mal da ist", erklären...
Ich glaub eher, dass die alten Karten so stark einbrechen, weil ihnen schlicht in den meisten Fällen der VRam ausgeht.
Das denke ich auch, 256MiB ist halt nicht sehr viel, 512MiB sind da schon besser.
Das beweist auch die Aussagen einiger Leute, die immer wieder meinen, das VRAM größe X (aktuell 512MiB) völlig ausreichend wäre und man ja eigentlich überhaupt gar nicht mehr brauchen würde.

Das war schon zu Geforce 4 (TI) Zeiten, als man sich zwischen 64 und 128MiB wählen könnte (wo einige meinten, 64MiB würden reichen) völliger schwachsinn und ist heute nicht anders...
Wie man so schön sagt: Speicher kann man nie genug haben, vorallen auf der GraKa nicht...
die alten karten können doch garnicht mit der hohen shaderlast der aktuellen generation umgehen. rein von der logik her passt das nicht zusammen. die verfahren und technologien ändern sich einfach. Doch, können sie, zumindest die x1900 Generation von ATi ist gar nicht so übel.
Bei den nV40 Derivaten (wie G70 und so) schauts natürlich anders aus, die kacken bei hoher Shaderlast mal richtig ab.

Liegt aber auch an der Architektur der Karten, die x1900 unterscheidet sich nicht so sehr von modernen Teilen wie g80 und RV770, ganz im Gegensatz zu den CineFX Teilen mit den seriellen ALUs und TMUs...
Naja, die 7900GTX hat 512MB, die 8600GTS hat in diesem Test nur 256MB. Und die X1950XTX hat ja auch 512MB und bricht nicht so stark ein. Aber es ist ja irgendwie bekannt, dass ATI ein besseres Speichermanagement besitzt, jedenfalls zu der Zeit. Außerdem, wenn man die getesteten Spiele anschaut, sieht man das bei Fear und HL2 die 7900GTX gut mithalten kann. Aber sobald man auf Crysis umschwenkt, rutscht die Karte ab. Sogar schon ohne AA und AF. Ich denke, der Geforce 7-Serie schmeckt keine modernere Software.
In dem Fall liegts an der Architektur der Chips.
Die G70 vertragen halt nicht so gut, wenn man eine hohe Shaderlast hat und dabei noch Texturen rendern muss, vorallen wenn man keinerlei Rücksicht auf die Eigenheiten der Architektur nimmt.

Die ATis hatten schon immer von den TMUs unabhängige ALUs während nVidia das bei den NV3x und 4x Teilen nicht der Fall ist, da hat man eine Pipeline für beides, was dazu führen kann, das die ALUs die TMUs blockieren können (oder umgekehrt?), das das einen bösen Performance Impact hat, sollte logisch sein...

StefanV
2009-08-18, 08:13:29
Als schade empfinde ich aber, dass keine Review Seite bisher, auf die AF-, Treiber- und VRM-Problematik der aktuellen HD-Serie eingeht.
Vielleicht weils in der Praxis irrelevant ist, solang man die Karte innerhalb der Spezifikationen betreibt?!
Und es auch nicht jede Karte betrifft, da es ja auch eigene Designs bzw Designs ohne Digital VRM gibt?!
Oder übertaktet ihr etwa die GraKas bei den Standardtests, wie ihr das beim COre i7 macht?!

Kanns sein, das du hier aus 'ner Mücke 'nen Elefanten machst?!
Weil wenn man schon hierauf hinweisen möchte, muss man auch gleich die VRM Problematik bei nVidia (insbesondere die Neigung zur Geräuschbildung) erwähnen, was dann am Ende dazu führt, das man sich in Grabenkämpfen verirrt, die nicht viel mit dem Thema zu tun haben...

Wäre also etwas für einen seperaten Artikel und nichts, auf das man, als Professioneller Schreiber, ewig drauf rumreiten müsse, wir sind hier ja nicht im Kindergarten...
Ich finde diese Tests immer recht unprofessionell vorbereitet, als ob man schnell Content rauswerfen will.
Moechte man einen vernuenftigen Überblick über alte Generationen haben, so waehlt man doch jeweils die populaere Mainstream Karte, die Standard Karte und die High End Karte einer Generation aus
Deine Idee ist gut bis sehr gut.
Das Problem ist aber, das solche Karten nicht unbedingt 'greifbar' sind, man müsste sie sich erst einmal besorgen (=kaufen), was dann meist aus der eigenen Tasche erfolgen müsste.
Das tut nicht jeder...

Und allzu oft macht man solche 'Retrobenches' ja nun auch wieder nicht, so dass sich die Investitiion auch nicht unbedingt lohnt...

Klar, prinzipiell wäre es sinnig, die ganzen D3D9 (SM3) Karten bei jedem neu erscheinenden Spiel, das man benchen kann, auszugraben und zu schauen, wie die sich so schlagen, eben weil es durchaus noch einige mit solchen Teilen gibt...

Gast
2009-08-18, 08:53:28
Das denke ich auch, 256MiB ist halt nicht sehr viel, 512MiB sind da schon besser.
Das beweist auch die Aussagen einiger Leute, die immer wieder meinen, das VRAM größe X (aktuell 512MiB) völlig ausreichend wäre und man ja eigentlich überhaupt gar nicht mehr brauchen würde.
Es beweist, das 256MiB alten Karten in unspielbaren Settings etwas nach unten ziehen.

Nicht mehr und nicht weniger. Eine schlicht belanglose Information.

Gast
2009-08-18, 09:28:40
wenn 9 leute im monat 1000,-€ verdienen und einer 1mio € dann sind das im schnitt immernoch 100900,-€ verdienst :wink:
Die Analogie passt leider nicht.

y33H@
2009-08-18, 09:31:09
@ StefanV

Du hast den Sarkasmus nicht kapiert. Vielleicht weils in der Praxis irrelevant ist, solang man die Karte innerhalb der Spezifikationen betreibt?!Furmark und OCCT sind nicht irrelevant, sondern real.

Schlammsau
2009-08-18, 09:33:52
@ StefanV

Furmark und OCCT sind nicht irrelevant, sondern real.

Immer wieder die gleiche Leier! :mad:

Gast
2009-08-18, 10:48:59
Immer wieder die gleiche Leier! :mad:
Markiere doch bitte die Stelle der Spezifikation, in der geschrieben steht welche Anwendungen gestartet werden dürfen und welche nicht.

Gast
2009-08-18, 10:51:36
Vielleicht weils in der Praxis irrelevant ist, solang man die Karte innerhalb der Spezifikationen betreibt?!
Teil des Zitates beschäftigit sich mit der AI Situation.
Das ist ein grober Mangel, der von Schlammsau nicht erwähnt wird. Stattdessen hat er bei Nvidia etwas zum hacken gefunden: das der Idle Verbrauch sich mit 2 Bildschirmen näher an AMDs Vorbid orientiert.

Schlammsau
2009-08-18, 11:56:58
Markiere doch bitte die Stelle der Spezifikation, in der geschrieben steht welche Anwendungen gestartet werden dürfen und welche nicht.

Zeige mir einen Artikel, wo geschrieben steht, dass Radeons in bestimmten Anwendungen häufiger defekt gehen als GeForces!
Dann reden wir weiter.

Teil des Zitates beschäftigit sich mit der AI Situation.
Das ist ein grober Mangel, der von Schlammsau nicht erwähnt wird. Stattdessen hat er bei Nvidia etwas zum hacken gefunden: das der Idle Verbrauch sich mit 2 Bildschirmen näher an AMDs Vorbid orientiert.
Und zum 10000000´ mal....warum sollte es ein Mangel sein. nVidia muss doch ihr AF nicht so hochwertig machen, zwingt sie doch keiner dazu! Es wird immer Q vs. HQ verglichen, was wollt ihr eigentlich?

Gast
2009-08-18, 12:00:47
Artikel
Daran magelt es in letzter Zeit oft.
Gibt nur noch 0815 Benchartikel, nicht mehr.

dass Radeons in bestimmten Anwendungen häufiger defekt gehen als GeForces!
Dann reden wir weiter. Lenk nicht ab, die digitalen Wandler sind murks, die Karten werden künstlich gedrosselt, bzw bevor es die Drosselung gab gabs keinerlei Schutz. Mir nicht bekannt ob OCCT mittlerweile gedrosselt wird.

Schlammsau
2009-08-18, 12:11:57
Lenk nicht ab, die digitalen Wandler sind murks, die Karten werden künstlich gedrosselt, bzw bevor es die Drosselung gab gabs keinerlei Schutz. Mir nicht bekannt ob OCCT mittlerweile gedrosselt wird.

Warum sind sie Murks? Weil sie einen praxisfremden Test unter Umständen nicht "bestehen", der eine Grafikkarte fast doppelt so hoch auslastet wie jedes erhältliche und zu 99,99999% noch kommende Game?

Ich hatte ein Jahr lang eine 4870/512 im Referenzdesign (also mit digitalen Spawas). Ich habe ihr mehr Volt gegeben, x mal den FURMark gestartet, bis der PC hing und nur noch ein Reset half. Die Spawas sind dabei nicht selten über 130° gegangen. War aber nie ein Problem, die Karte läuft heute noch, nur nicht mehr in meinem Rechner.

OCCT und FURMark, sagen nichts aber auch rein gar nichts aus!

(del)
2009-08-18, 12:17:51
die älteste version unterstützt aber ggf. stalker erst garnicht und dementsprechend ist dann das ergebnis.Älteste der dann noch geht und kein Cat 1.0. Mann ej. Manche hier halten ihre Gehirnzellen echt immer auf Höhstdrehzahl... :|

Aber ich frag mich auch immer wieder mal wie ich das verstehen soll, wenn zB. eine DX9-Hardware mit einem DX9-Treiber auf einem DX9-System ein DX9-Spiel erst mit einer späteren Version des Treibers "unterstützt" :freak:

das sehe ich eher als zeitverschwendung. immer schon war der aktuellste treiber der "beste". (keine erbsenklauberei hier!)Das glaub ich auch immer, aber nur weil mir das jemand immerwieder in einem Forum erzählt.

@Wolfram
Ja so in der Art =) Wenigstens einmal hätte ich sowas gerne gelesen. ZB. 1x der gleiche Treiberpool mit einer 1950XT, 1x mit 3870 und 1x mit 4870. Mit 6 Spielen: 3 Knallern aus der jeweiligen Ära und 3 Durschschnittsspielen.

Gast
2009-08-18, 12:18:46
Warum sind sie Murks? Weil sie einen praxisfremden Test unter Umständen nicht "bestehen", der eine Grafikkarte fast doppelt so hoch auslastet wie jedes erhältliche und zu 99,99999% noch kommende Game?
Doppelt so hoch ist eine blanke Lüge.
20% mehr als Bioshock ist die Realität.

Es macht keinen Sinn wegen 20% rumzureiten, Sicherheit muss sein, auch in Zukunft ist eine Sorgenfreiheit ein Punkt.

Reserve muss sein. Selbst in Furmark dürfte es im überhitzen Gehäuse einer Grafikkarte mit schmutzigem Kühler kein Ding der Unmöglichkeit sein alles zu geben.

Das ist nicht der Fall, du verlangst Laborbedingungen, also:
wohltemperierte, stark belügtete Laborgehäuse
klinisch reine Kühler
akribisch untersuchte Anwendungen, starten und loslegen ist nicht drin

Gast
2009-08-18, 12:19:38
Ich hatte ein Jahr lang eine 4870/512 im Referenzdesign (also mit digitalen Spawas). Ich habe ihr mehr Volt gegeben, x mal den FURMark gestartet, bis der PC hing und nur noch ein Reset half. Die Spawas sind dabei nicht selten über 130° gegangen. War aber nie ein Problem, die Karte läuft heute noch, nur nicht mehr in meinem Rechner.
Wo ist dann das Problem, wenns bei dir läuft?

Schlammsau
2009-08-18, 12:37:17
Doppelt so hoch ist eine blanke Lüge.
20% mehr als Bioshock ist die Realität.


Der FURMurks hat meine 4870 und später dann 4890 um rund 60W mehr belastet als jedes Spiel, was ich in dieser Zeit gespielt habe. Die Temperatur der GPU ging auch um bis zu 20° höher als beim zocken. Die der Spawas gingen um 30° höher.
Beim Spielen hatte ich immer um die 60°/100° (GPU/SPAWAs), beim FURMurks gings über 80°/130°!

Fast 100% mehr Belastung sind übertrieben, aber fast 50% sind es.

StefanV
2009-08-18, 12:40:49
@ StefanVDu hast den Sarkasmus nicht kapiert.
Und du meine Aussage nicht.
Furmark und OCCT sind nicht irrelevant, sondern real.
Was macht man denn in diesen Anwendungen?
Wie spielt sich denn der Furmark?!
Oder ist das einfach nur irgendeine Anwendung, um etwas einfach nur maximal zu belasten?!

Ergo: Praxisfremd.

Schön, das du hier dabei bist, das schlechteste rauszusuchen und irgendeinen Grund gegen etwas zu finden, wäre auch schön, wenn du das grundsätzlich machen würdest und nicht nur, wenns dir gerad in den Kram passt...

puntarenas
2009-08-18, 12:44:30
Warum sind sie Murks? Weil sie einen praxisfremden Test unter Umständen nicht "bestehen", der eine Grafikkarte fast doppelt so hoch auslastet wie jedes erhältliche und zu 99,99999% noch kommende Game?

Doppelt so hoch ist eine blanke Lüge.
20% mehr als Bioshock ist die Realität.

Einigen wir uns auf 37% bei der HD4890: ht4u.net - Leistungsaufnahme von Grafikkarten in Spielen (http://ht4u.net/reviews/2009/leistungsaufnahme_grafikkarten_games/index4.php)

Was das mit einem Duell der Generationen zu tun hat, ist mir schleierhaft. Ich begreife aber auch nicht, wie man Relationen quer über Tech Level und Bildqualität prozentual darstellen kann und dabei auch noch Nullen einpreist. So viele Fragen...

Problematisch finde ich die substanziellen Schwächen allerdings nur in "richtigen" Reviews und Benchmarkvergleichen, so ein Generationsroundup ist Ringelpietz mit Nostalgie und wohl prinzipiell nur zu machen, wenn man bereit ist beide Augen zuzudrücken.

(del)
2009-08-18, 12:55:12
Ihr habt Probleme...

Wer hat damals getestet und erzählt, daß die ersten HDs - und auch alle folgenden - eine sehr schlechte 2D-Leistung haben (XP GUI + GDI GUIs)? Mir keiner. Auch wenns nicht grad alles gleich erlahmt, eine 1950pro fährt eine 3870 trotzdem in Grund&Boden unter PhotoshopCS3 oder Lightroom. Der 2D-Test von Passmark gibt das auch ziemlich gut wieder.

Waren die Anteile von Vista schon zur Zeiten der HD2000 so überweltigend? ;) Die selbsternannten Experten haben getönt, daß der 3D part so schnell ist, daß es die 2D-Emu spielend erledigt. Am A... tut es das :mad:

Schlammsau
2009-08-18, 13:45:31
Ihr habt Probleme...

Wer hat damals getestet und erzählt, daß die ersten HDs - und auch alle folgenden - eine sehr schlechte 2D-Leistung haben (XP GUI + GDI GUIs)? Mir keiner. Auch wenns nicht grad alles gleich erlahmt, eine 1950pro fährt eine 3870 trotzdem in Grund&Boden unter PhotoshopCS3 oder Lightroom. Der 2D-Test von Passmark gibt das auch ziemlich gut wieder.

Waren die Anteile von Vista schon zur Zeiten der HD2000 so überweltigend? ;) Die selbsternannten Experten haben getönt, daß der 3D part so schnell ist, daß es die 2D-Emu spielend erledigt. Am A... tut es das :mad:

Mal ne doofe Frage, aber wofür braucht man eine 2D Beschleunigung? Desktop?
Die Frage meine ich ernst!

=Floi=
2009-08-18, 15:32:09
wobei ich mitlerweile schon mal anmerken möchte, dass die schwächen der NV40+ generation 1. durch die aktuelle generation behoben sind 2. das design damls sehr effizient war (DIE und verbrauch) 3. es heute eh nicht mehr so stark ins gewicht fällt, ob die GF79XX ihre power auf den boden bringen kann, weil von haus aus die theoretische leistung eh zu wenig wäre. den letzten punkt sehe ich deshalb auch größtes manko an.

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/2/#abschnitt_technische_daten
die X19XX serie bringt nicht nur die power besser auf den boden, sondern sie hat auch mehr shaderleistung!

ich meinte nicht cat 1.0, sondern zB. den releasetreiber der karten und dieser ist entsprechend alt und incompatibel mit den neuren games.
da kommt man einfach auf keinen grünen zweig!

ich möchte noch etwas zur maximalen auslastung schreiben. was aber, wenn ein game die karte wirklich erheblich stärker fordern würde? (war anno nicht so ein kandidat?) Es wäre auch mal gut zu sehen wie stark GPGPU die karten auslasten kann, und ob es hier nicht ebenfalls zu einer überbeanspruchung kommen könnte.

StefanV
2009-08-18, 15:39:57
Mal ne doofe Frage, aber wofür braucht man eine 2D Beschleunigung? Desktop?
Die Frage meine ich ernst!
Die braucht man überall, wo man kein 3D nutzen kann, also Desktop, bewegen von Fenstern und so weiter.
Dafür sind irgendwann mal spezielle Funktionen in die Grafikchips eingebaut worden.

AMD hat dann mit der HD Serie diese Einheiten entsorgt, was durchaus verständlich ist, aber manchmal für Probleme sorgen kann, wenn man noch WIndows XP einsetzt (Vista ist 3D Beschleunigt)...
wobei ich mitlerweile schon mal anmerken möchte, dass die schwächen der NV40+ generation 1. durch die aktuelle generation behoben sind 2. das design damls sehr effizient war (DIE und verbrauch) 3. es heute eh nicht mehr so stark ins gewicht fällt, ob die GF79XX ihre power auf den boden bringen kann, weil von haus aus die theoretische leistung eh zu wenig wäre. den letzten punkt sehe ich deshalb auch größtes manko an.

Warum musst du diesen Nachteil der Architektur schön reden?!
Ist es so schwer mal einzugestehen, das es (selbst damals) nicht ganz optimal gewesen ist und es mit der Zeit (für den Kunden) zum Nachteil wurde?!
Aber das kennen wir ja schon aus der nV30 Zeit, wo die "Shaderschwäche" schön geredet wurde...

PS: AFAIR hat die R580 mehr ALUs als G7x...

Botcruscher
2009-08-18, 15:50:56
Markiere doch bitte die Stelle der Spezifikation, in der geschrieben steht welche Anwendungen gestartet werden dürfen und welche nicht.

AMD schreibt selbst in den Specs das Kühlung und Stromversorgung der Karte auf typische Anwendungen und nicht auf den Maximalwert ausgerichtet sind.

Undertaker hatte das mal schön verlinkt. Kannst ja die Suche bemühen.

Mal ne doofe Frage, aber wofür braucht man eine 2D Beschleunigung? Desktop?
Die Frage meine ich ernst!

Ruckelt herlich unter XP. Da gabs mal Vergleichtests zu den AMD onboard Chips.

Gast
2009-08-18, 16:03:44
PS: AFAIR hat die R580 mehr ALUs als G7x...
R580 hat 3mal so viele ALUs wie R520.
X1950XTX 25Mhz mehr Chiptakt und 33% mehr Bandbreite.
Nach CB macht das zusammen 30-40% mehr FPS.

G71 hat so viele ALUs wie G70.
Mehrleistung kommt dank des deutlich höheren Taktes und des größerem VRAM.


Das Ergebniss der X1950XTX wundert mich jetzt: Das sieht so aus als ob die zusätzlichen ALUs praktisch gar nichts bringen.

Gast
2009-08-18, 16:08:33
AMD schreibt selbst in den Specs das Kühlung und Stromversorgung der Karte auf typische Anwendungen und nicht auf den Maximalwert ausgerichtet sind.

Sorry, aber dann kann man so ein Produkt nicht empfehlen.

Typsich heißt für mich: Kann funktionieren, ist ein rohes Eis, bloß nichts falsch machen, bei jeder Anwendung überlegen ob die gut ist, Kühler gut putzen, für genüg frische Luft sorgen per Deltalüfter.


puntarenas hat den HT4u Link rausgekrammt:
Tatsächlich ist vor allem die 4850 in der Praxis sehr nah an Furmark.
Aber die Praxis sieht nicht vor, das dieses typische Spiel wie Bioshock nur im Labor gespielt werden darf.

Botcruscher
2009-08-18, 16:53:33
Im Gegensatz zum 55nm Produkt eines Fremderstellers fackeln die Karten aber nicht reihenweise ab. Bioshock wird auch nicht per Treiber gebremst.

Gast
2009-08-18, 17:18:39
Waren die Anteile von Vista schon zur Zeiten der HD2000 so überweltigend? ;) Die selbsternannten Experten haben getönt, daß der 3D part so schnell ist, daß es die 2D-Emu spielend erledigt. Am A... tut es das :mad:

Eine Software-Emulation kann nie so gut sein wie die Original-Hardware.

Gast
2009-08-18, 17:25:58
Im Gegensatz zum 55nm Produkt eines Fremderstellers fackeln die Karten aber nicht reihenweise ab. Bioshock wird auch nicht per Treiber gebremst.
Jetzt wirbelst du einiges durcheinander, der Leser erfährt nicht, was du meinst, außer das du GPUs fälschlicherweise als Produkte betitelst.
Beweisen musst du solche Aussagen auch nicht.

Black-Scorpion
2009-08-18, 17:52:30
Solche Aussagen "Dann kann man das Produkt nicht empfehlen" kommen Komischerweise immer im Zusammenhang mit Furmark (Den keine Sau braucht) und auch fast nur von Leuten die so oder so keine ATI Karte empfehlen würden.
Ist schon seltsam.

(del)
2009-08-18, 18:15:04
Mal ne doofe Frage, aber wofür braucht man eine 2D Beschleunigung? Desktop?
Die Frage meine ich ernst!Irgendwannmal wurde ein brauchbarer Teil von den Zeichenfunktionen und später auch Video auf DirectX gelegt. Da hat es sich angeboten das mit speziellen Einheiten in den GPUs zu verheiraten, statt das alles weiterhin die CPU machen zu lassen.

Was das gebracht hat kannst du unter XP sehen, wenn du statt dem aktuellen Treiber den StandardVGA nimmst. Selbst wenn du eine HD-ATI hast. Nur zeichnet zB. eine 1950pro die XP GUI noch um Welten schneller als die schnellste HD-ATI.
Für viele Fälle ist es nur unmerkbar lahmer. Es gibt aber auch Fälle wo man es schon merkbar zu spüren bekommt.

Vor allem aber die IGPs die auf den HDs basieren lahmen zum Teil schon unfeierlich unter XP. Eigentlich eine Schweinerei.
ATI hat wohl damit gerechnet, daß Vista XP innerhalb eines halben Jahres verdrängt. Hätten sie sich blos 2006 irgendein RC wenigstens 15 Minuten angeschaut... :freak:

y33H@
2009-08-18, 18:17:42
@ StefanV

Um mit deinen geliebten Autos zu argumentieren: Eine HD4870, die nach 3sec OCCT abstürzt, ist das gleiche wie ein Auto, dessen Motor nach 3sec im ersten Gang mit Vollgas explodiert. Miese Qualität. Für mich ein no-go.

StefanV
2009-08-18, 18:30:23
Falsch, das ist wie wenn die Ventile den Kolben küssen, weil du das Auto im ersten Gang 500 Drehungen weiter gedreht hast als der Motor zugelassen ist.

Wobei Autovergleiche hinken.

PS: es gibt übrigens einige Exemplare, die im ersten und 2. Gang nicht die volle Leistung erreichen...

Gast
2009-08-18, 18:32:14
Die braucht man überall, wo man kein 3D nutzen kann, also Desktop, bewegen von Fenstern und so weiter.
Dafür sind irgendwann mal spezielle Funktionen in die Grafikchips eingebaut worden.

AMD hat dann mit der HD Serie diese Einheiten entsorgt, was durchaus verständlich ist, aber manchmal für Probleme sorgen kann, wenn man noch WIndows XP einsetzt
Das ist aber nicht nur ein AMD - Problem. Auch bei nvidia gibt es eine Reihe von 2D-Funktionen die scheinbar schon länger wegrationalisiert wurden. Ein Beispiel:

Ein Bekannter hat noch ein uraltes System mit onboard-Grafik. Wenn er unter XP das 'Beenden'-Menu aufruft, dann wird der Bildschirm zügig und sehr flüssig grau. Bei meinem System dauert das Ausgrauen doppelt so lange und es erfolgt sehr ruckhaft (also nicht gleichmäßig). Ich habe eine 8800GT im Rechner und schon ALLES versucht. Aber hier werden offenbar 2D-Funktionen benötigt, die von der ForceWare nur sehr sehr schlecht emuliert werden können.

Das ganze erinnert mich an die Anfänge der 3D-Beschleuniger. Damals war es wie die Suche der Nadel im Heuhaufen, wenn man eine Karte haben wollte die unter 2D UND unter 3D schnell war. Eine solche Karte war damals die Matrox Mystique. Mit den ersten VooDoo-Karten wurde der Bereich sogar komplett getrennt. Heute sind wir wieder auf dem technischen Niveau von vor Jahren: Um maximale 3D-Performance zu erreichen, wird jeglicher überflüssiger Ballast in den Chips über Bord geworfen. Das Resultat ist zweifelhaft: Man besitzt dann einen Rechner, der 100+X Frames in Todesgemetzel Teil 5 zustande bringt, aber wenn man auf seinem WideScreen-TFT ein Fenster von A nach B verschiebt, kommt die Grafik mit der Aktualsierung des Hintergrunds nicht hinterher.

Das kann auch eine Rolle spielen, wenn man mit Alt-Tab zwischen mehreren Apps hin- und herwechselt. Da nutzt es einem heute nichts mehr wenn man mehr als 1GB Ram hat, wenn dann plötzlich die Grafikkarte Sekunden braucht, um zwischen 2D und 3D umzuschalten. Es wäre bestimmt auch mal interessant zu testen, wie die 2D-Emulation unter einem 3D-Desktop wie Aero funktioniert wenn man mit Alt-Tab zwischen 2D und 3D-Apps hin- und herspringt. Ich könnte mir vorstellen, daß sich das unter XP deutlich flüssiger abspielt.

Armaq
2009-08-18, 19:56:29
@ StefanV

Um mit deinen geliebten Autos zu argumentieren: Eine HD4870, die nach 3sec OCCT abstürzt, ist das gleiche wie ein Auto, dessen Motor nach 3sec im ersten Gang mit Vollgas explodiert. Miese Qualität. Für mich ein no-go.
Ist ja auch richtig. Ich habe meinen PC mit dem OCCT Netzteiltest eine Stunde gequält und es lief alles wunderbar. Ein PC muss das einfach aushalten. Ich erinnere mich an meinen ersten Kontakt mit einer HD4850 - 115°C und Neustart (nicht im Furmark wohlgemerkt).

Die Sapphire 4870 1 GB finde ich übrigens wunderbar, weil der 2D-Part mMn. besser ist als auf der 9800GTX+.

Wolfram
2009-08-18, 20:14:01
Den Furmark mag man ja nicht spielen können, aber wer sagt denn, daß es weder ein Spiel gibt noch geben wird, bei dem nicht zumindest kurzzeitig mal eine ähnliche Belastung erreicht wird?

Und seit wann entwerfen Ingenieure technische Produkte ohne jede Reserve? Soll so etwas etwa gutes Design sein?

Mr. Lolman
2009-08-18, 20:24:08
Dafür ist ja das Treiberteam da. Imo ist das das gleiche, wie wenn man sich aufregt, dass bei deaktivierter Drehzahlbegrenzung der Motor hin werden kann.

Schlammsau
2009-08-18, 20:25:21
Den Furmark mag man ja nicht spielen können, aber wer sagt denn, daß es weder ein Spiel gibt noch geben wird, bei dem nicht zumindest kurzzeitig mal eine ähnliche Belastung erreicht wird?

Und seit wann entwerfen Ingenieure technische Produkte ohne jede Reserve? Soll so etwas etwa gutes Design sein?

Bei welchen Karten macht denn der FUR Probleme?
Soweit ich weiss, sind nur ganz ganz wenige mit unterdimensioniertem Kühler, keine Ahnung welcher Hersteller das war, und unsachgemäss gemodette Karten über dem Jordan gegangen. Ich hatte wie schon oben geschrieben, sogar mit mehr VCore nie ein Problem, mit dem FURMark.

Es sind mit Sicherheit mehr GTX280 durch den Heatbug, als HD4xxx wegen ihrer angeblich bescheidenen Spawas abgeraucht. Was ja auch die RMA-Statistik (Hartware.fr?) belegt.

y33H@
2009-08-18, 20:28:22
Es sind mit Sicherheit mehr GTX280 durch den Heatbug, als HD4xxx wegen ihrer angeblich bescheidenen Spawas abgeraucht. Was ja auch die RMA-Statistik (Hartware.fr?) belegt.Zurückgegangen, aber nicht verreckt.

Wolfram
2009-08-18, 20:29:39
Dafür ist ja das Treiberteam da. Imo ist das das gleiche, wie wenn man sich aufregt, dass bei deaktivierter Drehzahlbegrenzung der Motor hin werden kann.
Nur daß die Drehzahlbegrenzung im Auto vorher da ist, die Begrenzung im Treiber aber erst später. D.h., wenn ein "gefährlicher" Titel erschiene, müßte ich erst darauf warten, daß ein geeigneter Treiber die Karte wieder für diesen Titel ausbremst. Das finde ich nicht gerade ideal. Zumal sich das Treiberteam vermutlich in vier Jahren vorrangig um andere Dinge kümmern wird, als alte Karten vor Überhitzung durch neue Spiele zu bewahren. Bzw. auch nur diesen Punkt im Auge zu behalten.

Gast
2009-08-18, 20:30:05
Zurückgegangen, aber nicht verreckt.

Oder Biosmod funzt auch.

Gast
2009-08-18, 20:32:42
Zurückgegangen, aber nicht verreckt.
Selbst wenn nicht, warum darf das eine breit getreten werden, das andere nicht?

Schlammsau
2009-08-18, 20:32:59
Zurückgegangen, aber nicht verreckt.

:| Wie willst du das wissen?
Sie ist zu Anfang wirklich oft defekt gegangen! Hat man hier im Forum auch oft mitbekommen!

Gast
2009-08-18, 20:33:23
Es sind mit Sicherheit mehr GTX280 durch den Heatbug, als HD4xxx wegen ihrer angeblich bescheidenen Spawas abgeraucht. Was ja auch die RMA-Statistik (Hartware.fr?) belegt.

Glaub ich kaum, denn es waren nur wenige Karten der 1.Revision vom Heatbug betroffen. Entweder wurden diese aussortiert oder per Bios ausgehebelt.(Gainward)

Schlammsau
2009-08-18, 20:37:15
Glaub ich kaum, denn es waren nur wenige Karten der 1.Revision vom Heatbug betroffen. Entweder wurden diese aussortiert oder per Bios ausgehebelt.(Gainward)
Wenige?.....such mal hier im Forum! ;)

z.B. dieser hier : http://www.forum-3dcenter.org/vbulletin/showthread.php?t=432564&highlight=105

Gast
2009-08-18, 20:44:22
Wenige?.....such mal hier im Forum! ;)

Ja wenige. Selbst auf Nvnews.net waren es nur wenige. Aber du schreibst ja was von "Defekt" wo sind deine Belege?

Schlammsau
2009-08-18, 20:48:55
Ja wenige. Selbst auf Nvnews.net waren es nur wenige. Aber du schreibst ja was von "Defekt" wo sind deine Belege?
Ich arbeite nicht in der RMA Abteilung eines Herstellers, also kann ich dir auch keine Zahlen nennen! ;)

Aber nochmal für dich: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=432564&highlight=105

Gast
2009-08-18, 21:06:49
Ja und wo steht da was von "abgerauchten" Karten? Überleg dir das nächste Mal lieber mal was du da schreibst,anstatt eifrig in die Tasten zu haun.

Gast
2009-08-18, 21:09:09
Ich arbeite nicht in der RMA Abteilung eines Herstellers, also kann ich dir auch keine Zahlen nennen! ;)
Dann ist die Diskussion zwecklos.

Aber nochmal für dich: http://www.forum-3dcenter.org/vbulle...&highlight=105 Auch wenn ich ein anderer Gast bin, das ist ein Fred.
Was soll das? Das ist gar nichts, selbst ein Fliegenschiss ist größer und stinkt weiter.

Entweder du kommst mal zur Sache oder lässt den Unsinn.

Einen Fred, ja sowas gibts auch zur HD4, obiges VRM Problem, nur das du das nicht anerkennst, gar sogar komplett verschweigst.
So kann man dich nicht ernst nehmen, derart einseitig und ohne Belege.

StefanV
2009-08-18, 22:00:46
Zurückgegangen, aber nicht verreckt.
1. kannst du das nicht wissen.
2. Wo ist der Unterschied, ob ein Produkt nun ganz defekt eingeschickt wird oder nur so halb?!

War meine Gecube x1950 PRO weniger defekt weil ich sie ja noch benutzen konnte, aber der Lüfter defekt war?! (bzw 'nen Schlag hatte, sich verabschiedende Lager).
Fakt ist doch einfach, das die Karten wegen Probleme retour kamen und nur das zählt doch letztendlich!

Ob man die noch irgendwie hinpfuschen kann oder nicht, ist doch scheiss egal...

y33H@
2009-08-18, 22:19:14
@ StefanV

Es ist ein Unterschied, ob nur der IHS schief sitzt oder ob die Karte aufgrund abgefackelter VRMs schlicht tot ist.Fakt ist doch einfach, das die Karten wegen Probleme retour kamen und nur das zählt doch letztendlich!Deiner Meinung nach.War meine Gecube x1950 PRO weniger defekt weil ich sie ja noch benutzen konnte, aber der Lüfter defekt war?! Klar. Kühler wechseln und gut ist. 1. kannst du das nicht wissen.Du weißt nicht, was ich weiß.

StefanV
2009-08-19, 10:22:32
@ StefanV
Es ist ein Unterschied, ob nur der IHS schief sitzt oder ob die Karte aufgrund abgefackelter VRMs schlicht tot ist.
Ach, und welcher wäre das?!
Also mir als Kunde ist es doch völlig egal, ob die Karte ganz tot ist oder nur halb tot.
Wobei ich hier lieber ganz tot hab als nicht benutztbar, weil dann sich der Versender nicht so anstellen kann.

Deiner Meinung nach.
Nein, nicht nur meiner Meinung nach.
Fakt ist einfach, das die Karte in beiden Fällen nicht benutzbar ist, warum spielt doch keine Rolle bzw ist für den Käufer irrelevant.

Aber du wirst jetzt sicher auch die weggenommene Leistung beim 2.0 TDI in den ersten 2 Gängen bei einigen Autos schön reden wollen, richtig?!
Da gabs so einige Fälle, wo bei einem Audi A3 der Turbolader hier nicht arbeiten durfte, um die Kupplung zu schonen...

Klar. Kühler wechseln und gut ist.
Ja, und?!
Ändert das weniger daran, das das Produkt im gesamten einen Mangel aufweist?!
Klar könnte man jetzt den Kühler wechseln, aber ist das Produkt nicht als ganzes zu sehen, ergo mit Kühler?!

Aber hey, so kann man nicht so schön gegen den nicht ganz so gemochten Hersteller flamen...

Du weißt nicht, was ich weiß.
Tja, so kennt man dich schon aus dem FDLX (http://www.hardwareluxx.de/community/showthread.php?t=571960) Thread, das du einen Hersteller bevorzugst und den anderen möglichst schlecht dastehen lässt, so auch hier bei den Grafikkarten...
Das was du gerade besitzt, ist das beste von Welt, alles andere ist Müll...

Komm mal von dem Trip runter und erweiter mal deinen Blick, ich hack ja auch nicht (mehr) bei jeder Gelegenheit auf nVidia rum und kann sogar eingestehen, das sie in einigen Bereichen besonders gut sind, solltest du auch mal versuchen!

Mr. Lolman
2009-08-19, 10:50:32
Nur daß die Drehzahlbegrenzung im Auto vorher da ist, die Begrenzung im Treiber aber erst später. D.h., wenn ein "gefährlicher" Titel erschiene, müßte ich erst darauf warten, daß ein geeigneter Treiber die Karte wieder für diesen Titel ausbremst. Das finde ich nicht gerade ideal. Zumal sich das Treiberteam vermutlich in vier Jahren vorrangig um andere Dinge kümmern wird, als alte Karten vor Überhitzung durch neue Spiele zu bewahren. Bzw. auch nur diesen Punkt im Auge zu behalten.

Die GraKa hat aber auch ne Notabschaltung/Safe-Modus, wo der Treiber entweder resettet wird (schlimmstenfalls ein Absturz, falls das nicht klappt) - oder wo auf lahme, sichere Taktraten runtergetaktet wird, wo nix passieren kann. Ist mir beides schon gelungen bei Furmark-tests mit ner 512MB HD4870@850/1150.

Wenn man nun sich mit dem BIOS herumspielt und VPU-Recover deaktiviert hat, sowie die Karte in schlecht gekühlter Umgebung durch irgendwelche irrelevanten Tests quält braucht man sich nicht wundern, dass das Teil kaputt gehen kann.

Interessanterweise erreicht der RV770 in solchen Benchmarks auch deutlich höhere Werte als das Pendant der Konkurrenz. Sich darüber zu mokieren, ist wie sich darüber aufzuregen, dass ein Auto mit deaktivierten Drehzahlbegrenzer + weiteren widrigen Umständen kaputt gehen kann, und man dementsprechend als positives Beispiel die Konkurrenz heranzieht, deren Motoren sich tatsächlich nichtmal in solchen Leistungsregionen bewegen können - und dabei vergisst, dass sich das auf Situationen bezieht, die im Alltagsgebrauch tatsächlich nie eintreffen können.


Zu letzterem Satzteil sei noch hinzuzufügen: Schlimmer als Furmark gehts kaum noch.

Gast
2009-08-19, 11:47:46
Hieße Furmark 3DMark sähe es anders aus. Das Kleingerede würde nicht weit kommen.
Interessanterweise sind beides keine Spiele oder Reallife Anwendungen.

Noch interessanter ist, das wir, nachdem die digitalten VRMs so toll sind, wieder über den Heatbug diskutieren können (der immerhin gefixt wurde).
In dem Falle sieht die Dikussion absolut nicht objektiv aus, wenn derart auf die Fehler der IHV Nvidia gezeigt wird, während AMDs Fehler egal sind.

Gast
2009-08-19, 11:54:57
Noch interessanter ist, das wir, nachdem die digitalten VRMs so toll sind, wieder über den Heatbug diskutieren können (der immerhin gefixt wurde).
Karten mit fehlerhaft montiertem Heatspreader wurden anstandslos ausgetauscht, ärgerlich war das für die Kunden trotzdem, das kann man kaum wegdiskutieren. Kann ich eine Radeon auch tauschen lassen, wenn ich (unterdimensionierte) digitale SpaWas entdecke?

Ich fände völlig in Ordnung, wenn die Sicherheitstoleranzen über den Treiber gewährleistet würden, dieser müsste dann aber von Anfang an die relevanten Temperaturen überwachen und bei einer Überschreitung drosseln. Das ist offensichtlich nicht der Fall, sonst hätte man nicht nachträglich ein Furmark-Profil benötigt, ich denke das Ganze wird beiden Herstellern eine Lehre sein.

LovesuckZ
2009-08-19, 12:03:40
Ich finde diese Diskussion ziemlich unsinnig: Grafikkarten werden gebaut, um volle Leistung zu erbringen. Wenn man nicht höher als z.B 100° gehen darf, dann muss die Kühllösung darauf abgestimmt sein. Wenn meine Spannungsversorgung in bestimmten Situation überproportional belastete wird, dann muss sie darauf ausgerichtet sein. Solche Fehlkonstruktionen dann auch noch gutzureden, ist schon ziemlich lächerlich.
Das ist wie mit LCD und Plasma Fernsehr: Wenn man den Schwarz kritisiert, wird man doch aufgefordert mit bestimmten Lichtverhältnissen zu gucken. :rolleyes:

Gast
2009-08-19, 12:12:30
Wenn man nicht höher als z.B 100° gehen darf, dann muss die Kühllösung darauf abgestimmt sein.
Das ist eine Möglichkeit, aber wie er sein Produkt am Ende abstimmt, bleibt dem Hersteller überlassen. Er kann entweder die Kühlung entsprechend aufwändig gestalten, oder eben dafür Sorge tragen, dass nicht mehr Abwärme erzeugt wird, als man verantworten kann.

Zweiteres würde bei RV770 doch richtig Sinn machen, denn die überproportionale Shaderleistung lässt die Abwärme bei generischer Last durch Furmark aus dem Ruder laufen, ist im Spielealltag allerdings völlig im Lot. Leider hat man nicht von Anfang an darauf geachtet und so bleibt die Unsicherheit. Hätte man die Drosselung gleich vorgesehen und nicht über eine umgehbare EXE-Erkennung, dann hätten wor auch überhaupt nicht mitbekommen, dass gedrosselt wird, in jedweder Hinsicht Fail!

LovesuckZ
2009-08-19, 12:17:24
Das ist eine Möglichkeit, aber wie er sein Produkt am Ende abstimmt, bleibt dem Hersteller überlassen. Er kann entweder die Kühlung entsprechend aufwändig gestalten, oder eben dafür Sorge tragen, dass nicht mehr Abwärme erzeugt wird, als man verantworten kann.

Richtig - und dann muss er eben die Kosten für Reperatur übernehmen. Qualitätssischerung sollte immer ein hohes Gut sein. Aber anscheinend hat weder nVidia noch AMD hier darauf geachtet.


Zweiteres würde bei RV770 doch richtig Sinn machen, denn die überproportionale Shaderleistung lässt die Abwärme bei generischer Last durch Furmark aus dem Ruder laufen, ist im Spielealltag allerdings völlig im Lot. Leider hat man nicht von Anfang an darauf geachtet und so bleibt die Unsicherheit. Hätte man die Drosselung gleich vorgesehen und nicht über eine umgehbare EXE-Erkennung, dann hätten wor auch überhaupt nicht mitbekommen, dass gedrosselt wird, in jedweder Hinsicht Fail!

Mit der "überproportionalen Shaderleistung" wird geworben, dann sollte hierauf auch abgestimmt werden. Es kann nicht sein, dass mit 100% geworben, aber die komplette Karte nur für vielleicht 85% zugelassen wird. AMD ist selbst in der Lage ihre Karten komplett auszulasten und somit die höhste Last zu erzeugen. Die Platine nicht richtig zu bauen, ist ziemlicher murks.

Raff
2009-08-19, 12:25:43
Mit der "überproportionalen Shaderleistung" wird geworben, dann sollte hierauf auch abgestimmt werden. Es kann nicht sein, dass mit 100% geworben, aber die komplette Karte nur für vielleicht 85% zugelassen wird. AMD ist selbst in der Lage ihre Karten komplett auszulasten und somit die höhste Last zu erzeugen. Die Platine nicht richtig zu bauen, ist ziemlicher murks.

Das ist 'ne Designentscheidung. Baue ich einen günstigen Kühler, der für alle Spiele der nächsten 2 Jahre ausreicht ... oder bohre ich das Ding für jeweils 10 €uro mehr so auf, dass auch theoretische Ernstfälle, die im "Reallife" nie auftreten, bewältigt werden? Letztes killt die Option, die Karten sehr günstig anzubeaten. Aber genau das ist AMDs Strategie. Quantität vor Qualität. Nvidias Spulenfiepen ist die Antwort ...

MfG,
Raff

_DrillSarge]I[
2009-08-19, 12:30:54
keine software darf die hardware rösten, egal ob benchmark oder richtiges spiel. keine ahnung, was es da herumzureden gibt.
zumal die karten mit brauchbaren PCBs auch nicht teurer sind. man muss eben schauen, was man kauft.

reunion
2009-08-19, 12:31:10
Das ist 'ne Designentscheidung. Baue ich einen günstigen Kühler, der für alle Spiele der nächsten 2 Jahre ausreicht ... oder bohre ich das Ding für jeweils 10 €uro mehr so auf, dass auch theoretische Ernstfälle, die im "Reallife" nie auftreten, bewältigt werden? Letztes killt die Option, die Karten sehr günstig anzubeaten. Aber genau das ist AMDs Strategie. Quantität vor Qualität. Nvidias Spulenfiepen ist die Antwort ...

MfG,
Raff

Nvidias Spulefiepen war zuerst da. Also kann es nur umgekehrt gewesen sein. Aber schön wie hier wieder mal AMD alles in die Schuhe geschoben wird. Quantität vor Qualität AMDs Strategie, das ich nicht lache. Da nimmt sich kein Hersteller etwas.

Gast
2009-08-19, 12:31:15
... Aber genau das ist AMDs Strategie. Quantität vor Qualität. Nvidias Spulenfiepen ist die Antwort ...
Trotz allem kann ich nicht verstehen, wie AMDs Fehler gut gepriesen wird, während der selber User gleichzeitig Nvidias Fehler vorgezeigt werden.

Raff
2009-08-19, 12:32:53
Nvidias Spulefiepen war zuerst da. Also kann es nur umgekehrt gewesen sein.

Die GTX 285 kam vor der HD 4870? Soso. Bei den GT200-Karten (ohne b) ist das Fiepen idR deutlich unauffälliger. Eben so, dass der Schwellenwert "die Masse hört es" nicht überschritten wird.

MfG,
Raff

reunion
2009-08-19, 12:34:31
Die GTX 285 kam vor der HD 4870? Soso. Bei den GT200-Karten (ohne b) ist das Fiepen idR deutlich unauffälliger. Eben so, dass der Schwellenwert "die Masse hört es" nicht überschritten wird.

MfG,
Raff

Schon G92-Karten fiepten stark. Ich habe damals meine erste XFX 8800GTS zurück gehen lassen wegen dem Problem. Die zweite war dann besser, aber immernoch hörbar.

Gast
2009-08-19, 12:36:48
Nvidias Spulefiepen war zuerst da.
Lüge.

Spulenpfeifen gibts seit Ewigkeiten.
Seit dem Winter gibts es angeblich auch vermehrt unter normalen Umständen, leider hat die Presse völlig versagt die Kunden/Leser darüber zu informieren.

Aber du weißt zu gut, weil du so oft damit geworben hast, das:
weniger VRAM (dafür teurer)
kleineres SI, also ein einfacheres PCB
billigere und kleiner ausglegte digitale Spannungsversorgung
kleinerer Die
kleinerer Kühler
zu einem insgesamt günstigeren Produkt führen.
Dieses günstigere Produkt kann mit einem Billig Produkt der Konkurrenz mithalten, nicht zuletzt dank AI.
Die Konkurrenz kann kein anderes Billig Produkt aus dem Hut zaubern, das vorhandene muss preislich angepasst werden.

Schlammsau
2009-08-19, 12:39:39
Trotz allem kann ich nicht verstehen, wie AMDs Fehler gut gepriesen wird, während der selber User gleichzeitig Nvidias Fehler vorgezeigt werden.
Welcher Fehler denn? Ich hab keinen bei meiner 4870/90 endecken können.
Der FUR lief immer stabil, natürlich nur wenn ich nicht zu viel übertaktet oder mehr VCore gegeben habe.

Zuviel Vcore ist tödlich, das ist klar!

Gast
2009-08-19, 12:42:49
Welcher Fehler denn? Ich hab keinen bei meiner 4870/90 endecken können.
Der FUR lief immer stabil, natürlich nur wenn ich nicht zu viel übertaktet oder mehr VCore gegeben habe.
Toll, meine GTX 280 hat auch keinen Heatbug. :rolleyes:

Was soll der Blödsinn? Willst du mich verarschen?


Die digitalen VRM sind ein Problem. Punkt. Der Heatbug war auch ein Problem. Punkt.
Gibts dazu noch was zu sagen? Ansonsten können wir uns dem Fredtitel widmen.

LovesuckZ
2009-08-19, 12:44:06
Das ist 'ne Designentscheidung. Baue ich einen günstigen Kühler, der für alle Spiele der nächsten 2 Jahre ausreicht ... oder bohre ich das Ding für jeweils 10 €uro mehr so auf, dass auch theoretische Ernstfälle, die im "Reallife" nie auftreten, bewältigt werden? Letztes killt die Option, die Karten sehr günstig anzubeaten. Aber genau das ist AMDs Strategie. Quantität vor Qualität. Nvidias Spulenfiepen ist die Antwort ...

MfG,
Raff

Eine Grafikkarte hat keine Intelligenz. Sie verarbeitet nur die Befehle, die sie erreicht. Wenn mit der Furmark Engine ein Spiel programmiert wird - was ist dann?

reunion
2009-08-19, 12:44:18
Lüge.

Lüge.


Spulenpfeifen gibts seit Ewigkeiten.
Seit dem Winter gibts es angeblich auch vermehrt unter normalen Umständen, leider hat die Presse völlig versagt die Kunden/Leser darüber zu informieren.

Es wurde bei NV zum ersten male deutlich hörbar.

Schlammsau
2009-08-19, 12:45:54
Toll, meine GTX 280 hat auch keinen Heatbug. :rolleyes:

Was soll der Blödsinn? Willst du mich verarschen?


Die digitalen VRM sind ein Problem. Punkt. Der Heatbug war auch ein Problem. Punkt.
Gibts dazu noch was zu sagen? Ansonsten können wir uns dem Fredtitel widmen.

Pass mit deiner Wortwahl auf Junge. ;)

Gast
2009-08-19, 12:45:56
Es wurde bei NV zum ersten male deutlich hörbar.
Stimmt, die 8800 GTS war die erste Grafikkarte aller Zeiten.

LovesuckZ
2009-08-19, 12:47:01
Spulenpfeifen ist ein generelles Problem mit minderwertigen Komponenten. Meine X1800XT PE von Asus hatte Spulenpfeifen. Weder meine 8800GTX, 8800GT, beiden 9800GX2 und beiden GTX280 haben es je auch nur annährend gezeigt.

Schlammsau
2009-08-19, 12:47:38
Meine GTX275 pfeift auch nicht.

Gast
2009-08-19, 12:48:18
Pass mit deiner Wortwahl auf Junge. ;)
Nichts mehr zu sagen?
Ich denke du hast mich lange genung für bescheuert verkauft. Nachdem das geklärt ist, hoffe ich das du dich nächste mal daran erinnerst bevor du den nächsten Flame startest weil du es bedauerst das man Fehler vom bösen IHV nicht extra erwähnt, während die vom guten eh nicht genannt werden.

Gast
2009-08-19, 12:49:22
Meine X1800XT PE von Asus hatte Spulenpfeifen.
Unmöglich, aus erster Hand habe ich erfahren das die XFX 8800 GTS die erste Karte ist, die dies zeigt.

Wolfram
2009-08-19, 12:53:36
Die GraKa hat aber auch ne Notabschaltung/Safe-Modus, wo der Treiber entweder resettet wird (schlimmstenfalls ein Absturz, falls das nicht klappt) - oder wo auf lahme, sichere Taktraten runtergetaktet wird, wo nix passieren kann. Ist mir beides schon gelungen bei Furmark-tests mit ner 512MB HD4870@850/1150.
Mir geht es nicht in erster Linie darum, daß die Karte vor Schaden bewahrt wird, sondern um den hypothetischen Fall, daß ich ein Spiel nicht spielen kann, das eine entsprechende Last erzeugt, bis das Treiberteam sich darum gekümmert hat oder ich händisch die "spiel.exe" in "furmark.exe" umbenannt habe, oder so. Das finde ich nicht ideal.

Mr. Lolman
2009-08-19, 13:02:20
Mir geht es nicht in erster Linie darum, daß die Karte vor Schaden bewahrt wird, sondern um den hypothetischen Fall, daß ich ein Spiel nicht spielen kann, das eine entsprechende Last erzeugt, bis das Treiberteam sich darum gekümmert hat oder ich händisch die "spiel.exe" in "furmark.exe" umbenannt habe, oder so. Das finde ich nicht ideal.

Ich kann mir ehrlich gesagt kein Spiel vorstellen, was keine Texturen besitzt und nur aus Fellshadern besteht. Außerdem wurde die Software noch zusätzlich auf max. Heat optimiert (ältere Versionen erzeugten bei gleicher Grafik keiner dermaßen hohe Hitze/Last).

Und selbst wenn du ein Spiel in furmark.exe umbenennst, wird nix passieren, weil sich die Spiellast dadurch nicht ändert (wenn, dann müsstest dus außerdem eh in etqw.exe umbenennen, da furmark.exe schon vom Treiber abgefangen wird).

StefanV
2009-08-19, 14:09:16
Hieße Furmark 3DMark sähe es anders aus. Das Kleingerede würde nicht weit kommen.
Interessanterweise sind beides keine Spiele oder Reallife Anwendungen.
Genau, das ist doch der Punkt.
Ich kann mit dem Furmark nichts machen, da dieses Programm einfach nicht dafür gemacht wurde, das man damit was sinnvolles macht, es ist einfach ein Stresstest, der absichtlich so geschrieben wurde, das er die Hardware möglichst stark maltretiert - also fern ab jeder realität...


Noch interessanter ist, das wir, nachdem die digitalten VRMs so toll sind, wieder über den Heatbug diskutieren können (der immerhin gefixt wurde).
Naja, ansichtssache, wobei es bei AMD auch Referenzlayoute mit konventionellen Reglern gibt, von daher kann eine HD4870 bzw 90 davon betroffen sein, muss es aber nicht...

Wenn die Karte gar keinen Referenz Kühler drauf hat, sinkt die wahrscheinlichkeit, das das Kärtel davon Betroffen ist ungemein...

In dem Falle sieht die Dikussion absolut nicht objektiv aus, wenn derart auf die Fehler der IHV Nvidia gezeigt wird, während AMDs Fehler egal sind.
Der Punkt ist doch, das die AMD Karten bei produktiven bzw üblichen Programmen funktionieren, nichts desto trotz kann man den Heatbug Fehler von nVidia hier einerseits als Unwichtig deklarieren und andererseits auf die Problematik der VRMs der HD4870 und 90er rumreiten, das passt auch nicht.

Der Punkt ist doch, das beides nicht schön ist und es völliger schwachsinn ist, die Probleme gegeneinander aufzuwiegen und zu behaupten, einer von beiden wäre besser, weil die Karte ja nicht ganz kaputt ist und noch funktioniert...
Das lässt irgendwie den Schluss zu, das der wo das schrieb, nicht ganz objektiv ist.


Und ganz ehrlich: wenn eine Karte nicht geht, dann ist es besser, wenn sie das richtig tut sprich ganz tot ist als wenn sie noch ein Bild gibt und 'nur' überhitzt Stichwort Überprüfung der Ware beim Versender!
Denn wenn die Karte richtig hin ist und keinen Mucks mehr von sich gibt, bekommt man garantiert 'ne neue, funktioniert sie aber teilweise noch, kann man 'das Glück' haben, das man das fehlerhafte Exemplar zurück bekommt...
Das ist nämlich die andere Seite der Medaillie...

StefanV
2009-08-19, 14:17:08
Das ist 'ne Designentscheidung. Baue ich einen günstigen Kühler, der für alle Spiele der nächsten 2 Jahre ausreicht ... oder bohre ich das Ding für jeweils 10 €uro mehr so auf, dass auch theoretische Ernstfälle, die im "Reallife" nie auftreten, bewältigt werden? Letztes killt die Option, die Karten sehr günstig anzubeaten. Aber genau das ist AMDs Strategie. Quantität vor Qualität. Nvidias Spulenfiepen ist die Antwort ...

MfG,
Raff
Sorry, Raphael, aber das ist in jeder Branche üblich!
Schau dir doch mal an, wie ein Auto gebaut wird und wie hier gespart wird!

Hier jetzt AMD die Schuld in die Schuhe schieben zu wollen ist reichlich daneben und zeugt nur davon, das du keinen Plan von Marktwirtschaft hast bzw wie der Markt denn nun funktioniert.
Auch hier gebe ich dir den Rat, das du dich mal ein wenig mit BWL/VWL beschäftigst, um den Markt besser verstehen zu können.
Und nicht nur auf GraKas schauen sondern auch auf andere Dinge!
Es wurde bei NV zum ersten male deutlich hörbar.
Sorry, aber das ist einfach bullshit.

Das gabs auch früher schon mal, ich erinnere mich da an das Fiepen beim scrollen von Firefox, k/a, was das für 'ne GraKa war, müsst 'ne R300 oder so gewesen sein.
Das kommt auch immer wieder vor, vorallen bei MoBos war das öfter der Fall, entsprechend verwendet man hier nur noch voll vergossene Spulen.

Das hat was mit Resonanz und so weiter zu tun, das kann vom Netzteil noch verstärkt werden! (Schaltfrequenz der Regler -> Resonanz davon und ab geht die Post)

kruemelmonster
2009-08-19, 14:39:35
Wenn es um die Bewertung der Leistungsfähigkeit von GPUs geht, wird die hohe theoretische Shaderleistung gern als Vorteil ATIs ggü NV angeführt. In der Praxis kommen die ATI Shader durchschnittlich auf ne Auslastung zwischen 60 und 80% => Theorievorteil dahin.
Nun kommt der Furmark, lastet die GPU zu 100% aus, und auf einmal ist das ein praxisferner Spezialfall?
Meinetwegen, nur dann zieht bitte von allen GFLOP/s Angaben der ATIs 20 - 40% ab. Wenn die Karte 100% Last nicht aushält sondern nur 80%, dann hat sie auch nur 80% Leistung.

Und nun kommt und argumentiert euch euer SparAF, SparVRM, SparGPGPU, Sparkühlung wieder zurecht. :P

Ich hol mir derweil ne Packung :popcorn: , Fanboys beim Verteidigen ihrer Roten Linie sind einfach zu unterhaltsam.

Black-Scorpion
2009-08-19, 14:53:45
Ich habe das Wort theoretische verstanden?

=Floi=
2009-08-19, 14:56:00
ein ausfall zu einem ungünstigen zeitpunkt ist aber auch kein knaller. beide hersteller müssen massiv an der qualität drehen!

ich bekomme auch qualitativ hochwertige autos, die auch 300km autobahn mit 250kmh aushalten und dabei nicht überhitzen und kaputt gehen. Diese autos kosten ben auch entsprechendes geld und und sind zB auch fürs sportliche fahren ausgelegt.

Eine 4870/4890 280/285 ist eben keine langsame desktopkarte, sondern eine highend spielekarte und da kann man auch qualität erwarten. Bei einem GT3 erwarte ich qualität und standfestigkeit.

Raff
2009-08-19, 15:15:23
Sorry, Raphael, aber das ist in jeder Branche üblich!
Schau dir doch mal an, wie ein Auto gebaut wird und wie hier gespart wird!

Hier jetzt AMD die Schuld in die Schuhe schieben zu wollen ist reichlich daneben und zeugt nur davon, das du keinen Plan von Marktwirtschaft hast bzw wie der Markt denn nun funktioniert.
Auch hier gebe ich dir den Rat, das du dich mal ein wenig mit BWL/VWL beschäftigst, um den Markt besser verstehen zu können.
Und nicht nur auf GraKas schauen sondern auch auf andere Dinge!

Erstens werde ich meinem Nick entsprechend mit Doppel-f geschrieben, zweitens wirst du persönlich und drittens verteidigst du eh immer AMD/Ati aufs Schärfste. Von daher ist dies das einzige, was ich dazu sage.

MfG,
Raff

_DrillSarge]I[
2009-08-19, 15:25:08
Sorry, Raphael, aber das ist in jeder Branche üblich!
Schau dir doch mal an, wie ein Auto gebaut wird und wie hier gespart wird!

Hier jetzt AMD die Schuld in die Schuhe schieben zu wollen ist reichlich daneben und zeugt nur davon, das du keinen Plan von Marktwirtschaft hast bzw wie der Markt denn nun funktioniert.
Auch hier gebe ich dir den Rat, das du dich mal ein wenig mit BWL/VWL beschäftigst, um den Markt besser verstehen zu können.
Und nicht nur auf GraKas schauen sondern auch auf andere Dinge!
öhhhm...
es liegt ja ein offensichtlicher mangel am produkt vor, sonst hätte man nicht andere PCBs nachgeschoben und kein hersteller baut aus spaß sachen, die ab werk mängel aufweisen.
und zu furmark - NOCHMAL: keine software darf die hardware rösten. ich hab keine lust mir nen kopf drüber machen zu müssen, dass vielleicht das ding abraucht, wenns mal warm in der bude ist und man irgendwas zockt. oder zukünftige programme etc. es darf einfach nicht sein!

reunion
2009-08-19, 15:27:22
Stimmt, die 8800 GTS war die erste Grafikkarte aller Zeiten.

Du bist ja ein ganz toller Hengst. Ich habe geschrieben es wurde zum ersten male deutlich hörbar. Wenn du so willst für mich zum ersten male deutlich hörbar. Nicht mehr und nicht weniger.


Sorry, aber das ist einfach bullshit.

Das gabs auch früher schon mal, ich erinnere mich da an das Fiepen beim scrollen von Firefox, k/a, was das für 'ne GraKa war, müsst 'ne R300 oder so gewesen sein.
Das kommt auch immer wieder vor, vorallen bei MoBos war das öfter der Fall, entsprechend verwendet man hier nur noch voll vergossene Spulen.

Das hat was mit Resonanz und so weiter zu tun, das kann vom Netzteil noch verstärkt werden! (Schaltfrequenz der Regler -> Resonanz davon und ab geht die Post)

Auch dir: Ich habe geschrieben zum ersten male deutlich hörbar. Aber es ist schon schwer sinnerfassend zu lesen. Auch hat das wohl kaum etwas mit dem Scrollen zu tun, das war AFAIK irgend ein Treiberbug bei NV.

Mag sein das es auch vorher von Drittherstellern billige PCBs gab welche dieses Problem hatten. Aber wir sprechen wir immerhin von Referenzdesign. Und es ist ein Unterschied ob man das Ohr dran halten muss oder ob die Grafikkarte munter vor sich hin musiziert. Aber das führt zu nichts, ich bin raus. Mit ging es ja auch nur darum Raffs Darstellung zu korrigieren, die nun wahrlich sehr einseitig rüber kam.

reunion
2009-08-19, 15:46:39
Mir geht es nicht in erster Linie darum, daß die Karte vor Schaden bewahrt wird, sondern um den hypothetischen Fall, daß ich ein Spiel nicht spielen kann, das eine entsprechende Last erzeugt, bis das Treiberteam sich darum gekümmert hat oder ich händisch die "spiel.exe" in "furmark.exe" umbenannt habe, oder so. Das finde ich nicht ideal.

Ideal ist es sicher nicht, ideal steht für die Vollkommenheit. Die Frage ist ob es relevant ist oder in Zukunft wird. Relevant ist es aktuell im Furmark, was wiederrum die Frage aufwirft wie wichtig einem das ist. Da die meisten Furmark nicht spielen werden bleibt als letzte Frage wie wahrscheinlich in Zukunft ähnliche Fälle vorallem auch in Spielen sind. Über die Frage kann man sich jetzt trefflich streiten. Da Furmark aber speziell darauf ausgelegt ist möglichst viel Hitze zu erzeugen ist das Risiko wohl überschaubar.

StefanV
2009-08-19, 15:48:27
Auch dir: Ich habe geschrieben zum ersten male deutlich hörbar. Aber es ist schon schwer sinnerfassend zu lesen. Auch hat das wohl kaum etwas mit dem Scrollen zu tun, das war AFAIK irgend ein Treiberbug bei NV.
Gabs aber schon immer, eigentlich.
Das einzige, was 'neu' ist, war das es öfter aufgefallen ist bzw man den Verursacher ziemlich deutlich bestimmen konnte, was früher nicht der Fall war...

Mag sein das es auch vorher von Drittherstellern billige PCBs gab welche dieses Problem hatten. Aber wir sprechen wir immerhin von Referenzdesign. Und es ist ein Unterschied ob man das Ohr dran halten muss oder ob die Grafikkarte munter vor sich hin musiziert. Aber das führt zu nichts, ich bin raus. Mit ging es ja auch nur darum Raffs Darstellung zu korrigieren, die nun wahrlich sehr einseitig rüber kam.
Der Punkt ist, das es dieses Spulenfiepen schon so lange gibt wie es Schaltregler gibt, das ganze tritt dann mehr oder weniger stark auf, meistens weniger...
Zumal es auch noch auf die verbauten Komponenten ankam, obs pfiff oder nicht, meistens nur unter hoher Last, wenn die Regler stark belastet wurden.

Ich erinnere mich dunkel daran, das irgendeins der Boards, die ich irgendwann mal hate, durch eine 'stromfressende CPU anfing zu pfeifen, aber das ist schon ziemlich lange her...

@Raff
Das ändert aber nichts an dem Zustand, das ihr bei der PCGH versucht irgendwelche Feindbilder zu schaffen!
Einige Hersteller bekommen bei euch unverhältnismäßig viel Prügel ab bzw ihr übertreibt bei eurer Berichterstattung maßlos...

Haarmann
2009-08-19, 15:56:07
Man muss nicht immer die billigste Karte nehmen...

Wer halt Chinaware kauft, der wird mit Chinaware bedient. Das bei den hohen Preisen einer 280er teure Bauteile eher Verwendung fanden sollte jedem Esel einleuchten.
Bei meinem Gigabyte Board wird nicht grundlos damit geworben, dass es eben keine Chinaware ist ;).

_DrillSarge]I[
2009-08-19, 15:59:00
Bei meinem Gigabyte Board wird nicht grundlos damit geworben, dass es eben keine Chinaware ist ;).
gigabyte ist nicht china? :uponder: ;D

Arctic Silver
2009-08-19, 16:35:42
Ich kann mit dem Furmark nichts machen, da dieses Programm einfach nicht dafür gemacht wurde, das man damit was sinnvolles macht, es ist einfach ein Stresstest, der absichtlich so geschrieben wurde, das er die Hardware möglichst stark maltretiert - also fern ab jeder realität...
Das siehst du falsch. Der Furmark ist ein ganz hervorragendes Tool - allerdings nur für Leute, die wissen was sie tun. Wenn man ein gebrauchtes Auto kauft und wissen will, ob der Motor noch in Ordnung ist, dann fährt man auf die Autobahn, schaltet in den dritten Gang runter und gibt mal 5 Minuten Vollgas. Klar wird der Motor warm - deshalb soll man es auch nicht übertreiben. - Aber es gibt ausser dem Furmark kein anderes Tool, daß einem so schnell und zuverlässig anzeigen kann, ob die Chips und die Kühlung einer Graka noch in Ordnung sind. Auch wenn man den GPU-Lüfter gewechselt hat, ist der Furmark hervorragend für den ersten BurnIn geeignet. - Natürlich muß man dann in Intervallen von wenigen Minuten arbeiten und die Temperaturkurven genau im Auge behalten.

Kein halbwegs vernünftiger Mensch würde auf die Idee kommen mit dem Furmark zu benchen. Der Furmark ist kein 3Dmark, sondern geht meiner Meinung nach eher in die Richtung memtest86+. Den Furmark setzt man ein, um defekte Hardware zu bestätigen. Von "sinnlos" kann also überhaupt keine Rede sein. Was natürlich stimmt ist, daß man den Furmark nicht zu lange laufen lassen sollte. Die Hardware wird extrem belastet und altert überproportional schnell. - Wie bei allen Dingen im Leben, sollte man also vorher wissen was man tut und warum man es tut.

mfg
Arctic Silver

Coda
2009-08-19, 16:45:56
Ich kann mit dem Furmark nichts machen, da dieses Programm einfach nicht dafür gemacht wurde, das man damit was sinnvolles macht, es ist einfach ein Stresstest, der absichtlich so geschrieben wurde, das er die Hardware möglichst stark maltretiert - also fern ab jeder realität...
Das stimmt nicht. Der Furmark war ursprünglich als Benchmark gedacht, es wurde erst später festgestellt, dass er die GPUs so belastet.

The_Invisible
2009-08-19, 16:50:36
Man muss nicht immer die billigste Karte nehmen...

Wer halt Chinaware kauft, der wird mit Chinaware bedient. Das bei den hohen Preisen einer 280er teure Bauteile eher Verwendung fanden sollte jedem Esel einleuchten.
Bei meinem Gigabyte Board wird nicht grundlos damit geworben, dass es eben keine Chinaware ist ;).

welches siliziumprodukt kommt den nicht aus china/taiwan? ;D

mfg

Coda
2009-08-19, 16:54:11
Prozessoren von AMD, IBM und Intel? Wobei natürlich das Packaging dann trotzdem in Asien gemacht wird.

reunion
2009-08-19, 16:57:30
welches siliziumprodukt kommt den nicht aus china/taiwan? ;D

mfg

Taiwan ist nicht China. Taiwan ist hoch entwickelt.

Coda
2009-08-19, 16:57:53
China auch. Teilweise ;)

Black-Scorpion
2009-08-19, 16:59:21
Taiwan ist nicht China. Taiwan ist hoch entwickelt.
OT

Das sehen die Chinesen aber anders. ;)

N0Thing
2009-08-19, 18:15:31
Auch dir: Ich habe geschrieben zum ersten male deutlich hörbar. Aber es ist schon schwer sinnerfassend zu lesen. Auch hat das wohl kaum etwas mit dem Scrollen zu tun, das war AFAIK irgend ein Treiberbug bei NV.

Mag sein das es auch vorher von Drittherstellern billige PCBs gab welche dieses Problem hatten. Aber wir sprechen wir immerhin von Referenzdesign. Und es ist ein Unterschied ob man das Ohr dran halten muss oder ob die Grafikkarte munter vor sich hin musiziert. Aber das führt zu nichts, ich bin raus. Mit ging es ja auch nur darum Raffs Darstellung zu korrigieren, die nun wahrlich sehr einseitig rüber kam.

Befinden sich denn auf jeder Grafikkarte nach Referenzdesign auch die gleichen Bauteile? Es werden ja nicht alle Karte im Referenzdesign vom gleichen Hersteller gefertigt. Wird dann auf jede Karte Spule x von Hersteller Y und Kondensator A von Firma B verbaut, oder wechselt das je nach Produzent und Angebot am Markt? :confused:
Spulenfiepen ist mir zum ersten (und letzten) Mal bei einer X1950GT aufgefallen, die aber nicht dem Referenzdesign entsprach.





Der Punkt ist doch, das beides nicht schön ist und es völliger schwachsinn ist, die Probleme gegeneinander aufzuwiegen und zu behaupten, einer von beiden wäre besser, weil die Karte ja nicht ganz kaputt ist und noch funktioniert...
Das lässt irgendwie den Schluss zu, das der wo das schrieb, nicht ganz objektiv ist.


Ich finde das Aufrechnen auch vollkommen unsinnig, sowohl beim Spulenfiepen, Heatbug, Furmarkproblem, als auch der Blödsinn bei HQ-AF, 4x&8xAA, DX10.1 und PhysiX.
Als ob diese Features/Einschränkungen Werte wären, mit denen man rechnen kann. Das sind Themen, über die man prima diskutieren kann, aber bei den Vergleichen rollen sich mir die Fußnägel auf. Aber irgendwo müssen ja auch Politiker ihre Basis haben, die Computerspiele mit Kinderpornographie vergleichen. :freak:

Aber was hat die ganze Diskussion überhaupt mit dem Artikel von CB zu tun? Warum macht man für den Spam auf den letzten Seiten keinen (weiteren) eigenen Thread auf?

StefanV
2009-08-19, 18:41:40
Ich finde das Aufrechnen auch vollkommen unsinnig, sowohl beim Spulenfiepen, Heatbug, Furmarkproblem, als auch der Blödsinn bei HQ-AF, 4x&8xAA, DX10.1 und PhysiX.
Richtig, wobei wir bei dem Punkt wären, das beide Mist bauen, beide hin und wieder Probleme machen und es völliger schwachsinn ist, mit "abba der annare ist noch viel schlimmer..." zu kommen, denn wenn mans drauf anlegt, findet man bei beiden genug Leichen im Keller...

Man kann die Dinge erwähnen, das ist kein Problem, aber man muss dabei sachlich bleiben und darf auch nichts verschweigen!
Das einige Karten unterm Furmark abrauchen können, kann man erwähnen, man muss das aber nicht übertreiben, da es in der Praxis wohl kaum auftreten wird, zumal uns das auch nicht wirklich überrascht, oder?!
Auch das Spulenfiepen kann man erwähnen, sinnvollerweise wenn man gerad 'nen GTX285 Roundup machte und dann sowas wie 'Unser Exemplar von irgendwas pfiff die gewöhnliche GTX285 Tonleiter", oder eben nicht, gleiches kann man ja auch bei den HD4870/90ern machen, aber übertreiben muss man hier nun wirklich nicht...

Von daher: bisserl mehr Abstand und schon gehts schon...

PS: nutze gerad eher nVidia Karten, wobei mich das mitm SLI gerad ankotzt.
Aber wer 'ne 9800GTX+ gern gegen eine 8800GTS/512 tauschen möchte, möge mir bitte 'Ne PM schicken ;)

StefanV
2009-08-19, 19:00:22
Du bist ja ein ganz toller Hengst. Ich habe geschrieben es wurde zum ersten male deutlich hörbar. Wenn du so willst für mich zum ersten male deutlich hörbar. Nicht mehr und nicht weniger.
Ich erinnere mich jetzt wieder, welches Board es war, das so unheimlich gepfiffen hat.

Es war das Compaq Evo W6000 Systemboard, das sogar digitale Spannungsregler hatte, wie du hier siehst (http://wkhost.webkicks.de/paynie/Sonstiges/Compaq1.jpg)
Bei so einem lauten Haufen hört man das natürlich nicht besonders gut...

Gast
2009-08-19, 20:05:03
Was die "Qualität" angeht und billige Bauteile: Ich habe eine uralte FireGL (IIRC noch aus der Diamond-Zeit), die fiept wir die Seuche - und das war damals kein besonders billiges oder sparsam designtes Board.


Carsten

Armaq
2009-08-19, 20:43:59
Bioshock erzeugt auch extrem hohe Lasten. Es ist ja nicht so, dass Furmark völlig abgehoben ist. Wenn ich mich recht entsinne kommt BS dem recht nah.


Edit: Wer eine ATI haben will, kauft sich ne Sapphire. Ich habe jetzt bei 3 Karten den OCCT-Test "angeordnet" und die Lüfter brüllten wie Tier, aber nichts stürzte ab (HD4870 1 GB Atomic, HD 4870 1 GB VaporX[meine], 4870 2GB VaporX). Fiepen tut da auch nichts. In normalen Spielen wird die Karte nicht einmal hörbar (Bsp. Drakensang mit max. Setting+HDPack+AA). In Crysis+Warhead wird sie natürlich hörbar. Im OCCT Netzteiltest geht sie auf max. u/min.

Gast
2009-08-19, 21:57:31
In normalen Spielen wird die Karte nicht einmal hörbar (Bsp. Drakensang mit max. Setting+HDPack+AA).
Drakensang verspeist CPUs zum Frühstück, da langweiligen sich aktuelle Boliden.

lingua
2009-08-19, 22:18:00
Freunde.... was ist mit dem Inhalt des Threads? Reden wir nun über die Fertigungsqualität der Grafikkarten und Ursachen für erhebliche Schwankungen hierbei, und flamen auch noch Rot und Grün, oder gibt's wieder mal was zum Thema?

Ich selbst vermisse bei diversen Benchmarks der Generationen wirklich Vergleiche der Treiber und eine feinere Staffelung der Karten, vorallem geht die G80 Generation im aktuellen CB-Test ab. Ich kann mir gut vorstellen, dass noch der Eine oder Andere eine 88GTX sein Eigen nennt und damit zockt, ich selbst habe die Karte hier rumliegen und werf' sie manchmal an, um zu sehen, wie sie sich heute schlägt (ich bin manchmal immer noch richtig begeistert).

Nicht jeder Zocker kann sich in den kurzen Abständen, in denen neue Hardware erscheint, auch wieder neue kaufen. Und da interessiert es doch, wie weit man denn mit der eigenen Karte noch mitreden kann, oder ob gerade erschienene oder zukünftig erscheinende Software (Spiele) mal eben zu viel werden...

Leider werden in den meisten "Balkenbenches" immer nur die neuesten Monsterkarten getestet und man denkt sich beim Betrachten dieser Diagramme lediglich "na schön, viele FPS mit einem moderenen System, in irgendwelchen Settings - wie würde denn da drin die noch gar nicht so alte XXXX abschneiden?"

Mich interessiert sowas sehr...... bitte mehr davon!!!

LG

lingua

Gast
2009-08-19, 23:18:12
Naja, eine 8800 GTX ist gut und gerne 50% schneller als eine 8800 GTS.
Man merkt schon, das sich CB hier teils im CPU Limit bewegt.

y33H@
2009-08-19, 23:54:48
Das ändert aber nichts an dem Zustand, das ihr bei der PCGH versucht irgendwelche Feindbilder zu schaffen! Einige Hersteller bekommen bei euch unverhältnismäßig viel Prügel ab bzw ihr übertreibt bei eurer Berichterstattung maßlosProjiziere deine Traumwelt bitte nicht auf die Realität. Kritisiert wird, das kritikwürdig ist. Punkt.

Schlammsau
2009-08-20, 07:19:56
Projiziere deine Traumwelt bitte nicht auf die Realität. Kritisiert wird, das kritikwürdig ist. Punkt.


Habt ihr auch schon einen Artikel über die nicht vorhandenen 2D- Taktraten der GTX2xx, mit mehreren angeschlossenen Monitoren und dem daraus resultierenden ~20W mehr Verbrauch im Idle geschrieben?

Kurz...mit 2 angeschlossenen Monitoren, verbraucht zB eine GTX275, in etwa das gleiche wie eine HD4890.

Oder nicht kritikwürdig?

Grestorn
2009-08-20, 08:01:46
Natürlich kritikwürdig.

Ich will das nicht relativieren, bei SLI Systemen ist es sogar noch schlimmer. Nichts desto trotz wird bei ATI bei weitem auch nicht jeder Missstand kritisiert. Wie lange hat es gedauert, bis die Probleme, die wirklich ALLE Anwender treffen (wie z.B. das AF) endlich thematisiert wurde?

Und das mit der Taktrate trifft schließlich nur einen relativ kleinen Teil der Anwender (wenige Anwender nutzen permanent 2 Monitore)

Haarmann
2009-08-20, 08:06:45
_DrillSarge]I[

GA hat seine Wurzeln ja nicht in Rotchina, sondern in Nationalchina. Ein Board aus Taiwan ist mir allemal lieber, denn dieser Schrott aus China. Gerade die Kleinteile kommen auch nicht aus China in diesen Serien.

The_Invisible

Taiwan ist nicht China... besonders was die Qualität und Mentalität der Menschen anbelangt.

Die 10€ Aufpreis für ne Karte aus Taiwan bezahl ich mit nem Lächeln...

Schlammsau
2009-08-20, 08:12:39
Natürlich kritikwürdig.

Ich will das nicht relativieren, bei SLI Systemen ist es sogar noch schlimmer. Nichts desto trotz wird bei ATI bei weitem auch nicht jeder Missstand kritisiert. Wie lange hat es gedauert, bis die Probleme, die wirklich ALLE Anwender treffen (wie z.B. das AF) endlich thematisiert wurde?

Und das mit der Taktrate trifft schließlich nur einen relativ kleinen Teil der Anwender (wenige Anwender nutzen permanent 2 Monitore)

2 Monitore vielleicht nicht, aber 1 Monitor und 1 TV (wie ich es habe), ist glaub ich sehr viel häufiger vertreten als du denkst.
Das ist ein Missstand, der in einem Artikel erfasst werden müsste. Mal abgesehen von den Taktschwankungen unter Windows Se7en.
Weiss nicht ob das nur ein Bug, in den letzten beiden Treibern war oder jetzt Standard ist.

Bei einer Radeon wird auch über alles hergezogen, vor allem in letzter Zeit, wo sie den Geforces paroli bieten können.
Die PCGH zB lässt da fast nichts aus .... AF, µR und der Idle-Verbrauch werden regelmässig erwähnt. Ist nur noch eine Frage der Zeit, bis sie die "minderwertigen" digitalen Spawas mit in ihr Portfolio einbeziehen.

Aber die offensichtlichen Mängel der aktuellen GeForces, werden nahezu verschwiegen. Was ist zB mit dem Spulenfiepen?
Auch nicht kritikwürdig? Darüber würde ich auch gerne nen Artikel sehen!

Andre
2009-08-20, 08:28:31
Was ist zB mit dem Spulenfiepen?
Auch nicht kritikwürdig? Darüber würde ich auch gerne nen Artikel sehen!

Der Artikel wird bestimmt sehr lang:
"Bei Belastung X fiept die Karte mit Lautstärke Y. Je nach Karte mit einer anderen Frequenz und Lautstärke."
Bombenartikel, der mit Sicherheit reißenenden Absatz finden wird. Ob eine Karte fiept oder nicht ist doch Glücksache. Willst du eine Wahrscheinlichkeit ausrechnen lassen, mit der eine Karte fiept?
Sinnlos.

StefanV
2009-08-20, 08:33:06
Projiziere deine Traumwelt bitte nicht auf die Realität. Kritisiert wird, das kritikwürdig ist. Punkt.
Ach, der Marc wieder mit seiner beleidigten Tour, wo er, statt zu argumentieren bzw Fehler einzusehen, rumpupen muss...

Aber schau dir doch mal an, was andere sagen, dann sollte dir klar sein, das du falsch liegst und es generell nicht gern gesehen ist, wenn man nur auf einem Hersteller rumhackt, das ist einfach nur unprofessionell, aber das ist ja nichts neues, bei PCGH, wo man sich auch irgendwelche Settings für Tests ohne Sinn und Verstand zusammenphantasiert...

Bei einer Radeon wird auch über alles hergezogen, vor allem in letzter Zeit, wo sie den Geforces paroli bieten können.
Die PCGH zB lässt da fast nichts aus .... AF, µR und der Idle-Verbrauch werden regelmässig erwähnt. Ist nur noch eine Frage der Zeit, bis sie die "minderwertigen" digitalen Spawas mit in ihr Portfolio einbeziehen.
Genau das, oder aber das nVidia hin und wieder mal neue(/andere) Produkte unter anderem Namen bringt, um sie der aktuellen Namensgebung, die ja nun wirklich fast idiotensicher ist, anzupassen...

An sonsten wird halt über jeden Furz von AMD hergezogen, es werden Konkurenten besser hingestellt und so weiter...
Wie man sieht, gibt die PCGH sogar AMD die Schuld am Spulenfiepen der GTX285 Reihe (wie ich schon mal erwähnt hab, ist das eher ein Designfehler vom Erfinder des PCBs als AMD bzw dem Kostendruck anzulasten)...

Aber die offensichtlichen Mängel der aktuellen GeForces, werden nahezu verschwiegen. Was ist zB mit dem Spulenfiepen?
Auch nicht kritikwürdig? Darüber würde ich auch gerne nen Artikel sehen!
Das ist doch gerade das Problem bei dem Laden, statt neutral an irgend welche Sachen ran zu gehen und die auch neutral/objektiv zu behandeln, hat man seine Lieblinge, die man besonders hervorheben muss...
Der Artikel wird bestimmt sehr lang:
"Bei Belastung X fiept die Karte mit Lautstärke Y. Je nach Karte mit einer anderen Frequenz und Lautstärke."
Bombenartikel, der mit Sicherheit reißenenden Absatz finden wird. Ob eine Karte fiept oder nicht ist doch Glücksache. Willst du eine Wahrscheinlichkeit ausrechnen lassen, mit der eine Karte fiept?
Sinnlos.
Ach, Andre, schon mal dran gedacht, das man den Artikel auch etwas ausbauen kann und z.B. damit anfangen kann, warum es überhaupt zu den Geräuschen kommen kann, bei den Step Down Konvertern?
Und dann könnte man sich noch ein paar Karten krallen und die mal alle testen, darüber dann ein paar Worte verlieren, also 2 PCGH Seiten sind da locker drin, wenn nicht noch mehr.

Schlammsau
2009-08-20, 08:33:53
Der Artikel wird bestimmt sehr lang:
"Bei Belastung X fiept die Karte mit Lautstärke Y. Je nach Karte mit einer anderen Frequenz und Lautstärke."
Bombenartikel, der mit Sicherheit reißenenden Absatz finden wird. Ob eine Karte fiept oder nicht ist doch Glücksache. Willst du eine Wahrscheinlichkeit ausrechnen lassen, mit der eine Karte fiept?
Sinnlos.

So muss das ja nicht aussehen. Aber man könnte in einem Review Fazit wenigstens angeben:
Achtung: Momentan neigen GeForces eher zum Spulenfiepen als Radeons, es kann für manche störend sein oder auch nicht!

Beim AF wird es so ähnlich auch immer geschrieben.

Gast
2009-08-20, 09:33:35
So muss das ja nicht aussehen. Aber man könnte in einem Review Fazit wenigstens angeben:
Achtung: Momentan neigen GeForces eher zum Spulenfiepen als Radeons, es kann für manche störend sein oder auch nicht!

Die Aussagekraft einer derartigen Warnung liegt bei NULL.

Im Gegenteil, ich wurde bereits über einen derartigen Satz getäsucht, vielleicht habe ich im Nachhinein einen Fehlkauf getätigt, wegen so einer schwachsinnigen Aussage.

Richtig ist, das der Informationsgrad miserabel ist. Sich auf die Forenlügen zu verlassen ist sehr riskant. Nächste Mal werde ich auf FAG vertrauen oder gar nie wieder etwas kaufen.
Es geht so nicht weiter, die Fachpresse hat versagt und die Forenuser habens kräftig raufgetreten.

Beim AF wird es so ähnlich auch immer geschrieben.
AF ist keine Glücksache.
Karten sind laut, das Pfeifen tritt bei allen (od HD oder GF) auf.

Gast
2009-08-20, 10:48:51
Projiziere deine Traumwelt bitte nicht auf die Realität. Kritisiert wird, das kritikwürdig ist. Punkt.

Na , Mal wieder nen Thread Thrashen.
Das ist doch mal Kritikwürdig

Du PCGH Schreiberling

Gast
2009-08-20, 10:58:32
Karten sind laut, das Pfeifen tritt bei allen (od HD oder GF) auf.
Falsch.
Nicht alle Karten fiepen (pfeifen).
Meine 9600GSO hatte ein sehr starkes fiepen. Zumindest nach einer bestimmten Zeit, oder ich habe es am Anfang nicht gemerkt (da auch ziemlich wenig gezockt).
Nun habe ich eine 4830 von Sapphire (Sapphire-Design mit Dual-Slot Kühler)und die fiept einfach nicht.
Und diesmal habe ich genauer hingehört, das kannst du mir glauben ;)

Generell kann man sagen, dass wenn eine Graka vom Fiepen betroffen ist, ist dieses Fiepen bie den Nvidia-Karten mehr ausgeprägt als bei den AMD-Karten.

xiao didi *
2009-08-20, 11:00:12
Generell kann man sagen, dass wenn eine Graka vom Fiepen betroffen ist, ist dieses Fiepen bie den Nvidia-Karten mehr ausgeprägt als bei den AMD-Karten.
Wart mal die nächste Generation ab. ;)

Schlammsau
2009-08-20, 11:07:28
Wart mal die nächste Generation ab. ;)

Tun wir!

StefanV
2009-08-20, 11:22:50
Falsch.
Nicht alle Karten fiepen (pfeifen).
Meine 9600GSO hatte ein sehr starkes fiepen. Zumindest nach einer bestimmten Zeit, oder ich habe es am Anfang nicht gemerkt (da auch ziemlich wenig gezockt).
Nun habe ich eine 4830 von Sapphire (Sapphire-Design mit Dual-Slot Kühler)und die fiept einfach nicht.
Und diesmal habe ich genauer hingehört, das kannst du mir glauben ;)

Generell kann man sagen, dass wenn eine Graka vom Fiepen betroffen ist, ist dieses Fiepen bie den Nvidia-Karten mehr ausgeprägt als bei den AMD-Karten.
Ja, eben, aber um der Sache aufn Grund zu gehen, brauchts jemanden mit einem anständigen Scope, der entsprechenden Karte und dem Willen/Mut dazu.

Hat jemand die entsprechenden Teile? :D
Ich hätte Zeit und Lust, mal zu schauen, ob ich die Schaltfrequenz der Regler erschätzen kann :D :D

Schlammsau
2009-08-20, 11:47:52
Ich will einfach nur eine faire Berichterstattung.
Wenn man schon gross am herziehen ist, sollte man sich beide Hersteller zur Brust nehmen. Und es nicht so einseitig machen, wie manche hier.

Beide Hersteller machen Fehler!

Gast
2009-08-20, 11:53:47
Ich will einfach nur eine faire Berichterstattung. Ich auch.
Da hat die Presse in vielen Punkten nachzuholen. Jedenfalls sind die jetztigen Tests praktisch allesamt kompletter Müll.
Es gibt gute Punkte, aber viel zu wenige.


Beide Hersteller machen Fehler! Von dir sowas zu lesen ist erstaunlich!

Dann einige dich doch mal darauf, das auch AMDs Fehler genannt werden dürfen.

Bevor du den nächsten "ich vermisse" Flame startest auch daran denken.

Gast
2009-08-20, 12:00:34
Falsch.
Nicht alle Karten fiepen (pfeifen).
Meine 9600GSO hatte ein sehr starkes fiepen. Zumindest nach einer bestimmten Zeit, oder ich habe es am Anfang nicht gemerkt (da auch ziemlich wenig gezockt).
Nun habe ich eine 4830 von Sapphire (Sapphire-Design mit Dual-Slot Kühler)und die fiept einfach nicht.
Und diesmal habe ich genauer hingehört, das kannst du mir glauben ;)

Kann ich dir glauben, das es weniger pfeift.
Allerdings ist hier auch so ein Punkt. Was meinst du mit pfeifen? Idle, Last, 1000 FPS Menü oder was? Wie laut, welche Frequenz, gleichmäßig?

Alles Punkte die in dem Zusammenhang nie genannt werdenl.

Jetzt bitte nich schreiben, das die egal ist, denn es ist es nicht.


Generell kann man sagen, dass wenn eine Graka vom Fiepen betroffen ist, ist dieses Fiepen bie den Nvidia-Karten mehr ausgeprägt als bei den AMD-Karten.
Das schreibst du anhand zweier Karten:
2 verschiedenen Herstellern
2 verschiedene IHV
2 verschiedene Marktbereiche

Sehr aussagekräftig. Solche Halbwahrheiten werden durch solche Beispiele nicht wahrer.
Im Grunde sorgen diese Forenmeldungen nur dafür, das man jeden der klar bei Verstand ist davor warnen muss:
"Höre nicht auf Foren, beachte keine Test, du wirst dadurch nicht besser informiert, auch wenn du es glaubst!"

Schlammsau
2009-08-20, 12:10:22
Von dir sowas zu lesen ist erstaunlich!

Hab ich schon mehr als einmal geschrieben! ;)

Gast
2009-08-20, 13:52:10
Kann ich dir glauben, das es weniger pfeift.
Allerdings ist hier auch so ein Punkt. Was meinst du mit pfeifen? Idle, Last, 1000 FPS Menü oder was? Wie laut, welche Frequenz, gleichmäßig?

Diese Fiepen kam bei der 9600GSO erst ab ca. 1000 fps (für mich hörbar), zwischen 1500 und 2500 fps war es schon sehr deutlich hörbar und auch extrem störend, da in diesem Bereichen die fps-Sprünge sehr groß sind und dementsprechend nervig sind die Sprünge in der Tonlage.

Es taucht in Menus (nicht so störend), aber auch bei "Pseudo-3D Intros" wie z.B. Witcher auf, und hier stört es EXTREM.

Grestorn
2009-08-20, 14:16:37
VSync an und gut ist :)

Gast
2009-08-20, 14:24:22
Auch nicht immer für jeden das ware. ;)
Ich würde da FPS Limiter bevorzugen.


Herr Gast, das ich genau so ein Punkt. Du schreibst es pfeift. Keiner weiß was du meinst, aber jetzt ist es klar, bis auf die Lautstärke.
Als Käufer lässt man sich davon abschrecken, im Rahmen einer kompletten Angabe nicht mehr. Weil was soll man auch noch kaufen, ich kann mich auf nichts verlassen. Ich kann nicht in den Laden gehen, eine 4890 raustragen und hoffen als ist gut, weils nicht bemekert wird.

Solange die umfassende Aufklärung fehlt kann man nur sagen: Kauft doch was ihr wollt, nutzt bei Bedarf FAG, seit aber nicht traurig wenn ihr am Ende nach 10 Versuchen keine Lust mehr habt und eine PS3 kauft.

Piffan
2009-08-21, 12:06:46
Die Idee, die Grakas über die Generationen hinweg zu vergleichen finde ich im Prinzip genial. Auch unterschiedliche Ausführungen, also auch Sparversionen....

Der Vergleich über Generationen um zu sehen, wie sich die Leistung vervielfacht hat, setzt aber voraus, dass man "Vollversionen" miteinander vergleicht, und nicht Highend mit Beschnitten....

Aber auch gängige, noch immer in vielen REchnern zu findenden Sparversionen sollte ruhig mal antretetn für eine Standortbestimmung von Aufrüstwilligen. Oder sei es, dass man mal sieht, ob der Zweitrechner nicht vielleicht doch noch als Spielebude oder für Video zu gebrauchen ist.

Also von der Idee nicht mal schlecht, aber wenn ich hier lese, wohl absolut untauglich umgesetzt.

Cyphermaster
2009-08-21, 12:32:04
Also von der Idee nicht mal schlecht, aber wenn ich hier lese, wohl absolut untauglich umgesetzt.Das sehe ich genauso. Vor allem, wenn man viele gängige Baureihen und Modelle gar nicht mit im Test hat, die immer noch im Feld sind, bzw. die Low-End Gurken, die man ersetzen will. Beispiel: Man hat einen PC mit einer X1050 oder X1550, und hat natürlich keine Ahnung, wieviel Dampf diese Karten haben - in Tests tauchen die natürlich praktisch nie auf. Wenn man nun aber günstig an eine X850XT käme, weiß man wieder nicht, ob und wieviel besser diese ist. Muß ja nicht auf den Frame genau sein, aber zumindest im Groben wäre ein Vergleich sicher interessant. Grade bei solchen Dingen wie X1550 OC-Edition vs X1650XT sind nicht wenige Nicht-Belesenen unsicher, da die X1650 ja die größere Nummer hat. Vergleicht man dann noch nVidia mit ATI-Karten, dann kapieren das ne Menge Leute gar nicht mehr (was man an den Absätzen vieler Krüppelversionen sieht)

Zusammen mit der Beantwortung der Frage, ob eine bestimmte ältere Karte für ein neueres Spiel noch genug Leistung hat, wäre sowas natürlich sehr wertvolle Information für viele PC-selber-Zusammensteller.

Gast
2009-08-21, 12:37:17
Beispiel: Man hat einen PC mit einer X1050 oder X1550, und hat natürlich keine Ahnung, wieviel Dampf diese Karten haben - in Tests tauchen die natürlich praktisch nie auf.
Die Karten hatten schon zu ihrer Zeit nicht genug Dampf für ein ernsthaftes Spielchen und tauchen IMHO zurecht praktisch nie in spielebezogenen Reviews auf, das ist nicht ihr Terrain.

Cyphermaster
2009-08-21, 12:41:56
Ob sie zurecht nicht auftauchen, ist ja nicht der Punkt, sondern daß solche Karten vielfach im Gebrauch sind, und genau wegen ein paar Spielchen aufgerüstet werden soll. Und da wäre es eben interessant zu wissen, ob die angedachte Karte überhaupt eine so große Verbesserung wäre oder nicht. Genauso gilt das ja für Karten mit DDR2-Speicher, oder halbiertem Interface; alles Dinge, bei denen Otto Normalverbraucher nichts peilt.

(del)
2009-08-21, 15:56:20
Der Vergleich über Generationen um zu sehen, wie sich die Leistung vervielfacht hat, setzt aber voraus, dass man "Vollversionen" miteinander vergleicht, und nicht Highend mit Beschnitten....Man müßte da erstmal die speziellen Optimierungen auf die angeblichen Spielekracher irgendwie "rausrechnen". Sonst hast du eh kein klares Bild. Vorallem nicht, wenn du dir im Juli eine Graka kaufst, im August ein Spiel und im Oktober der IHV im Treiber eine Optimierung für das Spiel einbaut. Und dann womöglich eine die nur auf der aktuellsten Generation und womöglich nur der Highend-Ausführung greift.

Da kann man sich auch gleich Spiele nur von der "Pyramide" kaufen, ggbf. updaten und es auf der aktuellen HArdware mit dem aktuellen treiber laufen lassen. Dann rennt auch alles wunderbar ;)

AYAlf_2
2009-08-21, 16:37:28
wieso nicht mal ein test, den jeder "ottonormaluser" nachvollziehen kann?

wieso immer die hoechsten einstellungen (bringen bei ueber 75% der karten eh nichts). weil unspielbar!

viel besser waeren tests, bei denen die spielbarkeit bestimmter hardwaresettings angesprochen wird.
was bringt es mir bitte, dass ich weiss, dass meine graka (beispiel 7900gt in oblivien, bei einer fuer diese karte viel zu hohen aufloesung, einen unspielbaren wert schafft?) :confused:


ich werde es nie verstehen.

Gast
2009-08-21, 17:03:14
wieso nicht mal ein test, den jeder "ottonormaluser" nachvollziehen kann?

Otto ist ein Idiot.

Ansonsten finde ich sehr schade, dass der Ansatz der 3DCenter-Performancereports nirgendwo Nachahmer gefunden hat, die das Ganze groß aufziehen.

Anstatt hundertmal die Neuauflage einer bekannten GPU mit leicht veränderten Taktraten oder sonstwas durch schlecht gemachte Benchmarks mit idiotischen Settings zu nudeln, sollten man sich lieber die relevanten Spiele einzeln greifen und dann für wichtige Karten beider Hersteller auf Suche nach der bestmöglichen Bildqualität bei spielbaren Einstellungen gehen, ausführliche Begründung und Analyse inklusive.

Cyphermaster
2009-08-21, 17:36:21
Das ist nun wieder Frage des Publikums: Wer liest welche Art von Artikel?

So, wie bei CB getestet wurde, ist es für mich aber sowohl für den Freak, als auch für Otto unbefriedigend.

Gast
2009-08-21, 17:44:20
So, wie bei CB getestet wurde, ist es für mich aber sowohl für den Freak, als auch für Otto unbefriedigend.
Wenn man bei CB liest sind damit viele zufrieden, auch wenn ich es absolut nicht nachvollziehen kann.

Odal
2009-08-21, 18:58:14
gerade erst gelesen

fands interessant wie sehr die X1950xt die 7900gtx vernichtet zum grössten teil

im gegensatz zur X800xl und 6800 hätten mich eher die verbreiteten (mal xt-PE und ultra aussen vor gelassen) high end modelle 6800GT und X800XT interessiert

Gast
2009-08-21, 19:03:05
Du meinst X1950 XTX, die absolute Super High-End Karte, die einen Monat vor 8800 GTX und ein halbes Jahr nach 7900 GTX gekommen ist. ;)

Mr. Lolman
2009-08-21, 19:20:16
Du meinst X1950 XTX, die absolute Super High-End Karte, die einen Monat vor 8800 GTX und ein halbes Jahr nach 7900 GTX gekommen ist. ;)
Die X1950XTX war nur ein sehr seichter Aufguss der X1900XTX welche 2 Monate vor der 7900GTX kam. Außerdem kam die 8800GTX 2.5 Monate nach der X1950XTX.

kmf
2009-08-21, 19:28:17
Oh man, wer fragt denn heute noch nach einer 1950 XTX? Diese Karte wurde meiner Meinung nach ohne Ende gehypt. Eine 1900XT war nicht unbedingt langsamer. Und die 8800 Ultra und die kurz darauf erschienene 8800GTX haben das Gefüge mal gerade rechtzeitig zurecht gerückt.

Ich weiß das nur zu genau, da ich damals CF mit einer 1950XTX und einer 1900 XT betrieben hab. Die Masterkarte hab ich seit ein paar Wochen nun nicht mehr. Aber die 1950 XTX verrichtet heute noch ihre Dienste im PC meiner Frau. Und von daher kann ich heute immer noch nachgucken, was das Teil echt zu leisten imstande ist. Und glaubt mir, es ist verglichen mit heutigen "Billig"-Karten sehr sehr wenig.

Gast
2009-08-21, 19:35:23
Die X1950XTX war nur ein sehr seichter Aufguss der X1900XTX welche 2 Monate vor der 7900GTX kam. Außerdem kam die 8800GTX 2.5 Monate nach der X1950XTX.
Naja, zwischen X1900 XT und X1950 XTX gibts genug Unterschiede, das man es so nicht stehen lassen kann. 5, 10, 20% hin oder her.
Nach meinen Informationen gabs die X1950 XTX im Oktober.

Bei dem CB Test muss man aufpassen, bevor man schreibt: "macht sich gut". Stellenweise gehts der 7900 GTX echt mies bei den Settings, das zieht runter, aber gleichzeitig ist auch die X1950 XTX unnütz, weil unspielbar langsam.
Schade das CB nicht auch spielbare Settings getestet hat.

Ich will damit auch gar nicht in Frage stellen, das eine X1900 XT heute besser (wie viel ist nachwievor unebekannt) dasteht als eine 7900 GTX.

Odal
2009-08-21, 20:39:26
Du meinst X1950 XTX, die absolute Super High-End Karte, die einen Monat vor 8800 GTX und ein halbes Jahr nach 7900 GTX gekommen ist. ;)


wie schon erwähnt bezog ich mich auf die X1950XTX da die X1900XTX nicht mitgetestet wurde, aber kaum langsamer als die X1950XTX ist

es ist jedenfalls deutlich zu sehen das trotz kaum unterschied zum erscheinen nun (auch dank neuerer aufwendiger spiele) der unterschied sehr deutlich hervor tritt

Gast
2009-08-21, 21:46:45
Wie gesagt, beim CB Rating muss man vorsichtig sein, wegen der Unspielbarkeit.

Zum Erscheinen der X1950 XTX, waren es nach CB http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1950_xtx_x1950_crossfire/22/#abschnitt_performancerating_qualitaet 15%.

Die Frage ist in dem Sinne auch, woran es liegt. Nach CBs neuestem Test weiß man es nicht, liegts an der Shaderleistung oder an der Bandbreite? man weiß nicht in wie weit eine X1900 XT schneller als eine X1800 XT ist.
Das ist diese typische bunte Zusammensetzung, aus der man keine festen Erkenntnise gewinnt.

Raff
2009-08-21, 22:32:16
Und glaubt mir, es ist verglichen mit heutigen "Billig"-Karten sehr sehr wenig.

Ich find's dennoch beachtlich, was eine vollwertige X19x0 heutzutage noch reißt. Viele halbwegs aktuelle Spiele laufen gut spielbar, während jede GeForce 7 nur noch Diashows rausjagt. Auch die X1800 XT mit einem Drittel der ALUs einer X1900 XT kriegt arg aufs Fressbrett.

MfG,
Raff

StefanV
2009-08-21, 22:53:02
Oh man, wer fragt denn heute noch nach einer 1950 XTX? Diese Karte wurde meiner Meinung nach ohne Ende gehypt. Eine 1900XT war nicht unbedingt langsamer.
Naja, die x1900XT war verdammt laut, auch im idle, die x1950XTX dürft da um einiges leiser gewesen sein, deswegen auch der hype...

von den Taktraten sinds ja nicht so weit auseinander, oder?!

Vertigo
2009-08-21, 23:00:08
Auch die X1800 XT mit einem Drittel der ALUs einer X1900 XT kriegt arg aufs Fressbrett.

MfG,
Raff
Ja, satte 5-15%. :biggrin:
Naja, die x1900XT war verdammt laut, auch im idle, die x1950XTX dürft da um einiges leiser gewesen sein, deswegen auch der hype...

von den Taktraten sinds ja nicht so weit auseinander, oder?!
Die X1950XTX war eigentlich nur im Leerlauf leiser, dafür unter Last lauter als die X1900XT(X) - zumindest bei meinen Karten war das so. Das eigentliche Highlight der X1950XTX war der erstmals verbaute GDDR4-Speicher mit 1000MHz Takt.

Mr. Lolman
2009-08-22, 00:05:59
Naja, zwischen X1900 XT und X1950 XTX gibts genug Unterschiede, das man es so nicht stehen lassen kann. 5, 10, 20% hin oder her.

Es waren ~10% Unterschied zwischen der X1900XTX (!) und der X1950XTX. Sieht man auch gut bei den Ratings. Außerdem lassen auch die technischen Daten dementsprechende Rückschlüsse zu...

Gast
2009-08-22, 08:16:06
Die Daten sagen mir 5-38%.

Mr. Lolman
2009-08-22, 08:28:38
Die Daten sagen mir 5-38%.

38%? Wo?

Gast
2009-08-22, 08:30:07
Speichertakt/Bandbreite.

Mr. Lolman
2009-08-22, 08:36:26
Speichertakt/Bandbreite.

Jo, bloß dass die X1950XTX bezogen auf die GPU ein ähnlichen Bandbreitenoverkill wie die X2900XT hatte. Selbst ne HD4850 hat (minimal) weniger Bandbreite als ne X1950XTX (!). Die 38% sieht man wohl nirgends. Lt. Benchmarks warens eher 10 (bis max 15) Prozent.

Gast
2009-08-22, 08:38:07
Gut, das ist mir nicht bekannt, in wie weit es was bringt. ;)

Jedenfalls bingen die 3fachen ALUs dem R580 somit ~15% im Vergleich zum gleichgetakteten R520?

AnarchX
2009-08-22, 10:49:15
Jo, bloß dass die X1950XTX bezogen auf die GPU ein ähnlichen Bandbreitenoverkill wie die X2900XT hatte. Selbst ne HD4850 hat (minimal) weniger Bandbreite als ne X1950XTX (!). Die 38% sieht man wohl nirgends. Lt. Benchmarks warens eher 10 (bis max 15) Prozent.
Dass GDDR4 bei der Pro-MHz-Leistung etwas hinter GDDR3 liegt, sollte ja mittlerweile bekannt sein.
Der GDDR4 dürfte wohl AMD damals bei einem Verkaufspreis von ~400€ nicht unbedingt weh getan haben und erreichte eine Leistungssteigerung, die man so nicht mehr aus der GPU hätte holen können und dazu eben noch den Imagevorteil die erste GDDR4-GraKa zu haben.

Mr. Lolman
2009-08-22, 11:11:03
ACK. Nur wars aus Customersicht eher unnötig. Ähnlich wie die 9800pro/XT, die interessanterweise bei den Endkunden ne weitaus höhere Akzeptanz als die 9700pro hatten, aber insgesamt auch nur Aufgüsse waren.

Captain Future
2009-08-22, 14:04:18
Du meinst X1950 XTX, die absolute Super High-End Karte, die einen Monat vor 8800 GTX und ein halbes Jahr nach 7900 GTX gekommen ist. ;)
Nein, die X1950 XTX, bei der Ati nur noch 350 Euro als Startpreis für eine Super-Duper-High-End-Karte aufgerufen hat.

Kephis
2009-08-22, 17:22:18
Meine X1900XTX (nicht 1950 und nicht 1900XT) hatte mir, wie schon einige Seiten weiter vorne geschrieben, bis Juli diesen Jahres gute Dienste geleistet.
Es gab eigentlich kein game was nicht lief, selbst Crysis habe ich super spielbar durchgezockt auf Medium-High (natürlich in 1280-1024).
Auch Sachen wie z.b. Fallout oder COD oder Mass Effekt liefen super drauf, bei den meisten games sogar in 1680x1050 und high Details (ohne AA/AF).
Und das mit einer Athlon 4400+ CPU und 2gb DDR 1 400mhz, das hätten nicht viele so alte Grakas geleistet. Ich muß sagen ich habe die damals ~500Euo nie bereut. Auch wenn ich sonst nie Highend kaufte und auch in Zukunft nicht mehr kaufen werde, hat es sich damals Gott sei Dank voll bezahlt gemacht imho.

Wäre mir mein MB nicht abgeraucht und hätte ich mir bedingt dadurch nicht sowieso CPU/MB/RAM neukaufen müssen, hätte ich die X1900XTX heute noch.
Habe sie vorige Woche für 35€ verkauft, was ein toller Preis ist für ein so altes Stück Hardware.

Naja ich konnte mich echt nicht beklagen über die X1900XTX, war die beste ATI die ich je hatte, gefolgt von der 9800 PRO. Bei Nvidia gabs auch 2 Karten die mich ähnlich beeindruckt haben, das war die TI4200 und die GTS250.

Gast
2009-08-23, 18:26:40
An alle, die hier Hitze- oder Stromversorgungsprobleme beim Furmarkt als irrelevant abtun: Es darf einfach nicht passieren, dass ein Produkt überhitzt oder außerhalb der Spezifikation läuft, wenn man es ganz normal über definierte Schnittstellen mit Arbeit versorgt. Nur weil die meisten Spiele heute noch keine sonderlich hohen Anforderungen an die Hardware stellen, darf man nicht einfach minderwertige Qualität akzeptieren.

Wenn ich meine GTX 280 über CUDA auslaste, erreicht diese weitaus höhere Temperaturen als in jedem bisher von mir getestetem Spiel. Mich würde es nicht wundern, wenn man ATI-Karten mit GPGPU-Code nicht auch deutlich stärker auslasten könnte als in einer aktuellen Konsolenkonvertierung. Auch dann darf die Karte aber keine Mucken machen. Weiß nicht, was es da zu diskutieren gibt. Wenn mein Produkt nicht unter allen Bedingungen einwandfrei läuft, muss ich es eben anpassen, i.e. den Chip heruntertakten oder eine bessere Kühlung und Stromversorgung verbauen. Will ich das nicht, muss ich sicherstellen, dass sich jeder Käufer meines Produkts bewusst darüber ist, dass er es niemals gänzlich ausnutzen kann. Alles andere wird völlig zurecht kritisiert.

Schlammsau
2009-08-23, 18:55:33
An alle, die hier Hitze- oder Stromversorgungsprobleme beim Furmarkt als irrelevant abtun: Es darf einfach nicht passieren, dass ein Produkt überhitzt oder außerhalb der Spezifikation läuft, wenn man es ganz normal über definierte Schnittstellen mit Arbeit versorgt. Nur weil die meisten Spiele heute noch keine sonderlich hohen Anforderungen an die Hardware stellen, darf man nicht einfach minderwertige Qualität akzeptieren.

Wenn ich meine GTX 280 über CUDA auslaste, erreicht diese weitaus höhere Temperaturen als in jedem bisher von mir getestetem Spiel. Mich würde es nicht wundern, wenn man ATI-Karten mit GPGPU-Code nicht auch deutlich stärker auslasten könnte als in einer aktuellen Konsolenkonvertierung. Auch dann darf die Karte aber keine Mucken machen. Weiß nicht, was es da zu diskutieren gibt. Wenn mein Produkt nicht unter allen Bedingungen einwandfrei läuft, muss ich es eben anpassen, i.e. den Chip heruntertakten oder eine bessere Kühlung und Stromversorgung verbauen. Will ich das nicht, muss ich sicherstellen, dass sich jeder Käufer meines Produkts bewusst darüber ist, dass er es niemals gänzlich ausnutzen kann. Alles andere wird völlig zurecht kritisiert.
Es gibt kein Game oder anderweitiges Programm (zB Folding@Home), das die Grafikkarte auch nur ansatzweise so auslastet, wie der drehende Fellwürfel des FURMurks! Es gibt einfach nichts vergleichbares und ist absolut praxisfremd. Noch dazu hatte ich mit meinen Radeons, noch nie ein Poblem mit ihm.

Eine 3850 im Standarddesign von Sapphire und mit verbauten Accelero S1 > kein Problem!
Eine 3870 Singleslot von Sapphire > kein Problem!
Eine 4850 in Standarddesign von Sapphire > kein Problem!
Eine 4870/512MB im Standarddesign von PowerColor > kein Problem!
Meine letzten 3 Radeons, allesamt 4890 und mit 3 verschiedenen Kühlern = kein Problem!
Meine GTX275 hatte auch keine Probleme!
Allesamt sind zwar sau heiss geworden, dh rund 20° mehr als beim zocken, aber keine ist mir verreckt oder ist instabil geworden.

Ich möchte echt mal wissen, ob wirklich ungemoddete Radeons im FUR sterben, oder ob das alles nur ein übles Gerücht ist.

Wolfram
2009-08-23, 22:14:47
Ich hatte schon mehrere Karten mit passiven Kühlern (ab Werk), die in einem schlecht durchlüfteten Rechner nicht nur bei FurMark regelmäßig durch Überhitzung abstürzten. Das waren zB eine 7600 GT, eine 2600 Pro und eine HD 3470. Das soll nur illustrieren, daß IMO tatsächlich praxisuntaugliche Kartendesigns verkauft werden, ohne das jetzt auf ATI/AMD zu beschränken. Macht mich nur sehr skeptisch in bezug auf Modelle, die zu sehr auf Kante gebaut sind.

Userxy
2009-08-23, 23:14:59
@Schlammsau
Wobei sind deine drei letzten Radeons gestorben? Meine beiden 260er hatten unterschiedliche Fehler und wurden von mir nicht übertacktet (getacktet nennt sich das ja jetzt). Die Karten heute bekommen meiner Meinung nach keine Endkontrolle mehr und man hat halt Glück oder Pech mit dem was man kauft.

Lawmachine79
2009-08-24, 00:46:55
Ich möchte echt mal wissen, ob wirklich ungemoddete Radeons im FUR sterben, oder ob das alles nur ein übles Gerücht ist.
WARUM bremst ATI die Karten dann? Reagiert ATI damit auf ein übles Gerücht?
An alle, die hier Hitze- oder Stromversorgungsprobleme beim Furmarkt als irrelevant abtun: Es darf einfach nicht passieren, dass ein Produkt überhitzt oder außerhalb der Spezifikation läuft, wenn man es ganz normal über definierte Schnittstellen mit Arbeit versorgt. Nur weil die meisten Spiele heute noch keine sonderlich hohen Anforderungen an die Hardware stellen, darf man nicht einfach minderwertige Qualität akzeptieren.


Exakt das ist der Punkt und hierbei darf es absolut NULL Verhandlungsspielraum geben. Solange die Karte innerhalb ihrer Spezifikation läuft, HAT sie zu laufen, Ende der Diskussion, auch das an den Haaren herbeigezogene "spielst Du Furmark?" hilft hier nicht weiter - verarschte Kunden suchen für ihren Lieblingshersteller nach Ausreden, sagt mal, merkt Ihr das denn nicht? Ihr werdet nach Strich und Faden verarscht und unterstützt den Verursacher dabei noch bei der Rechtfertigung! Was macht Ihr, wenn Euch der Zahnriemen reisst? Überweist Ihr 2000€ Erlebnisprämie an den Autohersteller? Dieses "Schieß mir schon mal ins Knie während ich mir die Hand abhacke"-Verhalten kann ich beim besten Willen nicht nachvollziehen. Wenn ich eine Grafikkarte einbaue und sie innerhalb ihrer Spezifikation betreibe, hat sie zu laufen, egal ob das Pong oder Furmark ist, egal ob der Code von Horst Hrubesch oder Stephen Hawking geschrieben wurde und damit basta!

Schlammsau
2009-08-24, 06:57:02
WARUM bremst ATI die Karten dann? Reagiert ATI damit auf ein übles Gerücht?

So wie es scheint, bremst sich der FUR seit dem 1.7.0 selber. Auch auf Geforces.
Was ist da los?

Aber jetzt mal ehrlich, hat irgend jemand schon irgendeinen Thread oder Artikel gesehen, wo explizit davon geschrieben wird?
Also ich nicht! Das was man öfters liest ist: "Meine 48xx geht nach Kühlerwechsel nicht mehr! ;("
Es ist kein Geheimniss, dass die rote Platte auch nach einem Kühlerwechsel auch noch weiter besutzt werden sollte.

@Schlammsau
Wobei sind deine drei letzten Radeons gestorben? Meine beiden 260er hatten unterschiedliche Fehler und wurden von mir nicht übertacktet (getacktet nennt sich das ja jetzt). Die Karten heute bekommen meiner Meinung nach keine Endkontrolle mehr und man hat halt Glück oder Pech mit dem was man kauft.
Mir ist keine gestorben. Meine letzte 4890 Vapor-X ging nur wegen sporadischer Artefakte zurück an den Hersteller. Da hatte wohl der DRAM ne Macke.

y33H@
2009-08-24, 10:19:42
wie der drehende Fellwürfel des FURMurks!Der Furmark zeigt einen Donut, das ATi Tool einen Würfel :rolleyes:

Schlammsau
2009-08-24, 10:46:19
Der Furmark zeigt einen Donut, das ATi Tool einen Würfel :rolleyes:
Stimmt! :tongue: