PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 800.000 DX11-Radeons ausgeliefert, laut AMD am 02.06.10 jetzt 11Mio/14.10.10 25 Mio.


Seiten : [1] 2

mapel110
2009-12-14, 22:36:16
http://www.xbitlabs.com/news/video/display/20091214130653_Over_800_Thousand_of_DirectX_11_Graphics_Chips_Shipped_ATI.html
Sagt zumindest ATI.

iirc hat sich selbst G80 nicht so gut verkauft. Aber okay, da wars ja auch nur High End und keine Mid Range Chips.

/edit
The company said that so far it has shipped over 500 thousand ATI Radeon HD 5700-series graphics processing units code-named Juniper and over 300 thousand graphics chips known as Cypress

reunion
2009-12-14, 22:41:59
Und die Durchkaufsrate zumindest der Cypress-Chips liegt wohl annähernd bei 100%.

LovesuckZ
2009-12-14, 22:43:43
Schöne PR Meldung vor Weihnachten. Da will man wohl den Aktienkurs noch schnell nach oben bringen. Hat die Zahl 800.000 überhaupt einen symbolischen Wert?

/edit: G80 war wesentlich teurer als Cypress: 450€ bzw. 550€ am Anfang. Trotzdem gab es in diesem Forum nach 3 Monaten mehr G80 Besitzer als Juniper und Cypress User.

Gast
2009-12-14, 22:46:02
Aber nicht an mich. :<

ShadowXX
2009-12-14, 22:51:26
The company said that so far it has shipped over 500 thousand ATI Radeon HD 5700-series graphics processing units code-named Juniper and over 300 thousand graphics chips known as Cypress
Ich schätze mal ganz stark das bei den Zahlen auch schon die Verkäufe mit drinne sind, die zwar auf dem Papier verkauft sind, aber noch nicht produziert und geliefert.

Denn wenn Sie wirklich schon 300.000 5800-Karten verkauft hätten, dann hätte es nie eine Knappheit bei denen gegeben (bzw. tote Hose, wie momentan immer noch).

reunion
2009-12-14, 22:53:19
Shipped ist eindeutig. Das man mehr verkaufen hätte können wenn es mehr Karten gäbe ist aber auch klar. Und 300.000 Cypress Karten weltweit empfinde ich nicht als viel, gerade wenn man alleine auf dem Markt ist. Man muss halt auch sehen das Europa nicht das Zentrum der Welt ist und hier andere Kontinente ganz klar besser beliefert wurden. Bei Newegg zB waren fast immer mehrere 5870-Karte lieferbar.

Schöne PR Meldung vor Weihnachten. Da will man wohl den Aktienkurs noch schnell nach oben bringen. Hat die Zahl 800.000 überhaupt einen symbolischen Wert?

Der Kurs hat sich in den letzten sechs Wochen verdoppelt, es beginnt also langsam zu laufen. Aber AMD ist immer noch stark unterbewertet IMO, deshalb werde ich da auch weiter zuschießen.


/edit: G80 war wesentlich teurer als Cypress: 450€ bzw. 550€ am Anfang. Trotzdem gab es in diesem Forum nach 3 Monaten mehr G80 Besitzer als Juniper und Cypress User.

Das hast du natürlich nachgezählt nehme ich an?

Sorkalm
2009-12-14, 22:55:19
Ich schätze mal ganz stark das bei den Zahlen auch schon die Verkäufe mit drinne sind, die zwar auf dem Papier verkauft sind, aber noch nicht produziert und geliefert.

Shipped ist aber ziemlich eindeutig definiert mit ausgeliefert, daher die Modelle haben die Lager bei AMD verlassen. Die können noch irgendwo in der Weltgeschichte gondeln (auf nem Frachter, bei einem Grafikkartenhersteller, bei einem Händler - na OK, das bei der HD 5800 eher nicht :freak: ) - aber sie sind nach AMDs Pressemittelung eben nicht mehr bei AMD.

Das Verhältnis (>300.000 Cypress, >500.000 Juniper) erstaunt mich. Hätte bei den Lagerbeständen an 5800er-Karten weit nicht soviel Cypress erwartet, denn die 5700er sind ja akzeptabel verfügbar...

mictasm
2009-12-15, 01:55:01
Wer spricht denn da von Karten? Ihr interpretiert schon wieder und verknüpft eure Wunschträume oder das Gegenteil...

Soll ich auch mal? ATI/AMD schiebt den Schwarzen Lieferbarkeits-Peter zu den Kartenherstellern...

Ronny145
2009-12-15, 02:04:37
Wer spricht denn da von Karten? Ihr interpretiert schon wieder und verknüpft eure Wunschträume oder das Gegenteil...

Soll ich auch mal? ATI/AMD schiebt den Schwarzen Lieferbarkeits-Peter zu den Kartenherstellern...


Wenn 800.000 Chips verschickt wurden, dann sind die danach zu Kartenherstellern gelangt und wurden verbaut. Das Problem ist doch der Chip bzw. die schlechte Yield Rate vom TSMC und nicht die Board Hersteller, das sollte doch wohl das allerkleinste Übel sein. Von daher kann ich nicht erkennen, wo AMD den schwarzen Peter den Kartenherstellern zukommen lässt. Und 800.000 für den gesamten Weltmarkt hört sich für mich jetzt nicht so viel an.

mapel110
2009-12-15, 02:13:03
Die Yields sollen auch nicht das Problem sein, sondern die Kapazität von 40nm bei TSMC. Also wirds auch weiterhin nichts mit großer Verfügbarkeit in den nächsten Wochen.

tombman
2009-12-15, 02:51:55
300k Cypress- lächerlich...

Gast
2009-12-15, 10:48:09
du bist nicht mehr der schnellste

reunion
2009-12-15, 10:59:22
300k Cypress- lächerlich...

Besser als null.

kmf
2009-12-15, 11:11:26
Das ist annähernd null. :D

reunion
2009-12-15, 11:14:55
Na dann warte mal ab bis wir von 300K Fermi sprechen können. :D
Das ist weit mehr als ich angesichts der Liefersituation erwartet hätte. Grafikkarten >$300 verkaufen sich ja nicht wie Brötchen.

LovesuckZ
2009-12-15, 11:35:16
Das Verhältnis (>300.000 Cypress, >500.000 Juniper) erstaunt mich. Hätte bei den Lagerbeständen an 5800er-Karten weit nicht soviel Cypress erwartet, denn die 5700er sind ja akzeptabel verfügbar...

Das heißt dann: Juniper ist ein totaler Flop. Anders lässt es sich nicht erklären, wie die Verfügbarkeit von Juniper um mehr als den Faktor 1,66 besser ist als bei Cypress.

reunion
2009-12-15, 11:40:04
Das heißt dann: Juniper ist ein totaler Flop. Anders lässt es sich nicht erklären, wie die Verfügbarkeit von Juniper um mehr als den Faktor 1,66 besser ist als bei Cypress.

Würde es sich um NV-Karten handeln würdest du ungefähr das schreiben:

Das heißt dann: Cypress ist ein riesen Erfolg. Anders lässt es sich nicht erklären, wie die Verfügbarkeit von Juniper um mehr als den Faktor 1,66 besser ist als bei Cypress.

Das Glas ist eben entweder halbvoll oder halbleer. :)

Spasstiger
2009-12-15, 11:52:40
Die Yields sollen auch nicht das Problem sein, sondern die Kapazität von 40nm bei TSMC. Also wirds auch weiterhin nichts mit großer Verfügbarkeit in den nächsten Wochen.
Yield und Kapazität hängen direkt miteinander zusammen. Wenn die Yields besser wären, hätte TSMC auch mehr Kapazitäten.

Tarkin
2009-12-15, 11:54:24
~1Mio Stück bis Ende 2009 ein Flop (3 Monate und eine Woche)? - *hüstl* geht's noch?

das einzige was ich zum Thema G80 gefunden habe:

http://archives.devshed.com/forums/showpost.php?p=6734417&postcount=3

"The nV partners have now shipped >500,000 8800-series graphics cards."

das war Ende März 2007 - also fast FÜNF Monate nach dem Launch der ersten G80.

Tja :rolleyes:

(hätte mich auch gewundert, wenn die "grünen" hier NICHT versuchen würden die Meldung schlecht zu reden!)

Eggcake
2009-12-15, 12:06:11
8800-Series würde ich eher mit 5800-Series verbinden. Von daher...
Oder welche Karten waren bis dahin erhältlich?!

Aber den Erfolg der 8800er Serie dürfte auch schwer zu überbieten sein. Möglich ist's aber nach wie vor, wenn sie bisl Gas geben ;)

Gast
2009-12-15, 12:16:23
Naja, dann hat Ati in 3 Monaten 300k Cypress verkauft, und Nvidia in damals in 5 Monaten 500k 8800er. Kommt also auf das gleiche raus. Die Gewinnspanne war damals für Nvidia allerdings etwas höher, dafür braucht Ati nicht so lange wie Nvidia damals um die Mainstream-Ableger herauszubringen.

Jetzt mal von den Verkauften Stückzahlen abgesehen, wird Ati am Ende für mehrere Monate die schnellsten Produkte auf dem Markt gehabt haben. So etwas bleibt in den Köpfen hängen und ist vielleicht noch wichtiger, als der bis jetzt erzielte Gewinn.

Simon Moon
2009-12-15, 12:51:40
Naja, dann hat Ati in 3 Monaten 300k Cypress verkauft, und Nvidia in damals in 5 Monaten 500k 8800er. Kommt also auf das gleiche raus. Die Gewinnspanne war damals für Nvidia allerdings etwas höher, dafür braucht Ati nicht so lange wie Nvidia damals um die Mainstream-Ableger herauszubringen.


Zudem war die allgemeine Kauflust noch etwas besser, da von der Wirtschaftskrise noch nicht soviel zu spüren und lesen war.

Naja, die Zahlen liegen im Rahmen und um die Bedeutung abschätzen zu können, müsste man wohl in der Branche arbeiten. Die Worte einiger hier wären doch genau gleich ausgefallen, wenn es nun 500'000 oder 1'100'000 genannt worden wären.

Philipus II
2009-12-15, 13:07:19
Ja, AMD tut die aktuelle Lage im Grafikkartenmerkt mal richtig gut, so neben bei schöne Absätzezu lukrativen Preisen.
Naja, mal hat der, mal der andere die Nase 5 Monate vorne. Aktuell ists halt AMD/ATI.
Wenn die HD 5850/70besser verfügbar wäre, hätte man wohl auch meh verkaufne können. Aber besser 800k Stück zu interessanten Preisen als 0. Mitnehmen was geht, das ist da einfach das Motto.
Im Verhältnis zur Nachfrage sinds aber wohl noch relativ wenig, man hätte wohl auch 1,2 mio. losgebracht. Aber was man nicht hat, kann man nicht verkaufen...

Ronny145
2009-12-15, 13:19:40
Das heißt dann: Juniper ist ein totaler Flop. Anders lässt es sich nicht erklären, wie die Verfügbarkeit von Juniper um mehr als den Faktor 1,66 besser ist als bei Cypress.


Juniper kam später auf den Markt und auch dort sieht die Lieferbarkeit nicht toll aus. Zeitweise musste man 160€ oder mehr hinblättern, um eine zu bekommen. Wenn es die Karte wirklich gut lieferbar geben würde für 130-140€, sähe das Verhältnis bestimmt anders aus.

LovesuckZ
2009-12-15, 13:26:44
Juniper kam später auf den Markt und auch dort sieht die Lieferbarkeit nicht toll aus. Zeitweise musste man 160€ oder mehr hinblättern, um eine zu bekommen. Wenn es die Karte wirklich gut lieferbar geben würde für 130-140€, sähe das Verhältnis bestimmt anders aus.

Juniper kam 3 Wochen später und war nie so schlecht vrfügbar wie Cypress. Stand heute sieht es bei Geizhals so aus: 29 lagernde Einträge von Herstellern (http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=&v=l&plz=&dist=&pixonoff=on&xf=891_Radeon+HD+5750~132_512~891_Radeon+HD+5770). Und hier der Vergleich mit Cypress und Hemlock: 11 lagernde Einträge von Herstellern (http://geizhals.at/deutschland/?cat=gra16_512&v=l&plz=&dist=&xf=891_Radeon%20HD%205850~891_Radeon%20HD%205870~132_512~891_Radeon%20HD%205970&sort=p) - und das auch nur, weil der Preis gegenüber der UVP bei den 5850 und 5870 Karten fast 100€ höher liegt. Wenn wir also annehmen, dass die Zahlen stimmen, die AMD genannt hat, dann ist Juniper ein Flop. Der Einstieg bei Juniper liegt auf 1/3 Kurs von Cypress und trotzdem ist Juniper flächendeckend zum UVP und darunter verfügbar.

_DrillSarge]I[
2009-12-15, 13:34:34
Das heißt dann: Juniper ist ein totaler Flop. Anders lässt es sich nicht erklären, wie die Verfügbarkeit von Juniper um mehr als den Faktor 1,66 besser ist als bei Cypress.
du gönnst ati auch keinen einzigen zentimeter auf dem schlachtfeld, was? :rolleyes: :ulol:

reunion
2009-12-15, 13:36:27
Wenn wir also annehmen, dass die Zahlen stimmen, die AMD genannt hat, dann ist Juniper ein Flop.

Weil sich Cypress so gut verkauft ist Juniper ein Flop? Du bist wirklich ein Clown.

AnarchX
2009-12-15, 13:37:40
Im Retail ist das Leistungssegment, was Juniper besetzt, doch schon lange Zeit stark besetzt, sodass es hier wohl eine verringerte Zahl an Upgrade-Willigen gibt bzw. dieser eher in Richtung einer HD 5800 schauen bzw. Fermi abwarten.
In OEM-System hingegen könnte Juniper wohl doch mehr Erfolg haben.

Ronny145
2009-12-15, 13:38:10
Juniper kam 3 Wochen später und war nie so schlecht vrfügbar wie Cypress. Stand heute sieht es bei Geizhals so aus: 29 lagernde Einträge von Herstellern (http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=&v=l&plz=&dist=&pixonoff=on&xf=891_Radeon+HD+5750~132_512~891_Radeon+HD+5770). Und hier der Vergleich mit Cypress und Hemlock: 11 lagernde Einträge von Herstellern (http://geizhals.at/deutschland/?cat=gra16_512&v=l&plz=&dist=&xf=891_Radeon%20HD%205850~891_Radeon%20HD%205870~132_512~891_Radeon%20HD%205970&sort=p) - und das auch nur, weil der Preis gegenüber der UVP bei den 5850 und 5870 Karten fast 100€ höher liegt. Wenn wir also annehmen, dass die Zahlen stimmen, die AMD genannt hat, dann ist Juniper ein Flop. Der Einstieg bei Juniper liegt auf 1/3 Kurs von Cypress und trotzdem ist Juniper flächendeckend zum UVP und darunter verfügbar.


Ja, weil preislich ältere Serien mehr fps bieten. Die Verfügbarkeit hat sich in den letzten Tagen/Wochen schon deutlich gebessert. Die 5770 war teilweise so gut wie nicht verfügbar bzw. zu Mondspreisen. Da gab es zeitweise unter 150€ quasi keine Karte. Seit dem es die neuen Kühler gibt für die 5770, siehts besser aus. Und 3 Wochen sind bei einer Zeitspanne von ~10-11 Wochen auch nicht unerheblich.

LovesuckZ
2009-12-15, 13:40:27
I[;7717832']du gönnst ati auch keinen einzigen zentimeter auf dem schlachtfeld, was? :rolleyes: :ulol:

Huh? AMD ist es doch egal, die bekommen ihr Geld von den AIBs. :)
Es sind jedoch AMD's Zahlen und nach diesen Zahlen scheint der Endkunde kein Interesse an Junpier zu zeigen. Das wiederum ist nicht meine schuld. ;)

Tarkin
2009-12-15, 13:58:15
Naja, dann hat Ati in 3 Monaten 300k Cypress verkauft, und Nvidia in damals in 5 Monaten 500k 8800er. Kommt also auf das gleiche raus. Die Gewinnspanne war damals für Nvidia allerdings etwas höher

Glaubst Du..

G80 war/ist wesentlich größer als RV870.

"480 mm² die surface area built on a 90 nm process" mit einem realativ komplexen PCB (384bit Bus).... gegen 330mm^2 mit 256Bit Bus.

Der Preis war zwar wesentlich höher (599 statt 399 USD SRP), im Endeffekt dürfte sich das aber ziemlich ausgleichen.

N0Thing
2009-12-15, 14:33:24
Huh? AMD ist es doch egal, die bekommen ihr Geld von den AIBs. :)
Es sind jedoch AMD's Zahlen und nach diesen Zahlen scheint der Endkunde kein Interesse an Junpier zu zeigen. Das wiederum ist nicht meine schuld. ;)

Warum bedeuten 500.000 verkaufte Einheiten für dich kein Interesse? Ich sehe in dieser Aussage keinerlei Sinn, es sei denn, du willst nur provozieren.

LovesuckZ
2009-12-15, 14:37:51
Warum bedeuten 500.000 verkaufte Einheiten für dich kein Interesse? Ich sehe in dieser Aussage keinerlei Sinn, es sei denn, du willst nur provozieren.

Lern Lesen und schreib dich nicht ab. :)
Und das ist ernst gemeint!

N0Thing
2009-12-15, 14:48:04
Lern Lesen und schreib dich nicht ab. :)
Und das ist ernst gemeint!

Spar dir doch den Spruch und mach deutlich was du statt dessen aussagen wolltest. Immerhin hast du geschrieben, wie ich zitiert habe, daß du aus den Zahlen von AMD heraus liest, daß der Endkunde kein Interesse an Juniper zu zeigen scheint. Und da frage ich dich, warum du zu dieser Meinung kommst.

Mich juckt es zwar in den Fingern dir deine Arroganz vor zu halten, aber ich hoffe da einfach auf die Moderatoren. :)

Zockerfrettchen
2009-12-15, 14:49:46
Was zur Hölle schreibst du da bitte zusammen? Von mir aus ist die Nachfrage an Cypress nicht so hoch, aber Juniper verkauft sich doch gut. Wäre nett wenn du deine Ansichten auch mal erörten würdest, vielleicht kann ich dann auch diese nachvollziehen.
Mfg Zockerfrettchen

AnarchX
2009-12-15, 14:55:58
Wer die persönlichen Angriffe nicht unterlassen kann, muss mit Konsequenzen rechnen.

LovesuckZ
2009-12-15, 15:01:08
Spar dir doch den Spruch und mach deutlich was du statt dessen aussagen wolltest. Immerhin hast du geschrieben, wie ich zitiert habe, daß du aus den Zahlen von AMD heraus liest, daß der Endkunde kein Interesse an Juniper zu zeigen scheint. Und da frage ich dich, warum du zu dieser Meinung kommst.

Das steht hier: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7717815&postcount=25
Die Zahlen von AMD im Ausgangspunkt.
Wie ein Markt funktioniert und wie er aufgebaut ist, findest du per Google-Suche.

DrFreaK666
2009-12-15, 15:19:38
Juniper ist für die gebotene leistung auch viel zu teuer.
Wer von ner 9600GT aurüsten will holt sich für den Preis eher eine GTX260 oder 4870/4890.
Der Preis der 5850 stimmt eher (5850: ab 300€ (verfügbar) / GTX285: ab 292€ (verfügbar))

Relic
2009-12-15, 15:31:05
ich hab von einer 3850 auf eine 5770 für 122€ aufgerüstet und bin sehr zufrieden. Also denke nicht das er für die gebotene Leistung zu teuer ist.

DrFreaK666
2009-12-15, 15:37:45
ich hab von einer 3850 auf eine 5770 für 122€ aufgerüstet und bin sehr zufrieden. Also denke nicht das er für die gebotene Leistung zu teuer ist.

Die 5770 ist langsamer als eine 4890/GTX260, deshalb sollte sie imho auch günstiger angeboten werden

reunion
2009-12-15, 15:39:46
Die 5770 ist langsamer als eine 4890/GTX260, deshalb sollte sie imho auch günstiger angeboten werden

Es gibt eben auch andere Kriterien wie fps. Ich empfinde den Preis nicht als überzogen.

pest
2009-12-15, 15:40:19
geringerer Stromverbrauch und höherer Techlevel rechtfertigen den etwas höheren Preis imo

StefanV
2009-12-15, 15:41:50
Es gibt eben auch andere Kriterien wie fps. Ich empfinde den Preis nicht als überzogen.
Nee, er hat schon recht.

Juniper ist einfach zu teuer, 150€ wäre absolutes maximum für die 5770, find ich.
Momentan gibts die aber nur für 170€ und mehr.

Botcruscher
2009-12-15, 15:43:28
Und sobald DX1-Unterstützung vorliegt war es das auch wieder mit dem Geschwindigkeitsvorsprung der alten Generation. Der Preis ist schon ok nur wollten die Händler zu viel Deppenaufschlag aufgrund der bescheidenen Liefersituation.


Juniper ist einfach zu teuer, 150€ wäre absolutes maximum für die 5770

Ist doch ab 131€ lieferbar. http://geizhals.at/deutschland/a486333.html

Nach Weihnachten hat sich eh das Preisziel von 120 bis 150€ eingependelt.

http://geizhals.at/deutschland/a487196.html

135 mit Vapor X.

Ronny145
2009-12-15, 15:43:52
Nee, er hat schon recht.

Juniper ist einfach zu teuer, 150€ wäre absolutes maximum für die 5770, find ich.
Momentan gibts die aber nur für 170€ und mehr.


Bei geizhals fängt Juniper ab 110€ an. Aber du meinst wohl die 5770. Aber auch da sehe ich Karten ab 130€. Wie kommst du auf 170€?

Und sobald DX1-Unterstützung vorliegt war es das auch wieder mit dem Geschwindigkeitsvorsprung der alten Generation. Der Preis ist schon ok nur wollten die Händler zu viel Deppenaufschlag aufgrund der bescheidenen Liefersituation.


Also ich will die DX11 Grafik in Dirt 2 nicht mehr missen. DX9 sieht deutlich vermatschter aus.

DrFreaK666
2009-12-15, 15:44:25
Es gibt eben auch andere Kriterien wie fps. Ich empfinde den Preis nicht als überzogen.

Für DX11 ist sie imho zu langsam.
SGSSAA geht flüssig auch nur bei älteren Titeln.
Die GTX260 bietet das bessere AF

Imho wären 100€ gerechtfertigt

reunion
2009-12-15, 15:45:16
Nee, er hat schon recht.

Juniper ist einfach zu teuer, 150€ wäre absolutes maximum für die 5770, find ich.
Momentan gibts die aber nur für 170€ und mehr.

170€?
http://geizhals.at/eu/?cat=gra16_512&sort=p&bpmax=&asuch=&v=l&plz=&dist=&pixonoff=on&xf=891_Radeon+HD+5770

Ronny145
2009-12-15, 15:47:12
Für DX11 ist sie imho zu langsam.
SGSSAA geht flüssig auch nur bei älteren Titeln.
Die GTX260 bietet das bessere AF

Imho wären 100€ gerechtfertigt


Hmm also ich finds gut das ich meine Spiele (Far Cry, Oblivion, HL2, GP4, GTR2, Ski Challenge 2010) mit 4xSSAA aufwerten kann. In meiner Auflösung ist das spielbar.

Gast
2009-12-15, 15:47:25
800.000 klingt gar nicht schlecht. Ehrlich gesagt hätte ich nach der Wirtschaftskrise auch nicht mit mehr gerechnet eher mit weniger. Ein weiterer grund der dafür spricht, das AMD sich mit den Absatzprognosen und damit bestellten Waferstarts wohl doch etwas verschätzt hatte. Sicher haben mangelnde Konkurrenz, TSMCs unfähigkeit und der sich überraschend doch schneller erholende Markt etwas zur Verfügbarkeitskrise beigetragen, aber ich glaube weiterhin das AMD da nicht ganz unschuldig ist, zumal man sich mit einer angeschlagenen Mutterfirma im Rücken sowieso keine risikobehafteten Überbestellungen leisten kann.



Es sind jedoch AMD's Zahlen und nach diesen Zahlen scheint der Endkunde kein Interesse an Junpier zu zeigen. Das wiederum ist nicht meine schuld. ;)
Du meinst also das AMD im midrangebereich wenig verkauft? Na dann sag mir doch mal zur Abwechslung welche Karten stattdessen derzeit im Midrangebereich am meisten abgesetzt werden, wo du doch implizierst dass der Markt dort so riesig sei (wobei du dich mangels handfester informationen ja sogar weigerst das so direkt auszudrücken und stattdessen spitzfindig drum herum formulierst).
Das steht hier: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7717815&postcount=25
Die Zahlen von AMD im Ausgangspunkt.
Wie ein Markt funktioniert und wie er aufgebaut ist, findest du per Google-Suche.
Cypress ist auch eine performancelösung, erst redwood ist das highend. Demnach musst du zumindest die 5850 noch zu diesem Feld hinzuzählen. Und genau da siehst du dann was in diesem wichtigen midrangemarktsegment die Konkurrenz ist: Der GT200b also GTX260, 275 und 285, die sind nunmehr leider nurnoch midrange. Der gt200b ist von nv schon lange nicht mehr lieferbar und wird nicht mehr verkauft, das einzige was derzeit im midrangebereich von nv ausgeliefert wird sind begrenzte Mengen g92b, ansonsten konzentriert man sich auf lowend 40nm chips und das notebooksegment. Du willst mir doch nicht weis machen dass der g92b derzeit gegenüber juniper das rennen macht?

Relic
2009-12-15, 15:48:21
Die 5770 ist langsamer als eine 4890/GTX260, deshalb sollte sie imho auch günstiger angeboten werden
dafür hat sie DX11 und verbraucht weniger Strom, bietet SSAA und hat Eyefinity... wenn du natürlich nur reine Geschwindigkeit als Kaufkriterium siehst magst du recht haben...
DX11 ist z.B. in DIRT 2 sehr gut nutzbar und SSAA will ich in alten spielen nicht missen.

reunion
2009-12-15, 15:49:20
Für DX11 ist sie imho zu langsam.

Das geht gar nicht. Im schlimmsten Fall läuft es genau so schnell. Battleforg und Stalker werden durch Dx11 deutlich beschleunigt. Zu langsam kann sie höchstens für manche zusätzlichen Effekte sein. Aber das ist ein Äpfel/Birne-Vergleich.


SGSSAA geht flüssig auch nur bei älteren Titeln.
Die GTX260 bietet das bessere AF

Imho wären 100€ gerechtfertigt

Die Leistung/Watt ist konkurrenzlos, da können die alten Karten bei weitem nicht mithalten. DX11 bekommt man auch nicht umsonst und ein neues, begrenzt lieferbares Produkt ist immer teurer.

Gast
2009-12-15, 15:52:01
5770
119,90€

http://www.pixmania.com/de/de/4129647/art/pixmania/radeon-hd-5770-1-gb-gddr5.html?srcid=47&Partenaire=geizhals&CodePromo=oui

DrFreaK666
2009-12-15, 15:53:59
Das geht gar nicht. Im schlimmsten Fall läuft es genau so schnell. Battleforg und Stalker werden durch Dx11 deutlich beschleunigt. Zu langsam kann sie höchstens für manche zusätzlichen Effekte sein. Aber das ist ein Äpfel/Birne-Vergleich.



Die Leistung/Watt ist konkurrenzlos, da können die alten Karten bei weitem nicht mithalten. DX11 bekommt man auch nicht umsonst und ein neues, begrenzt lieferbares Produkt ist immer teurer.

zu 1. Ich meine natürlich die zusätzlichen Effekte.
Der Heaven-Benchmark dürfte mit Tesselation ganz schön ruckeln.

zu 2. begrenzt lieferbar??
http://geizhals.at/deutschland/?cat=gra16_512&sort=artikel&bpmax=&asuch=5770&v=l&plz=&dist=&pixonoff=on&xf=

Botcruscher
2009-12-15, 15:54:36
5770
119,90€
http://www.pixmania.com/de/de/4129647/art/pixmania/radeon-hd-5770-1-gb-gddr5.html?srcid=47&Partenaire=geizhals&CodePromo=oui

Imo geht es mit den Weihnachtsangeboten erst so richtig los.

Gast
2009-12-15, 16:05:30
Alleine die Asus 5770 ist bei 17 Händlern zwischen 131€ und 159€ auf Lager und sofort lieferbar. Bei den anderen Hersteller sieht es nicht viel anders aus.
Ich denke nicht dass es bei Juniper noch irgendwelche verfügbarkeitsprobleme gibt und die Preise sind auch nicht unnatürlich, sondern genau da wo sie sein sollten.
Für den Preis einer 4870 oder GTX260 bekommt man eine DX11 Karte die halbsoviel Strom verbrät, einen leisen Kühler besitzt und viele neue features hat (eyefinity, RGSSAA) und im durchschnitt nur etwa 10% langsamer ist als das highend der letzten Generation.
Was kann man im midrange mehr erwarten?

DrFreaK666
2009-12-15, 16:08:22
Alleine die Asus 5770 ist bei 17 Händlern zwischen 131€ und 159€ auf Lager und sofort lieferbar. Bei den anderen Hersteller sieht es nicht viel anders aus.
Ich denke nicht dass es bei Juniper noch irgendwelche verfügbarkeitsprobleme gibt und die Preise sind auch nicht unnatürlich, sondern genau da wo sie sein sollten.
Für den Preis einer 4870 oder GTX260 bekommt man eine DX11 Karte die halbsoviel Strom verbrät, einen leisen Kühler besitzt und viele neue features hat (eyefinity, RGSSAA) und im durchschnitt nur etwa 10% langsamer ist als das highend der letzten Generation.
Was kann man im midrange mehr erwarten?

Ist es normal, dass neue Midrange-Karten langsamer sind als alte Midrange?
eyefinity braucht (fast) kein Mensch.
Was bleibt ist DX11 zur Geschwindigkeitssteigerung und RGSSAA für alte Games

AnarchX
2009-12-15, 16:18:07
Ist es normal, dass neue Midrange-Karten langsamer sind als alte Midrange?
GTX260/HD4890 sind preisgesenkte High-End bzw. Performance-Karten.
Und dafür, dass man ein doch etwas aufwendigeres Upgrade des Featuresets mitbringt, sehen die HD5700 doch nicht so schlecht aus, an GF8600/HD2600 hat man gesehen, dass das auch weit schlimmer hätte aussehen können.

Relic
2009-12-15, 16:18:29
Ist es normal, dass neue Midrange-Karten langsamer sind als alte Midrange?
eyefinity braucht (fast) kein Mensch.
Was bleibt ist DX11 zur Geschwindigkeitssteigerung und RGSSAA für alte Games
Stromverbrauch? bei nutzung von 6h idle und 2h Games pro tag sind das ca.30€ im Jahr weniger als eine 4870...

DrFreaK666
2009-12-15, 16:24:28
Stromverbrauch? bei nutzung von 6h idle und 2h Games pro tag sind das ca.30€ im Jahr weniger als eine 4870...

Punkt für dich.
Aber um ehrlich zu sein schauen die Wenigsten darauf sonder auf Balkenlänge

Eggcake
2009-12-15, 17:05:01
Also in der CH ist es leicht anders:

In meinem "Stammshop" kriegt man die 5770 ab 200CHF, eine 4890 kostet jedoch knapp 240CHF. Von daher finde ich den Preis schon okay.

Dirt2 ist afaik ganz gut spielbar in DX11 mit der 5770, auch mit guten Settings:
http://www.guru3d.com/article/colin-mcrae-dirt-2-vga-graphics-performance-review/8

Mit 8xAA wohlgemerkt.

N0Thing
2009-12-15, 17:34:18
Das steht hier: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7717815&postcount=25
Die Zahlen von AMD im Ausgangspunkt.
Wie ein Markt funktioniert und wie er aufgebaut ist, findest du per Google-Suche.

Also um es auf den Punkt zu bringen: Eine neue Kartengeneration kommt auf den Markt, deren kleinerer Ableger einen höheren Techlevel und weniger Stromverbrauch bietet, als die etwas schnellere, ältere Generation. Allerdings kostet die neue Generation immer noch mehr, als die alte, wer also nur nach den FPS geht, greift zur älteren Generation. So funktioniert der Markt, er regelt sich über Angebot und Nachfrage (dafür brauchte ich nichtmal google, trotz deinem "netten" aber dennoch überflüssigen Hinweis) und für viele sind die HD5770 und HD5750 noch zu teuer, um sie einer HD48x0 vorzuziehen. Für die schnellste Grafikkarte am Markt wird eben eher ein deutlicher Aufpreis bezahlt, als für eine Reduzierung des Stromverbrauchs um dem Sprung von Dx10.1 auf Dx11.

Sich sehe aber darin keinerlei Anzeichen für einen Flop des Juniper. Sonst wäre ja jede Karte ein Flop, die lagernd verfügbar ist und vom Hersteller in größeren Mengen produziert wird.

Ronny145
2009-12-15, 17:54:57
Dirt2 ist afaik ganz gut spielbar in DX11 mit der 5770, auch mit guten Settings:
http://www.guru3d.com/article/colin-mcrae-dirt-2-vga-graphics-performance-review/8

Mit 8xAA wohlgemerkt.


1280x1024 mit maximalen Details und DX11 ist kein Problem. Ich habe für meine 5770 135€ bezahlt inklusive Dirt 2 Gutschein. Selbst wenn ich die GTX260 für 100€ bekommen hätte, wäre die 5770 immer noch die erste Wahl gewesen. Es bleibt immer ein Beigeschmack eine Karte mit altem Feature set zu kaufen. Wer wirklich nur nach fps kauft und Sachen wie Idle Verbrauch keine Beachtung schenkt, der hat dann natürlich andere/bessere Alternativen.

Gast
2009-12-15, 17:59:06
Zumal die HD 5770 nicht merklich langsamer ist als eine HD 4890. 16 % laut CB. In Crysis WH liefert sie bei 1680 x 1050 u. 1x AA / 1x AF 22,3 FPS, während eine HD 4890 25,9 FPS liefert. Nicht der Rede wert. Das wird sich mit neueren Treibern sogar noch positiver in Richtung HD 5770 verschieben. Dafür verbraucht sie schon im Idle-Modus 49 Watt weniger als eine HD 4890, unter Last sogar 54 Watt. DX11 unterstützt sie ebenfalls genau so wie SSAA und vollständig winkelunabhängiges AF.

Dural
2009-12-15, 18:56:48
vergleicht mal mit den G92 zahlen... ;)

also auch ich finde das verhältnis von 300k zu 500k sehr erstaunlich...

nagus
2009-12-15, 20:13:35
Die 5770 ist langsamer als eine 4890/GTX260, deshalb sollte sie imho auch günstiger angeboten werden

was ist mit DX11, eyefinity, weniger stromverbrauch etc...??? das ist den geringen mehrpreis auf alle fälle wert!

mapel110
2009-12-15, 20:15:12
Eyefinity und weniger Stromverbrauch schließt sich schon mal gegenseitig aus. :ugly:

nagus
2009-12-15, 20:15:36
Nee, er hat schon recht.

Juniper ist einfach zu teuer, 150€ wäre absolutes maximum für die 5770, find ich.
Momentan gibts die aber nur für 170€ und mehr.

ach ja? ab 124 euro aufwärts lagernd! (http://geizhals.at/eu/?cat=gra16_512&v=l&plz=&dist=&xf=132_1024~891_Radeon%20HD%205770&sort=p)

wieso wird hier so viel blödsinn verzapft?!?!!??

nagus
2009-12-15, 20:16:37
Eyefinity und weniger Stromverbrauch schließt sich schon mal gegenseitig aus. :ugly:

:facepalm:

man kann auch wirklich ALLES von der negativen seite sehen. gratuliere

nagus
2009-12-15, 20:22:32
Sich sehe aber darin keinerlei Anzeichen für einen Flop des Juniper. Sonst wäre ja jede Karte ein Flop, die lagernd verfügbar ist und vom Hersteller in größeren Mengen produziert wird.

die gabe sich einen angeblichen "flop" von juniper herbeizuaubern haben auch nur wenige - nvidiots hätte ich jetzt fast gesagt - ... wie z.b. unser lieber freund love... whatever

DrFreaK666
2009-12-15, 20:26:19
was ist mit DX11, eyefinity, weniger stromverbrauch etc...??? das ist den geringen mehrpreis auf alle fälle wert!

Wie oben schonmal erwähnt:
Eyefinity bracht fast niemand.
Wieviel 3DC-User mit ner HD5xxx nutzen es??

DX11 ist Pro

Kaum jemand schaut auf den Stromverbrauch

pest
2009-12-15, 20:59:29
ersetzte bitte man durch ich, dann stimmt es

nagus
2009-12-15, 20:59:34
Kaum jemand schaut auf den Stromverbrauch

... aber jeder regt sich auf wenns mal ein bisschen mehr wird. das ist wieder sowas von typisch.

DrFreaK666
2009-12-15, 21:01:38
ersetzte bitte man durch ich, dann stimmt es

Wo habe ich man geschrieben? :D
Ich wollte übrigens wegen SGSSAA auf eine Radeon HD5770 umsteigen, aber da diese langsamer ist als die GTX260 war ich nicht interessiert

pest
2009-12-15, 21:21:43
Wie oben schonmal erwähnt:
Eyefinity bracht fast niemand.
Wieviel 3DC-User mit ner HD5xxx nutzen es??

DX11 ist Pro

Kaum jemand schaut auf den Stromverbrauch

:P

darkvader
2009-12-15, 22:19:18
Wieviel 3DC-User mit ner HD5xxx nutzen es??


Ich

derguru
2009-12-15, 22:27:51
schade, amd hätte locker das doppelte verkaufen können wenn es nicht zu den problemen gekommen wäre.

naja,im januar und februar ist ja auch noch zeit zum verkaufen;)

DrFreaK666
2009-12-16, 05:50:21
:P

der war gut :up:

Ich

Wow, einer

darkvader
2009-12-16, 07:39:48
Wow, einer

Das muß man ja immer im Verhältniss sehen. Ich kann dazu sagen, das kurz nach dem Release der Karte bei mir die Suche nach einem Display Port Adapter losging, und nach einigem hin und her hab ich einen Niederländischen Shop gefunden, der mir sagte, das ich den letzten bekommen kann den er noch auf Lager hat, und das sein Bestand von 75 Stück innerhalb der letzten 5 Tage abverkauft war.
Auch Dell und Amazon waren kurz nach dem Launch nicht mehr in der Lage diese Adapter zu liefern. Insofern ist Eyefinity sicherlich verbreiteter als du denkst.

reunion
2009-12-16, 08:32:08
Das muß man ja immer im Verhältniss sehen. Ich kann dazu sagen, das kurz nach dem Release der Karte bei mir die Suche nach einem Display Port Adapter losging, und nach einigem hin und her hab ich einen Niederländischen Shop gefunden, der mir sagte, das ich den letzten bekommen kann den er noch auf Lager hat, und das sein Bestand von 75 Stück innerhalb der letzten 5 Tage abverkauft war.
Auch Dell und Amazon waren kurz nach dem Launch nicht mehr in der Lage diese Adapter zu liefern. Insofern ist Eyefinity sicherlich verbreiteter als du denkst.

Ja, da scheint es tatsächlich einen ganz schönen Fight um die wenigen DP-Adapter zu geben. Aber Sapphire hat vor kurzem einen solchen DP auf DVI-Adpater vorgestellt, der wohl auch bald in den Handel kommen sollte: http://geizhals.at/eu/a489848.html

darkvader
2009-12-16, 09:55:26
Ja, da scheint es tatsächlich einen ganz schönen Fight um die wenigen DP-Adapter zu geben. Aber Sapphire hat vor kurzem einen solchen DP auf DVI-Adpater vorgestellt, der wohl auch bald in den Handel kommen sollte: http://geizhals.at/eu/a489848.html

Lustigerweise ist das derselbe den alle anderen auch anbieten nur als Sapphire gebrandet. Es scheint wohl nur einen einzigen Produzenten zu geben von dem dann Dell, Sapphire oder auch Accell beziehen.

LovesuckZ
2009-12-26, 01:57:22
Sich sehe aber darin keinerlei Anzeichen für einen Flop des Juniper. Sonst wäre ja jede Karte ein Flop, die lagernd verfügbar ist und vom Hersteller in größeren Mengen produziert wird.

Wundert mich nicht - kommt ja von AMD.
Leider scheinst du entweder AMD's Zahlen nicht sehen oder aber nicht akzeptieren zu wollen. Daher nochmal für dich (komisch, dass man alles immer öfters in diesem Forum erklären muss...):
AMD gibt an, dass sie Juniper mit dem Faktor 1.66 öfters produziert haben als Cypress. Auf 10 Cypress Karten kamen also 16(,6) Junpier Karten.
Im deutschen eTailer Handel sieht die Verfügbarkeit dagegen folgend aus:
645 Listungen der 57xx stehen 96 Listungen der 58xx und 5970 gegenüber. Dabei ist bei Cypress sogar die Annormalität der XFX Karte mit eingerechnet. Ohne diese Ausnahme wären es gerade mal 48 Listungen (XFX jeweils als höhste andere Karte bewertet). Und vergessen sollte weiterhin nicht, dass Cypress immernoch über die unverbindliche Preisempfehlung verkauft wird. Das zeigt nochmal, dass die Nachfrage nicht annährend gedeckt werden kann.
Daraus ergibt sich ein Unterschied um den Faktor 6,7 bzw. 13,4 gegenüber Cypress und Hemlock. Schon erstaunlich, wo doch nach offiziellen Zahlen AMD gerade mal 1,66 mehr Junpier GPUs als Cypress produziert hätte. Bei selber Nachfragemenge bleibt immernoch ein Faktor von 4 bzw. 8 übrig. Wie soll ein Unterschied nur entstehen kann?
Wenn du also meinst, dass Juniper kein Endkundenflop sei, dann müssten die Zahlen falsch sein. Oder aber der deutsche Einzelhandel bekam im Verhältnis wesentlich mehr Juniper als Cypress GPUs. Such dir also deine Option, denn Option a hast du ja schon verworfen. :rolleyes:

StefanV
2009-12-26, 02:05:38
Liegt wohl daran, das Juniper meist in den OEM Markt wandert während die Cypress mehr im Endkunden (bzw Nachrüst) Markt gefragt ist.

reunion
2009-12-26, 09:02:52
Leider scheinst du entweder AMD's Zahlen nicht sehen oder aber nicht akzeptieren zu wollen. Daher nochmal für dich (komisch, dass man alles immer öfters in diesem Forum erklären muss...):


Das liegt daran das du wie so oft wirre Zeug daher redest das keinen Sinn ergibt. Schon die Kausalitätskette größere Nachfrage nach Cypress -> Juniper = Flop ist Blödsinn. Aber im Endeffekt wird es ohnehin ganz einfach daran liegen das zum Zeitpunkt der Meldung zwar schon viele Cypress-Chips verkauft wurde, aber noch kaum welche im Handel waren. Noch im November sagte Dave Baumann AFAIK zu PCGH das man unter 100K Cypress-Chips liegt. Mitte Dezember kam jetzt die Meldung mit den 300K. Bis das die Chips auf der Platine verlötet werden und in den Handel kommen vergeht eben auch noch einige Zeit, AMD liefert nur die Chips. Man kann also davon ausgehen - und das sieht man ja auch jetzt schon - das die Liefermenge in den nächsten Wochen deutlich zunimmt und somit auch dein blödsinniger Vergleich nicht mehr funktioniert. Die wohl per Luftpost verschickten XFX-Karten machen den Anfang.

Schlammsau
2009-12-26, 12:42:16
bla bla blubb

Ich finds immer wieder erstaunlich wie du immer und immer wieder was findest, um ATi schlecht zu machen. Selbst bei dieser grandiosen HD5000 Serie, die sich blendend verkauft, gönnst du den Entwicklern nicht einen einzigen Cent.

Man möchte fast meinen ATi hätte dir persönlich, dein Leben versaut und du möchtest dich dafür rächen.

Erzähl uns von deinen persönlichen Problemen mit ATi.....ich denke ich spreche hier für alle, dass wir gemeinsam eine Lösung für deine Probleme finden können. Du musst uns nur mehr von dir Erzählen. Vielleicht hattest du mal ein traumatisches Erlebniss in Markham/Canada!?

Kosh
2009-12-26, 12:57:10
Warum schreibt LovesuckZ eigentlich immer so viel?? Reicht doch,wenn er einfach nur schreibt:

ATI ist der größte Scheiss der Welt.
NVIDIA der heilige Gral.Preiset NVIDIA.

Die 2 Sätze soll er einfach immer mit Past and Copy einfügen.

Spart ihm viel Zeit und jeder Beitrag von ihm lässt sich doch mit den 2 obigen Sätzen zusammenfassen.

Raff
2009-12-26, 13:52:11
Er tut das, um der Phalanx von Ati-Fanboys als One-Man-Army entgegen zu wirken. Quasi ABM. Klappt offensichtlich wunderbar. ;D

Disclaimer: Mir ist die Farbe des Herstellers Wurstsalat.

MfG,
Raff

Gast
2009-12-26, 14:53:56
Ich finds immer wieder erstaunlich wie du immer und immer wieder was findest, um ATi schlecht zu machen. Selbst bei dieser grandiosen HD5000 Serie, die sich blendend verkauft, gönnst du den Entwicklern nicht einen einzigen Cent.



Die HD 5000 muss erstmal lieferbar sein, damit sie sich blendend verkaufen kann.

Armaq
2009-12-26, 15:28:59
Er tut das, um der Phalanx von Ati-Fanboys als One-Man-Army entgegen zu wirken. Quasi ABM. Klappt offensichtlich wunderbar. ;D

Disclaimer: Mir ist die Farbe des Herstellers Wurstsalat.

MfG,
Raff
Das genau nach dem Satz? Völlig verfehlt.

Gast
2009-12-26, 15:57:35
Die HD 5000 muss erstmal lieferbar sein, damit sie sich blendend verkaufen kann.

Ja das müssen Dimensionrisse sein durch die die Karten zu den leuten fliegen.

Redneck
2009-12-26, 16:06:37
Er tut das, um der Phalanx von Ati-Fanboys als One-Man-Army entgegen zu wirken. Quasi ABM. Klappt offensichtlich wunderbar. ;D

Disclaimer: Mir ist die Farbe des Herstellers Wurstsalat.

MfG,
Raff
:freak:

das klappt wahrscheinlich übertrieben gesagt so gut ,das er damit noch etliche andere NV Besitzer ins Ati Lager treibt , die nicht mehr mit LS im NV Boot mitschippern wollen. Sehr gut ... weiter so :biggrin:

Botcruscher
2009-12-26, 16:14:56
Er tut das, um der Phalanx von Ati-Fanboys als One-Man-Army entgegen zu wirken. Quasi ABM. Klappt offensichtlich wunderbar. ;D
Disclaimer: Mir ist die Farbe des Herstellers Wurstsalat.
MfG,
Raff

Nicht ganz, da geistert auch noch so ein Gast herum. Die neuste Leier sind die unerträglichen Treiber bei ATi. Er ist ja nicht schwer zu finden, da in jedem Topic mindestens gefühlte 5 mal vertreten.

reunion
2009-12-26, 16:16:22
Das genau nach dem Satz? Völlig verfehlt.

Das habe ich mir auch gedacht.

Gast
2009-12-26, 16:26:05
Also wirklich nach diesem und ähnlichen Threads wunder ich mich immer wieder wie ich mit AMD-Treibern und Grafikkarten überhaupt überleben kann. Totaler Freiheitsentzug und Inkompatibilität müssten mich schonlängst dahingerafft haben.;)

Raff
2009-12-26, 19:13:26
Das genau nach dem Satz? Völlig verfehlt.

Ich muss mich nicht rechtfertigen. Wer mich für Nvidia- oder Ati-biased hält, der liegt ganz einfach daneben. Das Bias entsteht beim Leser im Kopf. Und ich stichel einfach zu gern all diese Drohnen mit Fakten (von denen sie sich nicht berirren lassen). ;)

MfG,
Raff

Black-Scorpion
2009-12-26, 19:56:21
Sticheln ist auch kein Problem.
Nur stichelst du zu 99% nur in eine Richtung.
Wenn dir das selber nicht auffällt brauchst du dich auch nicht zu wundern wenn man dich als grün ansieht.

Raff
2009-12-26, 20:17:36
Es ist nicht mein Problem, wenn Ati mehr Gründe zum Meckern liefert als Nvidia. Mal sehen, wie grün ich bin, wenn ich endlich meine HD 5870 bekomme. Wahrscheinlich grüner denn je, denn erst wenn ich sie habe, finde ich wirklich alle Probleme ... ;D

MfG,
Raff

Armaq
2009-12-26, 20:38:57
Ich muss mich nicht rechtfertigen. Wer mich für Nvidia- oder Ati-biased hält, der liegt ganz einfach daneben. Das Bias entsteht beim Leser im Kopf. Und ich stichel einfach zu gern all diese Drohnen mit Fakten (von denen sie sich nicht berirren lassen). ;)

MfG,
Raff
Deine Meinungsverzerrung (oder ebend nicht) interessiert mich nicht. Nur war die Aussage, wie vorgenommen, ein absoluter "Epic-Fail".

Edit: Das wäre als ob Frau Merkel sagt: Ich bin der Meinung sie sollten auf jeden Fall CDU wählen, aber bitte halten sie mich nicht für parteiisch.

dein betreuer
2009-12-26, 20:39:41
E grün ich bin, grüner denn je, denn erst wenn ich sie habe, finde ich wirklich alle Probleme ... ;D

MfG,
Raff

Du holst dir die karte genau aus diesem grund, um nach fehler zu suchen.
Hast du schön zugegeben.
Das nvidia keine "bombe" landet, muss "marketingtechnisch" nachgeholfen werden.
In deinen "angeblichen" Sticheleien, spürt man richtig wie das arme fanboyherz blutet.

Es wird jetzt versucht eine kampanie gegen die treiber von ati anzustiften, es ist zwar ärgerlich, aber ein sicherer Indiz für das kommen einer schwachen karte von nvidia .


gruss

Raff
2009-12-26, 20:59:53
Das wäre als ob Frau Merkel sagt: Ich bin der Meinung sie sollten auf jeden Fall CDU wählen, aber bitte halten sie mich nicht für parteiisch.

Der Vergleich hinkt, da ich kein Nvidia-Mitarbeiter bin und den Leuten meine Kontoverbindung gänzlich unbekannt ist.

Wie gesagt, ihr könnt hier quatschen, was ihr wollt – es bestärkt lediglich mein Empfinden. Hier melden sich nämlich nur die üblichen Verdächtigen zu Wort. Das ist jedes Mal so, wenn die heilige Kuh aus Kanada verunglimpft wird. Das merkt ihr gar nicht, gell? Ich schon.

Übrigens, du "Gast" da oben: Nein, ich habe das Ding bestellt, weil ich von dem Produkt überzeugt bin (es ist eine Vapor-X – das Refdesign ist zu laut). Die ganzen kleinen Nervigkeiten der Treibersoftware sind leider trotzdem da. Ich arbeite für mein Geld, bezahle davon Produkte und will daher das Bestmögliche. Wenn alle immer nur "das basst scho" rufen, wird sich nie etwas ändern. Ist das wirklich so schwer zu begreifen?

MfG,
Raff

Armaq
2009-12-26, 21:36:22
Der Vergleich hinkt, da ich kein Nvidia-Mitarbeiter bin und den Leuten meine Kontoverbindung gänzlich unbekannt ist.

Wie gesagt, ihr könnt hier quatschen, was ihr wollt – es bestärkt lediglich mein Empfinden. Hier melden sich nämlich nur die üblichen Verdächtigen zu Wort. Das ist jedes Mal so, wenn die heilige Kuh aus Kanada verunglimpft wird. Das merkt ihr gar nicht, gell? Ich schon.

Übrigens, du "Gast" da oben: Nein, ich habe das Ding bestellt, weil ich von dem Produkt überzeugt bin (es ist eine Vapor-X – das Refdesign ist zu laut). Die ganzen kleinen Nervigkeiten der Treibersoftware sind leider trotzdem da. Ich arbeite für mein Geld, bezahle davon Produkte und will daher das Bestmögliche. Wenn alle immer nur "das basst scho" rufen, wird sich nie etwas ändern. Ist das wirklich so schwer zu begreifen?

MfG,
Raff
Und LoveSuckZ ist kein üblicher Verdächtiger sondern die OneManArmy? Dir ist irgendwas quer geschossen.

Raff
2009-12-26, 21:38:02
LovesuckZ ist natürlich auch einer. Aber nur einer gegen eine ganze Armee – die Ati-Fanboys sind quantitativ um den Faktor 20 zahlreicher. Ich finde das halt unbeschreiblich amüsant, wie ihr euch bekriegt und mache da gerne mal mit. Die Zeiten, als ich jeden Scheiß unkommentiert stehenließ, sind vorbei.

Btw: Ihr glaubt doch nicht ernsthaft, dass ich abartige 360 €uro ausgebe, nur um zu flamen. ;D Das ist die Denkweise von Fanboys. Wollte ich nur flamen, würde ich mir, wenn überhaupt, eine HD 5750/512 unter den Baum legen und dann noch darüber lästern, wie lahm die Karte ist. :ulol: Blöd dabei: Die HD 5750 finde ich toll (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7679376&postcount=358) (mit 1 GiB).

MfG,
Raff

Malabolge
2009-12-26, 23:25:12
Er tut das, um der Phalanx von Ati-Fanboys als One-Man-Army entgegen zu wirken. Quasi ABM. Klappt offensichtlich wunderbar. ;D

Disclaimer: Mir ist die Farbe des Herstellers Wurstsalat.

MfG,
Raff
Mann musst DU ihn noch anstacheln:biggrin:
Oopps , hatte vergessen du bläst ja gern die gleiche Flöte !:cool:


BT:
800 000 verkaufte Chips heisst eben nicht 800 000 fertige Karten.
Ich nehme an das so ca 1 Monat verstreicht bis das alles verbaut und ausgeliefert ist.

Kosh
2009-12-27, 09:59:46
LovesuckZ ist natürlich auch einer. Aber nur einer gegen eine ganze Armee – die Ati-Fanboys sind quantitativ um den Faktor 20 zahlreicher.Raff

Naja, hier werden doch sofort alle zu ATI Fanboys,die aktuell sagen,das die 58xx Karten die momentan besten Karten auf dem Markt sind.

Schon ist man ein ATI Fanboy.

Und das ist leider blödsinn. Momentan ist nunmal ATI Vorne und die Preise sind bezüglich ATI/AMD auch äusserst human,für die Leistung quasi billig.
Da TSMC zu unfähig ist genug Chips zu liefern, nutzen das viele Händler natürlich schamlos aus und schlagen auf den normalen Verkaufspreis (womit sie ja auch Gewinne machen würden ) nochmals 50% drauf.

ATI/AMD hat alles richtig gemacht und ist jetzt angeschissen durch TSMC.

Um das zu erkennen muss man kein ATI Fanboy sein.

Gast
2009-12-27, 12:09:07
Ich bin mal gespannt wie lange es noch dauert bis Cypress zu angemessenen Preisen von <300€ im nächsten Jahr lieferbar sein wird. Ich hoffe das Nvidia schnell mit seiner NextGen Karte kommt damit wieder etwas Bewegung in den Markt kommt. Mein neues System braucht dann auch ne neue (angemessene) Grafikkarte.

@Raff
Ich finde das ganze Fanboy gerede auch eher nervig, aber deine Kaufempfehlungen (vorallem in der pre HD5xxx Zeit) in der PCHG haben ihren Teil dazu beigetragen das jetzt ist wie es ist.

Raff
2009-12-27, 12:47:44
Naja, hier werden doch sofort alle zu ATI Fanboys,die aktuell sagen,das die 58xx Karten die momentan besten Karten auf dem Markt sind.

Schon ist man ein ATI Fanboy.

Nein. Die zwei HD 5800er sind definitiv die besten Karten. Und die HD 5870 Vapor-X ist das Sahnehäubchen, da gibt's gar keine Diskussion. Hier gibt's aber Spezialisten, die alle Ati-Dinge schöner reden als sie sind, was auf Dauer ganz schön nervt.

@Raff
Ich finde das ganze Fanboy gerede auch eher nervig, aber deine Kaufempfehlungen (vorallem in der pre HD5xxx Zeit) in der PCHG haben ihren Teil dazu beigetragen das jetzt ist wie es ist.

Welche Empfehlungen? War es Anfang 2009 falsch, eine GTX 260 zu empfehlen? Oder beziehst du dich auf unglückliche Online-Artikel? Die ganze PCGH Print widmet sich sich Monaten der HD-5000-Serie mit zig Artikeln und expliziten Empfehlungen. Ihr hängt euch alle an Kleinigkeiten auf, ohne die Wahrheit (= das Heft und die "echten" Online-Kaufempfehlungen (http://www.pcgameshardware.de/aid,678322/Ati-und-Nvidia-Grafikkarten-Test-Uebersicht-Leistungsindex-und-aktuelle-Kauf-Tipps-Dezember-2009/Grafikkarte/Test/)) anzusehen. ;(

MfG,
Raff

Gast
2009-12-27, 12:57:52
Naja, hier werden doch sofort alle zu ATI Fanboys,die aktuell sagen,das die 58xx Karten die momentan besten Karten auf dem Markt sind.

Schon ist man ein ATI Fanboy.

Ja, das stimmt. Vorallen wenn man Paranoid ist, kommt einen das so vor.


Und das ist leider blödsinn. Momentan ist nunmal ATI Vorne und die Preise sind bezüglich ATI/AMD auch äusserst human,für die Leistung quasi billig.
Da TSMC zu unfähig ist genug Chips zu liefern, nutzen das viele Händler natürlich schamlos aus und schlagen auf den normalen Verkaufspreis (womit sie ja auch Gewinne machen würden ) nochmals 50% drauf.

ATI/AMD hat alles richtig gemacht und ist jetzt angeschissen durch TSMC.

Um das zu erkennen muss man kein ATI Fanboy sein.

Jaja, AMD die Götterfee. Die Prese sind human (:lol: @ >=300€, >=400€, >=600€) und TSMC ist natürlich an allem schuld, u.a. dass AMD ihren Riesendie mit 333mm^2 nicht ausreichend produzieren kann.
Um das zu erkennen, muss man schon ein ATi Fanboy sein.

Gast
2009-12-27, 13:28:40
LZ der Spaten als Gast :rolleyes:

Schlammsau
2009-12-27, 13:33:06
Jaja, AMD die Götterfee. Die Prese sind human (:lol: @ >=300€, >=400€, >=600€) und TSMC ist natürlich an allem schuld, u.a. dass AMD ihren Riesendie mit 333mm^2 nicht ausreichend produzieren kann.
Um das zu erkennen, muss man schon ein ATi Fanboy sein.

;D Genauso wie vor über 2 Jahren die Preise für eine 8800GTX oder Ultra human waren. Wieviel hat man für eine 8800 GTX nochmal gezahlt? 500-600€?
Aber das war nicht teuer....das hat man doch gerne gezahlt für eine nVidia. :freak:

Hört mit dem Blödsinn auf.....auch 350-400€ für eine 5870 sind eigentlich nicht viel Geld, für die gebotene Leistung.

Gast
2009-12-27, 13:33:21
Ja, das stimmt. Vorallen wenn man Paranoid ist, kommt einen das so vor.



Jaja, AMD die Götterfee. Die Prese sind human (:lol: @ >=300€, >=400€, >=600€) und TSMC ist natürlich an allem schuld, u.a. dass AMD ihren Riesendie mit 333mm^2 nicht ausreichend produzieren kann.
Um das zu erkennen, muss man schon ein ATi Fanboy sein.


Okay, und wo ist die Konkurrenz?
Wo ist NVidia?

Welche Karte kann gegen due HD5870 bestehen? Die GTX295 wäre Performancemäßig etwa auf HD5870-Niveau.
Verfügbarkeit ist praktisch 0.
HD5870 ist mitterweile lieferbar. Zwar nicht sehr gut, aber deutlich besser als vor 2 Wochen.

HD5850 ist für etwa 299€ lieferbar. GTX285 ist für etwas weniger Geld zu bekommen. Beide nehmen sich performancemäßig nicht viel.

HD5770 lieferbar für 130€. Preislich relativ okay.

Okay und wo sind jetzt deine überteuerten Preise? Sie sind nicht existent. Die Realität ist schwer zu begreifn.

Dr. Cox
2009-12-27, 14:12:31
Es ist nicht mein Problem, wenn Ati mehr Gründe zum Meckern liefert als Nvidia. Mal sehen, wie grün ich bin, wenn ich endlich meine HD 5870 bekomme. Wahrscheinlich grüner denn je, denn erst wenn ich sie habe, finde ich wirklich alle Probleme ... ;D


Auch ich habe mit der HD 4870 alle Probleme gefunden :freak:

Ich hatte gleich mehrere Gründe von einer HD 4870 auf eine GTX 280 zu wechseln, obwohl die HD 4870 mir von der Leistung ausgereicht hat. Die Gründe waren folgenden:

-Das Texturflimmern und die massiven Treiberprobleme die ich mit der HD 4870 hatte.

-Alte Spiele wie Medal of Honor liefen entweder gar nicht mehr oder im Fall von Gothic 2 so schlecht, dass sogar meine alte Radeon 9800 Pro schneller als die HD4870 war (welche übrigens nie Probleme gemacht hat).

-Unter Vista haben in Gothic 3 ganze Bäume, Häuser, Berge, etc... sa stark geflackert, das ein Spielen absolut unmöglich war. Nachdem es zwei Monate nach der Supportanfrage bei ATI gedauert hat bis der Fehler behoben wurde, waren noch immer einige Grafikfehler vorhanden.

-MSAA war in Gothic 3 nur unter XP möglich, unter Vista half hingegen gar nichts um MSAA zum Laufen zu bekommen.

-Dann hatte ich in Stalker Schattenfehler welche sich beim Umsehen im Spiel über die andere Hälfte des Bildschirmes verteilten.

-Unter XP haben Videos beim Abspielen geflackert. Ich fand dann heraus, dass sich der Grafikspeicher beim Start von Videos heruntertaktete was dann zum Flackern führte.

-Und Steam spackte mit der HD4870 auch extrem ab einem gewissen Treiber (glaub ab dem 9.1) herum.

Diese ganze Fehler verschwanden dann mit dem Wechsel zur GTX280 und ich war endlich wieder zufrieden. Ich hoffe allerdings, dass solche Probleme mit der HD 5870 nicht mehr auftreten, da es mit dieser Karte eigentlich noch einmal probieren wollte. Sollte die HD 5870 ähnliche Probleme machen, dann schicke ich diese eben innerhalb der 14-Tage Frist wieder zurück ;)


Wenn alle immer nur "das basst scho" rufen, wird sich nie etwas ändern. Ist das wirklich so schwer zu begreifen?


Für viele scheint das echt schwer zu begreifen sein. Immerhin haben wir Kritiker es wenigstens geschafft, dass ATI nun SGSSAA und ein etwas besseres AF anbietet ;)

Die notorischen FanATIker hingegen haben mit ihrem "alles ist schön und toll Gelaber" jedenfalls nicht dazu beigetragen!

Gast
2009-12-27, 14:22:11
;D Genauso wie vor über 2 Jahren die Preise für eine 8800GTX oder Ultra human waren. Wieviel hat man für eine 8800 GTX nochmal gezahlt? 500-600€?
Aber das war nicht teuer....das hat man doch gerne gezahlt für eine nVidia. :freak:

Hört mit dem Blödsinn auf.....auch 350-400€ für eine 5870 sind eigentlich nicht viel Geld, für die gebotene Leistung.

Du sagst es: nVidia's Preise in der Vergangenheit waren ebenfalls human. :lol: Ob 600€ für eine 8800GTX oder 5970 ausgibt, macht keinen Unterschied. Ob man 300€ für eine 5850 bezahlt oder GTX260 ebenfalls nicht. Aber komisch, wenn nVidia die Preise nimmt, dann sind sie unverschämt. Komische Logik, die einige verfolgen.

BlackFog
2009-12-27, 14:41:45
Wo ist das Problem das aktuelle Highend der beiden Hersteller im Bereich 500-600€ zu platzieren?
Wenn die Karten vergleichbar sind, sollen sie sich doch in der Preisregion bewegen.

Warum wird, sowohl von ATI, als auch nV erwartet, Highend im Bereich 300-400€ zu bringen?
Hier im Board sollten genug nicht-CS-Kiddies rumlaufen, die sich das auch gerad noch so leiten können, und dass die Letzten 5% Leistung nochmal 50% Mehrkosten verursachen dürfte mittlerweile bekannt sein.

Dr. Cox
2009-12-27, 14:44:38
Zwischen leisten können und leisten wollen gibt es einen gravierenden Unterschied ;)

Gast
2009-12-27, 14:53:21
Wenn es um das Wollen geht ist den meisten umsonst nicht billig genug...

Nakai
2009-12-27, 15:09:19
Warum wird, sowohl von ATI, als auch nV erwartet, Highend im Bereich 300-400€ zu bringen?
Hier im Board sollten genug nicht-CS-Kiddies rumlaufen, die sich das auch gerad noch so leiten können, und dass die Letzten 5% Leistung nochmal 50% Mehrkosten verursachen dürfte mittlerweile bekannt sein.

Ich hab einmal 300€ für ne Graka ausgegeben. Nie wieder werd ich sowas machen. 200€ muss das Maximum sein. So oder so, vor einem Jahr stieg die Leistung mit dem Preis relativ linear an. Leider war dies auch dadurch bedingt, dass es keine neuen Features mehr gab. Nun ist wieder alles wie früher.

Highend kostet um die 600€. Performance um die 300 bis 400€. Midrange unter 200€ und Mainstream unter 100€. Der Markt ist aber dennoch ziemlich verwirrend.

Ob 600€ für eine 8800GTX oder 5970 ausgibt, macht keinen Unterschied. Ob man 300€ für eine 5850 bezahlt oder GTX260 ebenfalls nicht. Aber komisch, wenn nVidia die Preise nimmt, dann sind sie unverschämt. Komische Logik, die einige verfolgen.

Also bei G80 gibt es keine Kritik.
Aber der GTX280 und GTX260 sollte man schon etwas vorsichtiger sein, vor allem da ATI kurz darauf kam. Natürlich war der Preis gerechtfertigt, es war auch Highend, aber so heftig anzusetzen, obwohl ATI kaum einen Monat später kam.


mfg

Gast
2009-12-27, 15:15:12
Also bei G80 gibt es keine Kritik.
Aber der GTX280 und GTX260 sollte man schon etwas vorsichtiger sein, vor allem da ATI kurz darauf kam. Natürlich war der Preis gerechtfertigt, es war auch Highend, aber so heftig anzusetzen, obwohl ATI kaum einen Monat später kam.
mfg

Spielt keine Rolle, da es humane Preise waren. 250€ für die 9800GTX, 350€ für die GTX260 und 500€ für die GTX280 sind dazu noch humaner als die heutigen Preise von AMD.
Die Logik also, dass nVidia überteuert wäre oder teure Preise nehme, ist in Angesichts der Verbindung "human" und AMD reinster Schwachsinn.

Dr. Cox
2009-12-27, 15:18:38
Wenn es um das Wollen geht ist den meisten umsonst nicht billig genug...

Was die meisten hier vergessen - wahrscheinlich weil sie noch nicht alt genug sind - ist dass man auch laufende Kosten hat. Mieten, Strom, Wasser, Öl, KFZ-Versicherung, Haftpflicht/Hausratsversicherung, GEZ, Benzin, Lebensmittel, Handy und Internet. All dies muss auch bezahlt werden. Auch wenn viele hier noch bei Mutti leben, in ein paar Jahren müssen die sich eventuell auch darüber Gedanken machen. So viel bleibt da vom Monatsgehalt auch nicht über, vor allem dann nicht, wenn man mit dem Auto eventuell wieder in die Werkstatt muss...


Spielt keine Rolle, da es humane Preise waren. 250€ für die 9800GTX, 350€ für die GTX260 und 500€ für die GTX280 sind dazu noch humaner als die heutigen Preise von AMD.
Die Logik also, dass nVidia überteuert wäre oder teure Preise nehme, ist in Angesichts der Verbindung "human" und AMD reinster Schwachsinn.

Alles über 300€ ist für eine Grafikkarte zu viel. Denn schon nach ein paar Monaten, bekommt man die Karten meist für unter 200€, wie z.B. bei der GTX 260/HD 4870 ;)

derguru
2009-12-27, 15:58:49
Für viele scheint das echt schwer zu begreifen sein. Immerhin haben wir Kritiker es wenigstens geschafft, dass ATI nun SGSSAA und ein etwas besseres AF anbietet ;)

wenn wir dich nicht hätten,wer bist du nochmal?:rolleyes:

Nakai
2009-12-27, 16:02:30
Spielt keine Rolle, da es humane Preise waren. 250€ für die 9800GTX, 350€ für die GTX260 und 500€ für die GTX280 sind dazu noch humaner als die heutigen Preise von AMD.
Die Logik also, dass nVidia überteuert wäre oder teure Preise nehme, ist in Angesichts der Verbindung "human" und AMD reinster Schwachsinn.

Der Markt ist generell nicht human, dafür ist er nicht asugelegt. Er ist nur nach dem Geld ausgelegt und NV und die Händler haben da bestimmt einen kleinen Batzen draufgelegt. ;)
Dass sich die Karten bei den Preisen verkauft haben, beweist doch, dass der Preis für die Kunden okay war. Natürlich hätte der Preis geringer sein können, aber der Markt hat bei diesem Zeitpunkt noch nicht danach geschrien.

Ist das gleiche wie jetzt bei ATI. Die Preise sind so weit oben, weil die Karten gekauft werden. Ebenso weil der Markt wohl mit weniger Karten als nötig beliefert wird.

Imo geh ich davon aus, dass einige Karten noch von den Händlern zurückgehalten werden. Man hätte sie zu billig verkauft. Sieht man ja derzeit an den Preisen was noch geht.

Alles über 300€ ist für eine Grafikkarte zu viel. Denn schon nach ein paar Monaten, bekommt man die Karten meist für unter 200€, wie z.B. bei der GTX 260/HD 4870

Full Ack. Nicht jeder hat nen Geldscheisser, vor allem bei einem so kurzlebigen Markt.


mfg

€:
wenn wir dich nicht hätten,wer bist du nochmal?

Zum Glück hat ATI endlich mal auf die Reviewer und die Userschaft gehört. SSAA ist ein Segen.

derguru
2009-12-27, 16:28:06
Zum Glück hat ATI endlich mal auf die Reviewer und die Userschaft gehört. SSAA ist ein Segen.

klar ist das ein segen aber ob pcgh soviel einfluss hat bezweifel ich,waren auch die einzigen die theater gemacht hatten soweit ich es verfolgen konnte.
glaub eher das genug leistung vorhanden war und man was neues anbieten wollte,das ist alles denke ich.(af selbe wurst)

Gast
2009-12-27, 16:31:15
Was die meisten hier vergessen - wahrscheinlich weil sie noch nicht alt genug sind - ist dass man auch laufende Kosten hat. Mieten, Strom, Wasser, Öl, KFZ-Versicherung, Haftpflicht/Hausratsversicherung, GEZ, Benzin, Lebensmittel, Handy und Internet. All dies muss auch bezahlt werden. Auch wenn viele hier noch bei Mutti leben, in ein paar Jahren müssen die sich eventuell auch darüber Gedanken machen. So viel bleibt da vom Monatsgehalt auch nicht über, vor allem dann nicht, wenn man mit dem Auto eventuell wieder in die Werkstatt muss...

Was hat das damit zu tun?
Wenn man merkt dass man sich was nicht leisten kann dann kauft man es nicht. Das kling fast so als wäre die neueste Highendkarte so wichtig wie Wasser und Strom. Entschuldigung wegen dem OT aber aus der Tatsache dass es andere Dinge im Leben ausser Highendgrafikkarten gibt und Die sogar Geld kosten zu folgern dass Diese billig sein müssen ist selbst am Sonntagnachmittag nicht wirklich unterhaltsam.

BlackFog
2009-12-27, 20:24:37
@Dr. Cox
In dem Falle kann man sich dann halt keine Highend Plattform leisten. Ein Porsche in der Garage wäre natürlich auch schön, wenn das Geld nicht da ist, wird er aber allerdings auch nicht billiger, nur weil man ihn will/braucht.

Dr. Cox
2009-12-28, 03:17:09
wenn wir dich nicht hätten,wer bist du nochmal?:rolleyes:

Ich kann ja nichts dafür, dass du dich mit dem Geflimmer zufrieden gegeben und es dank deiner roten Brille auch noch schön geredet hast...:freak:


@Dr. Cox
In dem Falle kann man sich dann halt keine Highend Plattform leisten. Ein Porsche in der Garage wäre natürlich auch schön, wenn das Geld nicht da ist, wird er aber allerdings auch nicht billiger, nur weil man ihn will/braucht.

Es kommt da eben nur die Frage auf, ob man es sich leisten will. Für 300€ kann ich auch eine PS3 kaufen, oder aber etwas mit meiner Freundin unternehmen...

mapel110
2009-12-28, 03:20:41
Ich kann ja nichts dafür, dass du dich mit dem Geflimmer zufrieden gegeben und es dank deiner roten Brille auch noch schön geredet hast...:freak:
Wobei es unter realen Bedingungen wohl wirklich nicht stark auffällt. Nicht mal annährend so wie das Flimmern, was es beim G70 auf HQ zu Anfang gab, was später gefixt wurde.
Wenns die billigen Radeons für weit unter 100 € gibt, werd ich mir davon auch selbst mal ein Bild machen. Dürfte ja in 2-3 Monaten der Fall sein.

Dr. Cox
2009-12-28, 03:21:48
Mir und auch vielen anderen fällt das Flimmern der Texturen schon auf...

Lawmachine79
2009-12-28, 03:23:39
Spielt keine Rolle, da es humane Preise waren. 250€ für die 9800GTX, 350€ für die GTX260 und 500€ für die GTX280 sind dazu noch humaner als die heutigen Preise von AMD.
Die Logik also, dass nVidia überteuert wäre oder teure Preise nehme, ist in Angesichts der Verbindung "human" und AMD reinster Schwachsinn.
Tendenziell sind NV-Karten aus dem gleichen Segment aber trotzdem teurer als ATI-Karten. Ob das jetzt überteuert ist oder nicht, darüber lässt sich streiten, Fakt jedoch ist, daß NV-Karten performancemässig weniger Bang for the Buck liefern. Früher gab es noch SSAA als wesentlichen Vorteil. Heute ist es noch der Treiber und die Tatsache, daß NV tendenziell weniger Probleme bei Spielen hat, je älter das Spiel, umso mehr verschärft sich diese Tatsache.

Simon Moon
2009-12-28, 07:48:37
Tendenziell sind NV-Karten aus dem gleichen Segment aber trotzdem teurer als ATI-Karten. Ob das jetzt überteuert ist oder nicht, darüber lässt sich streiten, Fakt jedoch ist, daß NV-Karten performancemässig weniger Bang for the Buck liefern. Früher gab es noch SSAA als wesentlichen Vorteil. Heute ist es noch der Treiber und die Tatsache, daß NV tendenziell weniger Probleme bei Spielen hat, je älter das Spiel, umso mehr verschärft sich diese Tatsache.

Dafür sind AMD Karten tendenziell länger haltbar, das wird wohl durch die ATi typische starke Dimensionierung von Shadern und dem Quäntchen DX Vorsprung auch noch bei dieser Generation so sein.

Imo kommts dann aufs System und den User an. Wer versiert ist und aufs Geld achten muss, nimmt AMD und wer sich sowieso alle Nase lang eine neue Graka kauft, nimmt halt eher Nvidia. Das restliche Klientel hat dann sowieso von Treiber installieren keine Ahnung mehr und plagt sich eben damit rum was im Rechner steckt.

xiao didi *
2009-12-28, 07:53:27
Dafür sind AMD Karten tendenziell länger haltbar, das wird wohl durch die ATi typische starke Dimensionierung von Shadern und dem Quäntchen DX Vorsprung auch noch bei dieser Generation so sein.
Das war zu 9x00 vs. Geforce FX und x1900 vs. G70 Zeiten so. Dort war Nvidia aber auch schon schlecht, als die Karten aktuell waren.
Daraus ist dann dieser Mythos erwachsen.

tombman
2009-12-28, 08:36:42
Heute ist es noch der Treiber und die Tatsache, daß NV tendenziell weniger Probleme bei Spielen hat, je älter das Spiel, umso mehr verschärft sich diese Tatsache.
Hab ich grad per ICQ reinbekommen, paßt so schön:

"XXX *(27.12.2009 16:55):
Crossfire ist Geschichte hab alle drei 5870 wieder verkauft...HORROR glaubs mir ich beneide jeden der SLI im Rechner hat und das Wort Mikroruckler sollte bei Ati neu erfunden werde...
übelst..."

Du siehst, es gibt noch ein paar mehr Gründe pro NV:

1.) Weniger MR
2.) Nhancer
3.) bessere Kompat. bzgl Multi SLI (Tri und Quad)
4.) TWIMTBP (dev. rel. ftw)
5.) Imo besseres CP (custom resolutions...)
6.) Phys-X
7.) Linux?

reunion
2009-12-28, 09:29:44
Hier melden sich nämlich nur die üblichen Verdächtigen zu Wort. Das ist jedes Mal so, wenn die heilige Kuh aus Kanada verunglimpft wird. Das merkt ihr gar nicht, gell? Ich schon.


Es melden sich auch immer nur die üblichen verdächtigen zu Wort um Leute wie LS unter die Arme zu greifen. Das merkst du gar nicht, gell? Ich schon.

LovesuckZ ist natürlich auch einer. Aber nur einer gegen eine ganze Armee – die Ati-Fanboys sind quantitativ um den Faktor 20 zahlreicher. Ich finde das halt unbeschreiblich amüsant, wie ihr euch bekriegt und mache da gerne mal mit. Die Zeiten, als ich jeden Scheiß unkommentiert stehenließ, sind vorbei.


Das könnte man durchaus als selektive Wahrnehmung bezeichnen. Du machst gerne mal mit, und wen du zu unterstützen hast ist mehr als offensichtlich. Das werfe ich dir auch nicht mal vor, neutral ist nur ein Computer der nach dem Zufallsprinzip handelt. Nur finde ich es amüsant wenn in jedem zweiten Beitrag die Neutralität betont wird.

Exxtreme
2009-12-28, 09:35:23
1.) Weniger MR

Zufall.

tombman
2009-12-28, 09:38:56
Zufall.
Nein.

Exxtreme
2009-12-28, 09:40:07
Nein.
Doch. Grafikkarten können nicht hellsehen.

tombman
2009-12-28, 09:49:54
Doch. Grafikkarten können nicht hellsehen.
Praxis+ Erfahrung > Theorie

Exxtreme
2009-12-28, 09:50:24
Praxis+ Erfahrung > Theorie
Was den Zufall nicht ausschliesst.

tombman
2009-12-28, 09:52:17
Was den Zufall nicht ausschliesst.
Doch, tut es.

Exxtreme
2009-12-28, 09:55:20
Doch, tut es.
OK, dann wünsche ich dir noch viel Spass mit deinen hellseherischen Grafikkarten. Und mögen diese dir die nächsten Lotto-Zahlen korrekt vorhersehen.

Neocroth
2009-12-28, 10:09:58
OK, dann wünsche ich dir noch viel Spass mit deinen hellseherischen Grafikkarten. Und mögen diese dir die nächsten Lotto-Zahlen korrekt vorhersehen.

Das haben sie wohl schon, denn sonst könnte sich Tombi solche Performancemonster nicht leisten :freak:

tombman
2009-12-28, 10:19:38
OK, dann wünsche ich dir noch viel Spass mit deinen hellseherischen Grafikkarten. Und mögen diese dir die nächsten Lotto-Zahlen korrekt vorhersehen.
Danke, den werd ich haben- als nächstes mit Furby ;)

svenw
2009-12-28, 10:33:13
NV ist gut, nur ändert das nichts an der Situation das NV momentan ganz bös hinten liegt. Wer aktuell eine Graka braucht wird eine ATI kaufen, denn NV hat momentan nichts gegen die 5870 zu setzen. Fermi wird sich wahrscheinlich performancemäßig nicht soweit absetzen, das es beim fps/Buck Vergleich für mehr als ein Unentschieden langt. Von Lieferproblemen und dem Techvorsprung durch den früheren Launch (5890?) durch ATI nicht zu reden.

ATI ist nicht die Superfirma aber sie liefern gute Hardware für gutes Geld. Microruckler und Linuxtreiber mit 3D Unterstützung sind für 90-95% der Leute uninteressant (was nicht heißt das ich ATI Verhalten in dem Bereich gut finde). Aber ein Feature ist nur dann ein Vorteil wenn man ihn braucht/gebraucht (hallo DirectX 10.1). Denn wieviel Prozente machen im Verkauf X2 oder SLI/Crossfire Systeme aus?

IMHO wird Nvidia bis zum Ende Q3/2010 brauchen um wieder mit ATI gleichzuziehen. Bei den X2 Karten sehe ich da sogar eher schwarz denn da begrenzt die Stromaufnahme die Leistung und das wird NV mit ihren größeren Chips (höhere Kosten) sehr weh tun. Im Crossfire/SLI Betrieb dürften sie aber im Q3 die Krone übernehmen. Vorher werden sie wahrscheinlich durch eine 5890 ausgekontert und werden solange brauchen um den Prozeß zu optimieren, das sie mehr Takt schaffen.

Labberlippe
2009-12-28, 10:44:45
Hi

Wieder ganz interressant wie die üblichen Verdächtigen hier versuchen die ATI Karten madig zu reden.
Die Produktpallette ist in meine Augen in Ordnung und die Preise werden sicherlich noch fallen.
Was ich nicht ganz verstehe ist das man AMD/ATI wegen der Fertigung ans Bein pinkeln will.
nVIDIA ist auch leider davon abhängig.

Die Liefersituation wurde schon besser und werden auch brav in Komplett Rechner verbaut.

Einfach abwarten.

Gruss Labberlippe

tombman
2009-12-28, 11:00:59
Eigentlich könnte NV sogar auf die spec pissen und 'ne GTX395 mt 2x 8pin Strom und 350 Watt herausbringen. Schließlich muß sie nur funktionieren, und der Zielgruppe sind pci-e specs auch egal.
Geben tuts 2x 8pin Karten ja schon...

Labberlippe
2009-12-28, 11:06:11
Eigentlich könnte NV sogar auf die spec pissen und 'ne GTX395 mt 2x 8pin Strom und 350 Watt herausbringen. Schließlich muß sie nur funktionieren, und der Zielgruppe sind pci-e specs auch egal.
Geben tuts 2x 8pin Karten ja schon...


Hi

Ja könnten Sie, nur weiss auch nVIDIA das dann wieder ein grosses Gejammer kommt.
Ich sehe es auch das es dieser Zielgruppe egal ist was das Ding saugt, wobei mir das nicht so egal wäre.
Die Watt Anzahl wäre noch verschmerzbar aber die Frage wäre was für eine Lautstärke das Teil hat.
Naja beim genaueren überlegen für was gibs Wakü :.-)

Gruss Labberlippe

tombman
2009-12-28, 11:20:18
EVGA hat mit dem 4-SLI mobo sogar auf die ATX spec gepfiffen und das Teil einfach länger gebaut :ugly:
Jetzt paßt es zwar nur in eine Hand voll cases, gekauft wurde es trotzdem massenweise- weil die Zielgruppe auch vor modding nicht zurückschreckt :)
(habe gestern gerade ein Loch in meinen Cube geschnitten ;D)

Am oberen Ende darf man sich eben blöd spielen :freak:

Labberlippe
2009-12-28, 11:28:16
EVGA hat mit dem 4-SLI mobo sogar auf die ATX spec gepfiffen und das Teil einfach länger gebaut :ugly:
Jetzt paßt es zwar nur in eine Hand voll cases, gekauft wurde es trotzdem massenweise- weil die Zielgruppe auch vor modding nicht zurückschreckt :)
(habe gestern gerade ein Loch in meinen Cube geschnitten ;D)

Am oberen Ende darf man sich eben blöd spielen :freak:

Hi

yupp wenn man sich so ein Teil kauft dann weiss man ja schon sowieso im Vorfeld wie gross das Teil ist. :biggrin:

Aber das sinnlose Gegenseitige an gepflaume hier über die Lieferbarkeit kann schon einen tierisch am Sack gehen.
Die Hauptzielgruppe wird vernünftig beliefert beim Rest kann man nur hoffen das bald die Fertigung besser wird.

Da kann weder AMD oder nVIDIA was dafür.

Gruss Labberlippe

Neocroth
2009-12-28, 12:15:35
EVGA hat mit dem 4-SLI mobo sogar auf die ATX spec gepfiffen und das Teil einfach länger gebaut :ugly:
Jetzt paßt es zwar nur in eine Hand voll cases, gekauft wurde es trotzdem massenweise- weil die Zielgruppe auch vor modding nicht zurückschreckt :)


von "massenweise" würde ich da nicht sprechen. Wir reden hier nicht von einem Board für absolute Enthusiasten sondern von einer Grafikkarte, die letztendlich auch in OEM-Rechnern landen soll. Die paar Handvoll, die da verkauft werden... da gehts nur ums Prestige und nicht um den Absatz.

Raff
2009-12-28, 12:43:57
Das könnte man durchaus als selektive Wahrnehmung bezeichnen. Du machst gerne mal mit, und wen du zu unterstützen hast ist mehr als offensichtlich. Das werfe ich dir auch nicht mal vor, neutral ist nur ein Computer der nach dem Zufallsprinzip handelt. Nur finde ich es amüsant wenn in jedem zweiten Beitrag die Neutralität betont wird.

Mir ist schon klar, dass ich in den Augen eines Nichtneutralen niemals neutral wirke. Auch klar ist, dass ich mir viele Feinde mache, wenn ich gegen Ati-Sympathisanten vorgehe. Und trotzdem bin ich hier unparteiisch – ich sage dir auch gerne, warum: Mein "Herz" schlägt für einen Hersteller, der längst unter der Erde ist. Das macht mich in aktuellen Schlachten überlegen. ;)

MfG,
Raff

DrFreaK666
2009-12-28, 12:48:51
Mir ist schon klar, dass ich in den Augen eines Nichtneutralen niemals neutral wirke. Auch klar ist, dass ich mir viele Feinde mache, wenn ich gegen Ati-Sympathisanten vorgehe. Und trotzdem bin ich hier unparteiisch – ich sage dir auch gerne, warum: Mein "Herz" schlägt für einen Hersteller, der längst unter der Erde ist. Das macht mich in aktuellen Schlachten überlegen. ;)

MfG,
Raff

Als 3DFX-Fan kann man niemals unparteiisch sein.
Wie lange habe ich nvidia gehasst...
Trotzdem hatte ich einige Geforces, weil sie einfach das bessere Produkt waren.

tombman
2009-12-28, 12:50:20
Mir ist schon klar, dass ich in den Augen eines Nichtneutralen niemals neutral wirke. Auch klar ist, dass ich mir viele Feinde mache, wenn ich gegen Ati-Sympathisanten vorgehe. Und trotzdem bin ich hier unparteiisch – ich sage dir auch gerne, warum: Mein "Herz" schlägt für einen Hersteller, der längst unter der Erde ist. Das macht mich in aktuellen Schlachten überlegen. ;)

MfG,
Raff
Hmm, naja, aber 3dfx lebt in Nvidia weiter, das ist wie bei Highlander (Kopf ab, Energie springt über)- insofern schlägt dein Herz auch ein bischen für NV :ujump:

Raff
2009-12-28, 12:50:22
Das unterscheidet uns dann wohl. Mir ist das völlig egal. AMD und Nvidia wollen beide nur unser Geld – also darf ich ja wohl bei beiden meckern, wenn was nicht passt.

MfG,
Raff

DrFreaK666
2009-12-28, 12:55:58
Das unterscheidet uns dann wohl. Mir ist das völlig egal. AMD und Nvidia wollen beide nur unser Geld – also darf ich ja wohl bei beiden meckern, wenn was nicht passt.

MfG,
Raff

Aber sei mal ehrlich.
Warst du damals nicht sauer auf nvidia als diese 3DFX übernahmen?
Mir wäre damals VIA lieber gewesen.
Vielleicht hätten wir ja jetzt ne dritte Macht..

Armaq
2009-12-28, 12:58:28
Mir ist schon klar, dass ich in den Augen eines Nichtneutralen niemals neutral wirke. Auch klar ist, dass ich mir viele Feinde mache, wenn ich gegen Ati-Sympathisanten vorgehe. Und trotzdem bin ich hier unparteiisch – ich sage dir auch gerne, warum: Mein "Herz" schlägt für einen Hersteller, der längst unter der Erde ist. Das macht mich in aktuellen Schlachten überlegen. ;)

MfG,
Raff
Das ist absoluter Schwachsinn. Hast du als Redakteur eigentlich studiert oder eine Ausbildung genossen? Falls nicht erhelle ich dich gerne mal mit der Geschichte vom kleinen Peter der ständig "Wolf" schreit. Soll ich sie dir ganz aufschreiben, oder kennst du sie? Jemand der in der Branche tätig ist sollte wirklich wissen, dass permanentes Geschrei es sei nicht so, genau darauf hindeutet. So ein bisschen Wortwirkung gibts halt doch. Und um es nochmal klar zu stellen, tombman kann ich folgen - LoveSuckZ ist ein übler Troll. Wer ihm zu Seite steht kann eigentlich nur selbst einer sein.

Raff
2009-12-28, 13:03:41
Aber sei mal ehrlich.
Warst du damals nicht sauer auf nvidia als diese 3DFX übernahmen?
Mir wäre damals VIA lieber gewesen.
Vielleicht hätten wir ja jetzt ne dritte Macht..

Natürlich war ich damals sauer. Aber so funktioniert nun mal unser System.

Das ist absoluter Schwachsinn. Hast du als Redakteur eigentlich studiert oder eine Ausbildung genossen? Falls nicht erhelle ich dich gerne mal mit der Geschichte vom kleinen Peter der ständig "Wolf" schreit. Soll ich sie dir ganz aufschreiben, oder kennst du sie? Jemand der in der Branche tätig ist sollte wirklich wissen, dass permanentes Geschrei es sei nicht so, genau darauf hindeutet. So ein bisschen Wortwirkung gibts halt doch. Und um es nochmal klar zu stellen, tombman kann ich folgen - LoveSuckZ ist ein übler Troll. Wer ihm zu Seite steht kann eigentlich nur selbst einer sein.

Wie gesagt: Du musst mir weder glauben noch mich mögen. Daran, dass ich sowohl Ati als auch Nvidia nur anhand von Fakten bewerte und alle Fanboys flame, ändert das gar nichts. Mein Meckern gegenüber Ati hat sich dank der großen Schritte der HD-5000-Serie (SGSSAA, geringfügig besseres AF, etc.) schon halbiert. Aber das sieht keiner, denn der Raff ist ein böser Flamer ...

MfG,
Raff

Lawmachine79
2009-12-28, 13:25:16
Hab ich grad per ICQ reinbekommen, paßt so schön:

"XXX *(27.12.2009 16:55):
Crossfire ist Geschichte hab alle drei 5870 wieder verkauft...HORROR glaubs mir ich beneide jeden der SLI im Rechner hat und das Wort Mikroruckler sollte bei Ati neu erfunden werde...
übelst..."

Du siehst, es gibt noch ein paar mehr Gründe pro NV:

1.) Weniger MR
2.) Nhancer
3.) bessere Kompat. bzgl Multi SLI (Tri und Quad)
4.) TWIMTBP (dev. rel. ftw)
5.) Imo besseres CP (custom resolutions...)
6.) Phys-X
7.) Linux?
Naja, ich habe aber kein SLI, werde ich auch nie haben, ich habe immer DIE Grafikkarte, die knapp unter dem Highend-Singlechipprodukt steht - eine GTX275, eine 8800GTS, eine 6800GT - ich denke das Schema ist deutlich - trotzdem ist es bei mir so, daß auch eher eine NV-Karte reinkommt. Wenn ATI ein gutes Produkt auf den Markt bringt, kaufe ich es mir trotzdem, die 5870 hätte ich mir auch gekauft, wenn ich nicht ewig auf Lieferung warten müßte und der Straßenpreis dort wäre, wo er nach der ATI-Preisempfehlung sein müßte. Sie wäre aber mir Fermi-Release ganz schnell im Zweit-PC gelandet, mein Zweit-PC ist eigentlich immer mit einer ATI-Karte bestückt, dort brauche ich günstige Performance, da spielen Kumpel dran, da juckt dann natürlich kein SSAA (ist jetzt ja eh behoben).

Malabolge
2009-12-28, 13:42:44
Natürlich war ich damals sauer. Aber so funktioniert nun mal unser System.



Wie gesagt: Du musst mir weder glauben noch mich mögen. Daran, dass ich sowohl Ati als auch Nvidia nur anhand von Fakten bewerte und alle Fanboys flame, ändert das gar nichts. Mein Meckern gegenüber Ati hat sich dank der großen Schritte der HD-5000-Serie (SGSSAA, geringfügig besseres AF, etc.) schon halbiert. Aber das sieht keiner, denn der Raff ist ein böser Flamer ...

MfG,
Raff

wann bitte hast DU das letze mal einen "Lovesucks"(TM) "geflamt" ?:eek::eek:
Seltsamerweise scheinst DU auch bei ATI nur die "schlechten" Fakten zu bewerten.

Ach lassen wir das , ich bin ja ehh "verstrahlt" :biggrin:



Herr Richter , es war doch ein Unfall. Die Axt ist mir aus der Hand gefallen.
Siebenmal ?

HarryHirsch
2009-12-28, 13:51:18
Hab ich grad per ICQ reinbekommen, paßt so schön:

"XXX *(27.12.2009 16:55):
Crossfire ist Geschichte hab alle drei 5870 wieder verkauft...HORROR glaubs mir ich beneide jeden der SLI im Rechner hat und das Wort Mikroruckler sollte bei Ati neu erfunden werde...
übelst..."

Du siehst, es gibt noch ein paar mehr Gründe pro NV:

1.) Weniger MR
2.) Nhancer
3.) bessere Kompat. bzgl Multi SLI (Tri und Quad)
4.) TWIMTBP (dev. rel. ftw)
5.) Imo besseres CP (custom resolutions...)
6.) Phys-X
7.) Linux?

Hat er meinen Rat also befolgt. ;)

Nakai
2009-12-28, 13:56:14
wann bitte hast DU das letze mal einen "Lovesucks"(TM) "geflamt" ?
Seltsamerweise scheinst DU auch bei ATI nur die "schlechten" Fakten zu bewerten.

LZ hat aber meistens nie Unrecht, egal wie unsinnig er die Fakten herumdreht oder auslegt. ;)

Für mich zeigt die HD5-Serie nur eins, nämlich wieviele Menschen noch vorbehalte gegen ATI haben. Das muss nichts mit bias zu tun habn, aber es ist derzeit einfach ziemlich offensichtlich.

Ich muss mir bald wieder ne Graka kaufn. Der PC is praktisch fertig, aber die passende Graka fehlt noch. Mehr als 200€ will ich bzw. kann ich nicht ausgeben.
Die HD5770 ist mir zu schwach, die GTX275 ist mir zu teuer und kaum verfügbar(HD5850 sowieso...).


mfg

y33H@
2009-12-28, 13:56:41
Bei AMD und NV wird gleichermaßen kritisiert, dummerweise gibts (HD5k) bzw. gabs (HD2k bis HD4k) halt bei AMD mehr zu kritisieren :usad:

An den HD5k ist ja nahezu alles super, abgesehen von den problematischeren Treibern und dem Throtteln im Furmark - letzteres ist unschön, aber in der Praxis kaum relevant. Ich tu mir halt mit den seit den HD2k stressigeren Treibern schwer ... X1k war da deutlich besser, vll romantisiere ich die Dinger aber auch.

Bei den GTX200 gibts nahezu nichts, was sie falsch machen, was in es bei der Konkurrenz nicht gibt: Spulenfiepen und fehleranfälliges MGPU ist IHV-übergreifend, PhysX und DX10.1 gegeneinander aufzuwiegen, ist recht witzlos, wenngleich PhysX mehr Optik bringt bzw. es mehr Titel mit GPU-PhysX denn mit DX10.1 gibt. Preise zu kritisieren finde ich ebenfalls belanglos, die schnellste Karte kostet am meisten, der Rest reiht sich ein. Bei gleichen Fps kostet AMD etwas weniger, imo da NV bis GTX200/HD4k mehr Features und weniger Probleme bietet. Und nu ... Bahn frei für die Fanboys ;(

DrFreaK666
2009-12-28, 14:03:24
Bei AMD und NV wird gleichermaßen kritisiert, dummerweise gibts (HD5k) bzw. gabs (HD2k bis HD4k) halt bei AMD mehr zu kritisieren :usad:

An den HD5k ist ja nahezu alles super, abgesehen von den problematischeren Treibern und dem Throtteln im Furmark - letzteres ist unschön, aber in der Praxis kaum relevant. Ich tu mir halt mit den seit den HD2k stressigeren Treibern schwer ... X1k war da deutlich besser, vll romantisiere ich die Dinger aber auch.

Bei den GTX200 gibts nahezu nichts, was sie falsch machen, was in es bei der Konkurrenz nicht gibt: Spulenfiepen und fehleranfälliges MGPU ist IHV-übergreifend, PhysX und DX10.1 gegeneinander aufzuwiegen, ist recht witzlos, wenngleich PhysX mehr Optik bringt bzw. es mehr Titel mit GPU-PhysX denn mit DX10.1 gibt. Preise zu kritisieren finde ich ebenfalls belanglos, die schnellste Karte kostet am meisten, der Rest reiht sich ein. Bei gleichen Fps kostet AMD etwas weniger, imo da NV bis GTX200/HD4k mehr Features und weniger Probleme bietet. Und nu ... Bahn frei für die Fanboys ;(

Ich hatte in den letzten Jahren Karten von verschiedenen Herstellern.
Geforce 2 pro -> V5-5500 - Radeon 8500 -> Radeon 9700Pro -> Geforce 6800GT -> Geforce 8800GT -> Radeon 4870 -> Geforce GTX260 -> Radeon HD5850

4xATI / 4xNV (wenn ich weiter in die Vergangenheit schaue dann ändert sich nichts (1x Rage 128Pro, 1x TNT 2Ultra)

Ich holt mir die Karte mit dem besseren PL-Verhältnis oder den interessanteren Features (SSAA, TruForm).

Ich glaube das ist das Vernünftigste was man machen kann

y33H@
2009-12-28, 14:11:32
[...] GF4 Ti 4200/128 --> 9700 Pro --> 9800 Pro --> 6800 Ultra --> X1900 XT/512 --> 8800 Ultra --> GTX 280 --> HD5870 evtl. (erst mal die Thermalright VRMs testen)

Ich springe an sich immer von High-End zu High-End, sofern nichts gewichtiges dagegen spricht. Und das war bisher nie der Fall ... ich tue mir nach rund 3 Jahren Geforce @ home und jahrelangen Treiber-Erfahrungen mit dem Catalyst schwer. In der Regel läuft er ja, aber es sind immer wieder Dinger, die gehen einfach nicht: Die katastrophale Performance in Borderlands, der (zweimalige!) AF-Bug, Anno 1404 @ DX10, GTA4, NfS Shift, Saboteur (ja, der Entwickler ist teils schuld, als Radeon-User habe ich aber trotzdem die AK) ... sowas ist ein no-go und lässt mich regelmäßig grübeln :usad:

DrFreaK666
2009-12-28, 14:16:35
[...] GF4 Ti 4200/128 --> 9700 Pro --> 9800 Pro --> 6800 Ultra --> X1900 XT/512 --> 8800 Ultra --> GTX 280 --> HD5870 evtl. (erst mal die Thermalright VRMs testen)

Ich springe an sich immer von High-End zu High-End, sofern nichts gewichtiges dagegen spricht. Und das war bisher nie der Fall ... ich tue mir nach rund 3 Jahren Geforce @ home und jahrelangen Treiber-Erfahrungen mit dem Catalyst schwer. In der Regel läuft er ja, aber es sind immer wieder Dinger, die gehen einfach nicht: Die katastrophale Performance in Borderlands, der (zweimalige!) AF-Bug, Anno 1404 @ DX10, GTA4, NfS Shift, Saboteur (ja, der Entwickler ist teils schuld, als Radeon-User habe ich aber trotzdem die AK) ... sowas ist ein no-go und lässt mich regelmäßig grübeln :usad:

No Risk no Fun :biggrin:

Ich hatte noch nie großartige Probleme mit den Radeon-Treibern.
Vielleicht spielst du einfach die falschen Spiele :D

Lawmachine79
2009-12-28, 14:21:05
An den HD5k ist ja nahezu alles super, abgesehen von den problematischeren Treibern und dem Throtteln im Furmark - letzteres ist unschön, aber in der Praxis kaum relevant. Ich tu mir halt mit den seit den HD2k stressigeren Treibern schwer ... X1k war da deutlich besser, vll romantisiere ich die Dinger aber auch.


Naja,
1) Gibt es die HD5K-Karten de facto nicht, denn
- 5750 und 5770 haben das Nachsehen gegenüber 4850 und 4870
- 5850 und 5870 sind nie lieferbar und haben deshalb astronomische Preise
und
2) Was macht ATI denn, wenn ein Spiel kommt, was eine ähnliche Last wie Furmark erzeugt?
3) Die Treiber...die waren schon immer scheisse
Also wenn eine 5870 für 250€ lieferbar wäre, würde ich mir sofort eine kaufen.

DrFreaK666
2009-12-28, 14:23:55
Naja,
1) Gibt es die HD5K-Karten de facto nicht, denn
- 5750 und 5770 haben das Nachsehen gegenüber 4850 und 4870
- 5850 und 5870 sind nie lieferbar und haben deshalb astronomische Preise
und
2) Was macht ATI denn, wenn ein Spiel kommt, was eine ähnliche Last wie Furmark erzeugt?
3) Die Treiber...die waren schon immer scheisse
Also wenn eine 5870 für 250€ lieferbar wäre, würde ich mir sofort eine kaufen.

Meine letzten Karten haben mich immer ca. 250€ gekostet.
So auch die HD5850.
Die Geforce-Treiber sind schon besser - ja- aber ich komme mit den Catalyst trotzdem gut zurecht.
Was fehlt ist ein nHancer

Armaq
2009-12-28, 15:08:37
Was mich wirklich stört beim Catalyst sind die Bugs die wieder wieder kommen. Das ist einfach totale Scheiße.

Neocroth
2009-12-28, 15:25:58
Was fehlt ist ein nHancer

Das ATi-Pendant zum nHancer sind die ATT, die ich persönlich als recht brauchbar empfand (zu Zeiten 9700 Pro und X700, meine 4870 rennt ohne).

DrFreaK666
2009-12-28, 15:28:58
Das ATi-Pendant zum nHancer sind die ATT, die ich persönlich als recht brauchbar empfand (zu Zeiten 9700 Pro und X700, meine 4870 rennt ohne).

Ja, die ATT sind ganz nett.
Aber nHancer ist besser.
Ich komme jetzt auch mit dem CCC aus, dauert zum Glück nicht mehr ewig bis es geöffnet ist

Blaire
2009-12-28, 15:34:39
Hat er meinen Rat also befolgt. ;)

Das hat er. ;) Wenn man mit MultiGPU nichts am Hut hat, dann ist die HD5870 ne sehr gute Karte keine Frage.
Aber Crossfire (im speziellen TripleCrossfire ist eine reine Enttäuschung!)
Ein Beispiel: Crysis mit 2560x1600 noAA/16xAF VeryHigh spielt sich mit 3x HD5870 trotz angezeigter 40-50fps wie Wackelpudding, die FPS kommen sehr unregelmäßig rein was zu nervigen Rucklern führt, zudem wirkt das Game extrem träge. TripleSLI GTX280 brachte es auf ca. 10% weniger FPS war aber jederzeit spielbar und dieses träge Spielgefühl war auch nicht vorhanden.
Da bieten sie nun SGSSAA an und man bekommt "theoretisch" spielbare Framerates und dennoch kommt auf dem Bildschirm nur Wackelpudding an...Schrecklich. :mad::D

LovesuckZ
2009-12-28, 15:37:09
Ist SGSSAA nicht der Killer für Crossfire, weil man die Karte damit in Bereiche drückt, die MR begünstigen?

Blaire
2009-12-28, 15:38:44
Ist SGSSAA nicht der Killer für Crossfire, weil man die Karte damit in Bereiche drückt, die MR begünstigen?

50-60fps sind eigentlich spielbar könnte man meinen...bei TriCrossfire gilt das aber nicht.

HarryHirsch
2009-12-28, 15:43:16
@Blaire

Frametimes mit Tri und 16xSGSSAA / 16xMSAA hätten mich noch interessiert.
Naja nu is zu spät.

Ronny145
2009-12-28, 15:53:43
Mikroruckler haben laut AMD nicht die höchste Priorität. Aber solange sich weiterhin so gut wie keine reviewer Seite oder Magazin beschwert, wird sich kaum was dran ändern. Am deutlichsten wurde bisher die Gamestar, das muss man sich mal geben.

Blaire
2009-12-28, 15:57:04
@Blaire

Frametimes mit Tri und 16xSGSSAA / 16xMSAA hätten mich noch interessiert.
Naja nu is zu spät.

Jo die sind weg... 16xSGSSAA ohne AFR lief da wo es funktionerte ganz gut. Wenn man allerdings drei Karten im Rechner hat, arbeiten nur 2 statt 3 Karten...was natürlich dann wenig Sinn machte. :freak:

tombman
2009-12-28, 16:04:28
Brutal, so schlimm hätte ich nicht gedacht...
Blaire, hast du mal probiert, die Cpu absichtlich runterzutakten um ein künstliches Limit zu schaffen? Das hätte MR klllen können. (bei geringem fps Verlust)

Blaire
2009-12-28, 16:05:00
Mikroruckler haben laut AMD nicht die höchste Priorität. Aber solange sich weiterhin so gut wie keine reviewer Seite oder Magazin beschwert, wird sich kaum was dran ändern. Am deutlichsten wurde bisher die Gamestar, das muss man sich mal geben.

Hauptsache lange Balken wie es um die Spielbarkeit aussieht interessiert kaum jemanden da braucht man nur mal die Foren lesen wenn ich z.b. sowas hier lese: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7736666&postcount=642 biegen sich mir die Nackenhaare nach oben weil es so typisch ist Hauptsache Schwanzmarktpunkte der Rest spielt keine Rolle...ich hatte ja vorher mit vielem gerechnet, aber so krass hät ich mir TriCrossfire nicht vorgestellt...wie das erst mit Quadfire aussieht mag ich mir besser nicht vorstelln...

Gast
2009-12-28, 16:09:30
wenn ich z.b. sowas hier lese: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7736666&postcount=642 biegen sich mir die Nackenhaare nach oben weil es so typisch ist Hauptsache Schwanzmarktpunkte der Rest spielt keine Rolle...ich hatte ja vorher mit vielem gerechnet, aber so krass hät ich mir TriCrossfire nicht vorgestellt...wie das erst mit Quadfire aussieht mag ich mir besser nicht vorstelln...

Wieso? Bei SingleGPU gibts ja eh kein MR...

Blaire
2009-12-28, 16:12:41
Wieso? Bei SingleGPU gibts ja eh kein MR...

Aber so denken viele...völlig egal ob Single oder MultiGPU und darauf zielen Ati/NV natürlich ab Hauptsache die Punktzahl passt.

Gummikuh
2009-12-28, 16:22:58
Aber solange sich weiterhin so gut wie keine reviewer Seite oder Magazin beschwert, wird sich kaum was dran ändern. Am deutlichsten wurde bisher die Gamestar, das muss man sich mal geben.

In der PCGH war auch mal ein sehr ausführlicher Bericht bzw. Vergleich zw. SLI und CF. (also bezogen auf die Mikroruckler)

derguru
2009-12-28, 16:29:37
selbst schuld blaire,hab dir gleich gesagt das triple suckt.

und wenn du sagst du hattest mit einem triple sli nur 10fps weniger dann sollte dir klar gewesen sein das triple cf gar nicht ging und gleich eine karte raus nehmen können.

HarryHirsch
2009-12-28, 16:32:36
Dieser eine Gast hier hat doch Quad CF. Ob der eventl. Frametimes mit 16xAA liefern kann?
Oder wie sieht es mit der PCGH aus.

Blaire
2009-12-28, 16:34:48
selbst schuld blaire,hab dir gleich gesagt das triple suckt.

Erfahrungen muss man halt selber sammeln. Die Skalierung war eigentlich ganz ok...nur das was am Ende am Bildschirm ankam war der blanke Horror. :D

Ronny145
2009-12-28, 16:37:15
Dieser eine Gast hier hat doch Quad CF. Ob der eventl. Frametimes mit 16xAA liefern kann?
Oder wie sieht es mit der PCGH aus.

Der Gast ist zocker28, kannst ihn ja mal selber fragen.

http://www.hardwareluxx.de/community/showthread.php?t=670321

derguru
2009-12-28, 16:37:48
bevor jetzt alle cf verfluchen das macht erst richtig ärger mit einem triple,bei 2 karten ist es nicht mal ansatzweise so schlimm.

und blaire, wenn du sagst du hattest mit einem triple sli nur 10fps weniger dann sollte dir klar gewesen sein das triple cf gar nicht ging und gleich eine karte raus nehmen können.

Exxtreme
2009-12-28, 16:41:11
Mikroruckler haben laut AMD nicht die höchste Priorität. Aber solange sich weiterhin so gut wie keine reviewer Seite oder Magazin beschwert, wird sich kaum was dran ändern. Am deutlichsten wurde bisher die Gamestar, das muss man sich mal geben.
Ich würde eher sagen, man steckt keine Energie/Resourcen in sinnlose Unterfangen hinein. ;-)

HarryHirsch
2009-12-28, 16:48:44
Der Gast ist zocker28, kannst ihn ja mal selber fragen.

http://www.hardwareluxx.de/community/showthread.php?t=670321

Aso, dann hat sich das erledigt. :freak:

Nen Test bringt glaube ich eh nix, kann ja eigentlich nur über AFR laufen. (pro Frame 2 Karten)

Blaire
2009-12-28, 17:03:51
und blaire, wenn du sagst du hattest mit einem triple sli nur 10fps weniger dann sollte dir klar gewesen sein das triple cf gar nicht ging und gleich eine karte raus nehmen können.

Wozu ausbaun? Man kann CrossfireX abschalten per CCC, oder auf zwei oder mehrere GPUs einzeln selektieren. Mit drei 5870 hatte ich nahezu optimale Skalierung@2560x1600 (45-55fps mit 3x5870, 15-20fps@1x5870) das skalierte schon sehr gut. In Crysis sind die Nvidia Karten sehr stark bzw. da war nicht viel Unterschied.

derguru
2009-12-28, 17:14:50
wieso hast du eigentlich keine benchmarks gemacht,jetzt nicht nur crysis sondern das ganze programm?

Blaire
2009-12-28, 17:36:09
wieso hast du eigentlich keine benchmarks gemacht,jetzt nicht nur crysis sondern das ganze programm?

Weil ich recht schnell du der Entscheidung kam, den Kram schnell wieder loszueisen. ;) Ein paar Benchmarks hab ich aber trotzdem gemacht, aber halt nicht gepostet.

Gast
2009-12-28, 20:12:06
dann zeig mal was du gebencht hast:

OS
Treiber
CPU
Board

bitte mit angeben.

HD-Ronny
2009-12-28, 20:23:18
Nachdem mein Dealer mir meine bestellte 5850 anstatt für 219 für 299 verkaufen will werde ich noch etwas abwarten... (Bora Computer)
Alleine die Liefersituation treibt mich wieder zurück zu Nvidia. Zum Glück reicht meine 4870 1Gb noch so eben aus um alle aktuellen Games in FullHD zu spielen.

Gast
2009-12-29, 04:49:03
Alleine die Liefersituation treibt mich wieder zurück zu Nvidia.

Hö? Die haben doch auch nix aufzubieten ^^

Gast
2009-12-29, 10:08:40
Lass Ihn doch...
Er muss halt mal grünen Frust abbauen:)

tombman
2009-12-29, 10:35:31
Aso, dann hat sich das erledigt. :freak:

Rofl- aber so is richtig bei dem Heini: :uattack4:

Ich kenne Blaire schon länger, und wenn der sagt, daß CF und vorallem CF-X Mikroruckler from HELL hat, dann glaub ich ihm das ;)

Und was hätte es ihm gebracht, hätte er das hier mit benchmarks, listings etc dokumentiert? Haufenweise flames von den Fan-Boyen, mehr nicht- beigestanden wär ihm eh fast keiner...

Gast
2009-12-29, 10:55:58
Das glaub ich eher nicht. Ich habe selbst CF und glaube Ihm sofort dass Das wohl üble "Mikroruckler" gibt. Nur ist es doch eher so, dass es selbst Hier kaum jemand intressiert ob Triplecrossfire toll oder Schrott ist.

reunion
2009-12-29, 10:57:45
Mir ist schon klar, dass ich in den Augen eines Nichtneutralen niemals neutral wirke. Auch klar ist, dass ich mir viele Feinde mache, wenn ich gegen Ati-Sympathisanten vorgehe. Und trotzdem bin ich hier unparteiisch – ich sage dir auch gerne, warum: Mein "Herz" schlägt für einen Hersteller, der längst unter der Erde ist. Das macht mich in aktuellen Schlachten überlegen. ;)

MfG,
Raff

Du flamst aber nie Leute wie LS an, du unterstützt sie höchstens. Auch wenn du es nicht zugeben willst. Das schöne an Personen ist ja das sie berechenbar sind. Genau so wie ich schon vorher wusste das Blaire niemals glücklich werden würde mit seinen 5870-Karten oder Schlammsau niemals glücklich werden würde mit seiner GTX275. Auch wenn ich weiß das du jetzt gleich wieder schreiben wirst wie neutral du nicht bist, denn Personen sind eben berechenbar. ;)

Raff
2009-12-29, 11:17:07
Du flamst aber nie Leute wie LS an, du unterstützt sie höchstens. Auch wenn du es nicht zugeben willst. Das schöne an Personen ist ja das sie berechenbar sind. Genau so wie ich schon vorher wusste das Blaire niemals glücklich werden würde mit seinen 5870-Karten oder Schlammsau niemals glücklich werden würde mit seiner GTX275. Auch wenn ich weiß das du jetzt gleich wieder schreiben wirst wie neutral du nicht bist, denn Personen sind eben berechenbar. ;)

Ich denke, ich habe genug zu dem Thema gesagt. Hier reden sowieso nur Mauern miteinander.

MfG,
Raff

Gast
2009-12-29, 11:23:47
Rofl- aber so is richtig bei dem Heini: :uattack4:



Der Heini bist du, und kein anderer.

Exxtreme
2009-12-29, 11:24:44
Rofl- aber so is richtig bei dem Heini: :uattack4:

Ich kenne Blaire schon länger, und wenn der sagt, daß CF und vorallem CF-X Mikroruckler from HELL hat, dann glaub ich ihm das ;)

Hihihi, deswegen hole ich mir niemals irgendwelche SLI/CF-Lösungen. Ich kaufe immer die fetteste verfügbare Grafikkarte und lasse sie dann einzeln laufen. Dann habe ich nie Stress mit MR.

Und wie gesagt, MR bekommst du niemals gezielt weg denn es mehr oder weniger Zufall ob sie auftreten. Da reicht schon der Tausch einer CPU und sie sind weg/wieder da. Das ist ein systemimmanentes Problem und theoretisch nur mit einer Glaskugel zu lösen.

Ich habe aber durchaus Ideen wie man sie etwas abschwächen könnte.

TobiWahnKenobi
2009-12-29, 11:30:01
800.000 DX11-Radeons ausgeliefert

na, hoffentlich gibts genug ATI-freaks, die sich die dinger auch kaufen wollen.. nicht dass die i-wo blöd rumliegen und einstauben..


guten rutsch!


(..)

mfg
tobi

Gast
2009-12-29, 11:58:12
Ja man durch dieses Krasse Überangebot könnte man schon auf die Idee kommen...

Gast
2009-12-29, 12:43:01
Rofl- aber so is richtig bei dem Heini: :uattack4:

Ich kenne Blaire schon länger, und wenn der sagt, daß CF und vorallem CF-X Mikroruckler from HELL hat, dann glaub ich ihm das ;)


Ich hatte damals diesen Blaire vorgeschlagen, seine Triple-SLI Benches mit Frame-Fraps in Spasstigers Thread über den Mikroruckler-faktor einzutragen.
ich habs mit meinem TriCross getan, er nicht , also keine Vergleichswerte => seine Beiträge über Atis "schlechte" Mikroruckler kannste in die Tonne kloppen,

ZÜNDELholz

Gast
2009-12-29, 13:00:17
wieso hast du eigentlich keine benchmarks gemacht,jetzt nicht nur crysis sondern das ganze programm?

Ihm ist anscheinend ganz schnell klar geworden, dass die "1Gb Vram-Krücken " bei Triple SLI mit gefahrenen 2560x1600 eine absolute Fehlinvestition war und aufgrund der geboteten Mondpreise die Teile noch schnell verkloppt wurden.

Gast
2009-12-29, 13:05:19
MR from Hell sagter, na sicher.......

http://www.youtube.com/watch?v=axRFWfcWarY

Exxtreme
2009-12-29, 13:18:46
MR from Hell sagter, na sicher.......

http://www.youtube.com/watch?v=axRFWfcWarY
Es ist mehr oder weniger Zufall ob sie auftreten oder nicht. Hängt vom restlichen System, vom Spiel und von der Last auf der Grafikkarte ab.

Gast
2009-12-29, 13:29:57
Es ist mehr oder weniger Zufall ob sie auftreten oder nicht. Hängt vom restlichen System, vom Spiel und von der Last auf der Grafikkarte ab.

Zufall?

Da bin ich anderer Meinung, entweder Ssind MR da oder ebend nicht udn bei AFR sind sie immer da.

Aber wie gesagt, bei 30 FPS nur ist auch sehr schwer 4 solche Karten auf 30 FPS zu zwingen mi den heutigen Spielen.

Das Video ist mit 8xSGSAA und 1920x1080, TFTs die 2500er Auflösung können hat nur eine Hand voll wenn überhaupt.

Exxtreme
2009-12-29, 13:47:07
Zufall?

Da bin ich anderer Meinung, entweder Ssind MR da oder ebend nicht udn bei AFR sind sie immer da.

Die Frage bleibt jetzt hier ob man sie sieht oder nicht. MR können zwar messbar da sein aber nicht unbedingt wahrnehmbar. Und ob sie wahrnehmbar sind oder nicht hängt eben von einigen Faktoren ab. Der Treiber kann da nix ausrichten da er MR nicht verhindern kann. Um sie zu verhindern müsste man eine Wartezeit beim Wechsel der Grafikkarten einfügen. Nur unterscheidet sich die optimale Wartezeit auch wieder vom Content, den die Grafikkarten zu berechnen haben. Pauschal eine Wartezeit einzufügen ist deshalb auch Bullshit. Nur lässt sich die optimale Wartezeit gar nicht ermitteln da man sie schon kennen müsste bevor eine Grafikkarte mit dem Bild fertig ist. Das wäre eben der Glaskugel-Faktor. Man könnte wiederum die Zeit messen wie lange die Grafikkarten für die Frames brauchen und diese Zeiten verwenden. Nur werden diese auch nicht mehr optimal sein. Könnte aber eine Linderung bringen. Würde aber u.U. Leistung kosten und das beisst sich mit dem Zweck dieser Marketing-Lösungen.

Blaire
2009-12-29, 15:51:54
Ich hatte damals diesen Blaire vorgeschlagen, seine Triple-SLI Benches mit Frame-Fraps in Spasstigers Thread über den Mikroruckler-faktor einzutragen.
ZÜNDELholz

Dann zeige uns doch bitte mal wo du das von mir gefordert hast? Davon wüsste ich aber...

Blaire
2009-12-29, 15:53:29
Ich denke, ich habe genug zu dem Thema gesagt. Hier reden sowieso nur Mauern miteinander.


Korrekt,wie immer die üblichen Verdächtigen die garnicht mitreden können da sie keine zwei Systeme wie SLI/CF je miteinander verglichen haben.

Blaire
2009-12-29, 16:10:16
MR from Hell sagter, na sicher.......

http://www.youtube.com/watch?v=axRFWfcWarY

Was willst du denn damit aufzeigen? Man sieht in einem 30FPS Video weder Mikroruckler noch Inputlag. :freak:

Genau so wie ich schon vorher wusste das Blaire niemals glücklich werden würde mit seinen 5870-Karten

Als Singlecard ist die HD5870 sehr gut...

Raff
2009-12-29, 16:41:23
Was willst du denn damit aufzeigen? Man sieht in einem 30FPS Video weder Mikroruckler noch Inputlag. :freak:

Crysis ist einer der Fälle, wo das Mikroruckeln akzeptabel wegoptimiert wurde – der Inputlag aber nicht (das ist auch unmöglich). Der soll mal Call of Duty 5/6 anwerfen und mit Suprasampling keulen, dann gruselt Quad-Crossfire schon bei 60 Fps.

MfG,
Raff

Gast
2009-12-29, 17:26:55
Crysis ist einer der Fälle, wo das Mikroruckeln akzeptabel wegoptimiert wurde – der Inputlag aber nicht (das ist auch unmöglich). Der soll mal Call of Duty 5/6 anwerfen und mit Suprasampling keulen, dann gruselt Quad-Crossfire schon bei 60 Fps.

MfG,
Raff

mhh na Klar ganau sicher :ugyl:

schlag noch 120 drauf dann könntest du recht haben.

Ich mach auch gern ein Video wenn du möchtest....................

Raff
2009-12-29, 17:32:52
Das ist nicht nötig, da du gewiss wieder Rosinenpickerei betreibst. Abgesehen davon kriegt man den Mist nie zufriedenstellend auf ein Video, selbst wenn das mit 60 Fps aufgenommen wurde. Man muss mit so einem Gespann spielen, fühlen, dass die Eingabereaktion der eigenen Motorik um Welten hinterherhinkt. Da muss man auch nicht lange rechnen: Die Verzögerung bei 4 GPUs ist viermal so lang wie mit einer (ergo bei 60 Fps so groß wie bei 15 Fps auf einer Single-GPU).

MfG,
Raff

Schlammsau
2009-12-29, 17:36:27
Da hat Raff recht.....der Inpulag ist mit 2 Karten unter 25fps schon grenzwertig!
Habs selber erlebt, hatte ein CF mit 2 HD3870. Und Crysis, war unspielbar.
Möchte gar nicht dran denken, wie sich 4 GPUs anfühlen. :freak:

Daredevil
2009-12-29, 17:39:12
Abgesehen davon kriegt man den Mist nie zufriedenstellend auf ein Video, selbst wenn das mit 60 Fps aufgenommen wurde.
Wasn hiermit? Sieht doch ganz deutlich und erkennbar aus.

http://www.youtube.com/watch?v=MwSrSditFWA
http://www.youtube.com/watch?v=P1yMsn4GfwU ( PCGH )

derguru
2009-12-29, 17:43:33
far cry 2 ist aber bs,ich hab die erfahrung gemacht das es bei dem bench auch mit einer karte ruckelt ohne ende.jedenfalls hat das mit dem klassischen mikrorucklern nichts zutun.das spiel liegt den ati karten überhaupt nicht.

stalker hat doch ohne ende nachlade ruckler(gerade dort die stelle) und ob das video mikroruckler aufweisen tut bezweifel ich abgesehen von der schlechten qualität.

ich streite mikroruckler nicht ab aber die beiden videos beweisen gar nichts.

Daredevil
2009-12-29, 17:51:03
Achso, SingleGPU Mikroruckeln hatte ich bei CoD4 auch mal, dann ist das wohl sowas, evtl. ja sogar ein wenig verstärkt. :usad:
Ich mein...... das is Quad Crossfire, da weiß man ja nie. ;D

ZÜNDELholz
2009-12-29, 17:56:47
Dann zeige uns doch bitte mal wo du das von mir gefordert hast? Davon wüsste ich aber...

Ich kann gerne die PN an Dich , vom 2009-04-03, 20:33:49, einstellen.

Gast
2009-12-29, 18:04:43
Das ist nicht nötig, da du gewiss wieder Rosinenpickerei betreibst.

ja natürlich, war ja völlig klar :rolleyes:

Die Verzögerung bei 4 GPUs ist viermal so lang wie mit einer (ergo bei 60 Fps so groß wie bei 15 Fps auf einer Single-GPU).

MfG,
Raff

schöne theorie, ist aber nicht so wie du sagst.....

Da hat Raff recht.....der Inpulag ist mit 2 Karten unter 25fps schon grenzwertig!
Habs selber erlebt, hatte ein CF mit 2 HD3870. Und Crysis, war unspielbar.
Möchte gar nicht dran denken, wie sich 4 GPUs anfühlen. :freak:

das kannst du nicht vergleichen mit 5800er CF, die treiber haben sich Extrem verbessert und mit 3870 CF wars wirklich nicht toll.

Stell mich als bekloppt hin oder sonstwie, mit 3 Grakas ist es in der tat nicht sooo prickelnt mit 4 sieht die Welt schon wieder anders aus.

Ja ich weiss Fb und so weiss jetzt was kommt.......

Input-lag liegt ja auch an dem Monitor den man verwendet der DELL 30" ist sowieso Abfall da kann ich das bestätigen deshalb hab ich den auch schnell wieder verkauft das scheiss Ding ;)

Wasn hiermit? Sieht doch ganz deutlich und erkennbar aus.

http://www.youtube.com/watch?v=MwSrSditFWA
http://www.youtube.com/watch?v=P1yMsn4GfwU ( PCGH )

lustig sind auch die commis bei Video 2 :ugly:

[B]@Sophosaurus hast zwar nich ganz unrecht aba musst ja nich gleich so frech werden, auch wenn die von PCGH ziemlich....naja du weist schon..sind.[B]

Ronny145
2009-12-29, 18:25:19
[B]@Sophosaurus hast zwar nich ganz unrecht aba musst ja nich gleich so frech werden, auch wenn die von PCGH ziemlich....naja du weist schon..sind.[B]


Der trieb mal bei computerbase und forumbase sein Unwesen, schon lange gebannt. Das war ein Troll. :freak:

Raff
2009-12-29, 19:08:35
schöne theorie, ist aber nicht so wie du sagst.....

Nix Theorie, das ist die traurige Realität, hervorgerufen durch die AFR-Rendermethode. Zwei GPUs laggen bereits fühlbar, drei und vier sind für den durchschnittlichen Spieler bereits inakzeptabel. Vor allem mit Triple-Buffering ist der/die/das Lag dann direkt aus der Hölle. Versuch mal, einem High-Senser ein MGPU-Setup anzudrehen. Der wird dich auslachen und abwiegeln. ;)

[B]@Sophosaurus hast zwar nich ganz unrecht aba musst ja nich gleich so frech werden, auch wenn die von PCGH ziemlich....naja du weist schon..sind.[B]

... unangenehm sind. Richtig? Ja, es kann schon stören, wenn ein Medium nicht nur lobt, sondern Mist kritisiert und davon abrät.

MfG,
Raff

Gast
2009-12-29, 20:49:04
Nix Theorie, das ist die traurige Realität, hervorgerufen durch die AFR-Rendermethode. Zwei GPUs laggen bereits fühlbar, drei und vier sind für den durchschnittlichen Spieler bereits inakzeptabel. Vor allem mit Triple-Buffering ist der/die/das Lag dann direkt aus der Hölle. Versuch mal, einem High-Senser ein MGPU-Setup anzudrehen. Der wird dich auslachen und abwiegeln. ;)


ach hör doch auf...........

Versuch mal, einem High-Senser ein MGPU-Setup anzudrehen. Der wird dich auslachen und abwiegeln. ;)


was bitte ?

hier deine 60 FPS mit 8xSGSAA :lol:

http://www.youtube.com/watch?v=h3uk0emmVEg

Raff
2009-12-29, 21:11:11
Was soll das Video zeigen? Dass bei 120 Fps kein Mikroruckeln zu sehen ist? Glückwunsch, das ist gelungen. Meine Aussage da oben sollte sagen: Bei 60 Fps sind Mikroruckeln und Inputlag bei 4 GPUs sicht- und fühlbar.

MfG,
Raff

PS: Was läuft da für ein toller Film im Hintergrund? :D
PPS: Könntest du beim nächsten Video mal reingrinsen?

Gast
2009-12-29, 21:47:03
Das sollte dir nur zeigen das ich keine 60 FPS mit Quadcrossfire hab so wie du es gesagt hast, das die CAM keien MR aufnimmt ist völlig klar (wenn ich bei 60 welche hätte was nicht der fall ist).

Und im Hintergrund schaut meine Frau TV^^

derguru
2009-12-29, 21:49:30
welche maus hast du?

Gast
2009-12-29, 21:51:56
Sharkoon Fireglider^^ zZ

Sonst MX Revolution aber ist RMA :(

Gast
2009-12-30, 02:18:05
Das sollte dir nur zeigen das ich keine 60 FPS mit Quadcrossfire hab so wie du es gesagt hast, das die CAM keien MR aufnimmt ist völlig klar (wenn ich bei 60 welche hätte was nicht der fall ist).


Das Game hat auch keine hohen Anforderungen und bei deiner MickeyMouse Auflösung schon überhaupt nicht.

Lawmachine79
2009-12-30, 03:22:59
Nix Theorie, das ist die traurige Realität, hervorgerufen durch die AFR-Rendermethode. Zwei GPUs laggen bereits fühlbar, drei und vier sind für den durchschnittlichen Spieler bereits inakzeptabel. Vor allem mit Triple-Buffering ist der/die/das Lag dann direkt aus der Hölle. Versuch mal, einem High-Senser ein MGPU-Setup anzudrehen. Der wird dich auslachen und abwiegeln. ;)



... unangenehm sind. Richtig? Ja, es kann schon stören, wenn ein Medium nicht nur lobt, sondern Mist kritisiert und davon abrät.

MfG,
Raff
Wieso nimmt man nicht die SLI-Methode der Voodoo-Karten?

mapel110
2009-12-30, 03:32:45
Wieso nimmt man nicht die SLI-Methode der Voodoo-Karten?
Es gibt ja SFR aktuell. Split Frame Rendering. Da wird das Bild in zwei halbwegs gleiche Hälften geteilt. Aber das ist eben nicht so effizient wie AFR.
Das alte SLI lässt sich afaik nicht mit den neuen Renderverfahren vereinbaren.

=Floi=
2009-12-30, 04:16:36
http://www.hardwareluxx.de/community/showthread.php?t=670321:uban:
zitat
5850 @ 5870 Bios 850/1200

ja klar und die 5850er hat keine deaktivierten einheiten. ;D
man bräuchte theoretisch um die 950mhz bei der 5850er um gleich zu ziehen. wenn man sich schon da in die eigene tasche lügt, dann ist eh alles zu spät. :rolleyes::uclap: Solch ein schönreden kannst du dir auch sparen.

edit
Hoffentlich wirst du dafür gesperrt (http://www.hardwareluxx.de/community/showpost.php?p=13630927&postcount=176)

edit2
mit 2 5870 @ 1ghz sollte man besser skalieren und weniger probleme haben wie mit 3 5850er.

Simon Moon
2009-12-30, 05:14:07
Das alte SLI lässt sich afaik nicht mit den neuen Renderverfahren vereinbaren.

Jupp. Die Voodoos rechnete jede Karte abwechselnd eine Zeile. Da neue karten aber gleich vierer Blöcke auf einmal berechnen, schliesst sich das mit diesem Verfahren aus.
Zudem ist SLI wohl insoferm SFR unterlegen, als das die gesamten Geometrie-Daten auf beiden Karten verfügbar sein muss, während es den Vorteil hat, dass die Karten wohl gleichmässiger ausgelastet werden.

Gast
2009-12-30, 08:07:22
Simon Moon,

Auch wenn das 3dfx'sche Verfahren Scan-Line Interleave heißt, so wurden doch keine einzelnen Zeilen sondern Zeilenblöcke berechnet. Das ist nicht der Grund, warum man es heute nicht benutzt, sondern die Inkompatibilität bzw. der geringe Leistungsgewinn in Verbindung mit dem allseits beliebten "Post-Processing".

horn 12
2009-12-30, 11:00:21
Eine HD5850 @850/1200 als Standard Taktraten ist ca. 5-8% langsamer als eine HD5870 nicht übertaktet.
Die fehlenden Einheiten der HD5850 scheinen weit weniger auszumachen als es zuerst aufscheint, oder aber ATI behält sich für die 5870 noch einen Ass im ÄRMEL und bringt da nochmals 10-15% mehr Leistung bei der 70-er Karte.

Wir werden sehen...

=Floi=
2009-12-30, 15:14:19
scheinbar kommt der sheduler damit besser klar und lastet die verbliebenen einheiten einfach besser aus. so etwas kann man natürlich nicht vorhersehen... (oder es wird nicht so viel shaderleistung benötigt) Auf dem papier stehen auch 2gflop gegen 2,7 gflop!
ich verlasse mich da eben auf die theorie und nach derer bräuchte man ungefähr diese 950mhz und die theoretischen werte der 5870er zu schlagen. :rolleyes:

die 70er hat eher ein massives auslastungsproblem und bringt die (rechen)power nicht auf den boden. hat jemand 3dmark perlin noise benchmarks zur hand?

edit
http://www.bit-tech.net/hardware/graphics/2009/09/30/ati-radeon-hd-5870-architecture-analysis/9
alter schwede da wischt ati aber den boden mit der 285er auf. :eek:

Simon Moon
2010-01-01, 06:22:32
Simon Moon,

Auch wenn das 3dfx'sche Verfahren Scan-Line Interleave heißt, so wurden doch keine einzelnen Zeilen sondern Zeilenblöcke berechnet. Das ist nicht der Grund, warum man es heute nicht benutzt, sondern die Inkompatibilität bzw. der geringe Leistungsgewinn in Verbindung mit dem allseits beliebten "Post-Processing".

Quelle? Überall wo ich bisher gelesen habe, stand es so beschrieben. Quads wurden afair auch erst viel Später berechnet, ab NV40 oder G7x etwa.
Mit nur 2 Pixelipelines kann sie ja auch garkeine Blöcke in einem Durchlauf rendern.

Gast
2010-01-01, 10:28:18
scheinbar kommt der sheduler damit besser klar und lastet die verbliebenen einheiten einfach besser aus. so etwas kann man natürlich nicht vorhersehen... (oder es wird nicht so viel shaderleistung benötigt) Auf dem papier stehen auch 2gflop gegen 2,7 gflop!
ich verlasse mich da eben auf die theorie und nach derer bräuchte man ungefähr diese 950mhz und die theoretischen werte der 5870er zu schlagen. :rolleyes:

die 70er hat eher ein massives auslastungsproblem und bringt die (rechen)power nicht auf den boden. hat jemand 3dmark perlin noise benchmarks zur hand?

edit
http://www.bit-tech.net/hardware/graphics/2009/09/30/ati-radeon-hd-5870-architecture-analysis/9
alter schwede da wischt ati aber den boden mit der 285er auf. :eek:


manman, ihr braucht doch nur zb. mal SSAA einzustellen und die 50er vis 70er vergleichen, da seht ihr den Unterschied, das ist ne Welt.

AnarchX
2010-01-07, 11:30:29
Mittlerweile will man bei 2 Millionen angekommen sein:
LAS VEGAS--(BUSINESS WIRE)--At the 2010 Consumer Electronics Show (CES), AMD (NYSE: AMD - News) today announced the shipment of its two millionth DirectX® 11-capable graphics processor to its technology partners, cementing AMD graphics as the standard for DirectX® 11 computing
http://finance.yahoo.com/news/Millions-of-DirectX-11-bw-842239554.html?x=0&.v=1

reunion
2010-01-07, 11:47:35
Da sind dann wohl auch schon die kleinen, noch nicht vorgestellten Cedar und Redwood Chips dabei. Aber das auch bei Juniper und Cypress die Stückzahlen jetzt deutlich zunehmen ist offensichtlich. Und es dauert ja doch einige Zeit bis das die verkauften Chips dann auch auf die Karten und dann in den Handel kommen.

Sorkalm
2010-01-07, 12:20:13
Die 2 Millionen jetzt beziehen sich aber auch auf GPUs die AMD an seine Partner ausgeliefert hat, die 800.000 waren doch die Grafikkarten die die Partner ausgeliefert haben (an Händler), das ist doch ebenfalls ein wichtiger Unterschied.

Gast
2010-01-07, 12:24:17
Die 2 Millionen jetzt beziehen sich aber auch auf GPUs die AMD an seine Partner ausgeliefert hat, die 800.000 waren doch die Grafikkarten die die Partner ausgeliefert haben (an Händler), das ist doch ebenfalls ein wichtiger Unterschied.

Für AMD selbst nicht...

reunion
2010-01-07, 12:26:00
Die 2 Millionen jetzt beziehen sich aber auch auf GPUs die AMD an seine Partner ausgeliefert hat, die 800.000 waren doch die Grafikkarten die die Partner ausgeliefert haben (an Händler), das ist doch ebenfalls ein wichtiger Unterschied.

Wie kommst du darauf? AFAIK ging es immer nur um ausgelieferte Chips (an die Partner). Wieviele Karten jeder Partner im Detail an die Händler ausgeliefert hat dürfte AMD kaum wissen.

Ronny145
2010-01-07, 12:27:48
Die 2 Millionen jetzt beziehen sich aber auch auf GPUs die AMD an seine Partner ausgeliefert hat, die 800.000 waren doch die Grafikkarten die die Partner ausgeliefert haben (an Händler), das ist doch ebenfalls ein wichtiger Unterschied.


Quelle? Im Link ist die Rede von graphics processing units (GPUs), hört sich nicht nach Karten an.

Sorkalm
2010-01-07, 12:33:40
Wie kommst du darauf? AFAIK ging es immer nur um ausgelieferte Chips (an die Partner). Wieviele Karten jeder Partner im Detail an die Händler ausgeliefert hat dürfte AMD kaum wissen.

Schein mich wohl zu täuschen, die erste Meldung hier im Thread spricht auch von GPUs. Komisch, hatte das anders in Erinnerung.


Naja, sofern die Partner da Zahlen mitteilen, was ich nicht völlig ausgeschlossen halte, zumindest für die Anfangszeit, könnte so eine Meldung schon kommen. Aber sieht wohl nicht so aus.


Dann ist das innerhalb der kurzen Zeit, von 800.000 auf 2 Millionen, schon eine sehr deutliche Steigerung...

mapel110
2010-01-12, 07:04:25
Zitate von Dave Baumann:
Originally Posted by Rys
Over 2 million DX11, with very much the lion's share going to Juniper so far. I'm sure the number is too low, but it wouldn't surprise me if it was close at times in the recent past, given availability problems for Cypress.

~2:1 ratio.

The 800K number was a bit of a quick swag and was probably undercutting things. The 2M number is a calculated, ratified and press released number.

Gast
2010-01-12, 13:02:31
Dann ist das innerhalb der kurzen Zeit, von 800.000 auf 2 Millionen, schon eine sehr deutliche Steigerung...

Naja guck mal wieviel Shops imo ne 5870 auf Lager haben und wieviel das noch vor 3-4 Wochen waren.........

Sorkalm
2010-01-12, 13:50:52
Naja guck mal wieviel Shops imo ne 5870 auf Lager haben und wieviel das noch vor 3-4 Wochen waren.........

Ist schon mehr ja, aber von normalen Zuständen ist man immer noch ein ganzes Stück entfernt, womit ich denke das auch heute noch nicht so viel auf Zwischenstationen herumliegt.

Nehalem
2010-01-12, 16:19:46
Ich halte die Meldung für ziemlich realistisch - zumal wirklich nicht übertrieben. Tatsächlich hätte bestimmt mehr Nachfrage bestanden, dass es Lieferschwierigkeiten gab dürfte aber sowieso jedem hier bekannt gewesen sein.

Da aber auch Nvidia angeblich Probleme mit der Produktion hatte gebe ich diese Runde des "Grafikkarten-Battles" diesmal an ATI ab. Obgleich die neuen Nvidia-Chips wahrscheinlich performancestärker sein werden.

Fraglich nur ob Nvidia tatsächlich Probleme in der Entwicklung hatte - oder ob diese "Verspätung" einfach inoffizieller Teil des Vergleichs war, den beide Firmen im Zuge der gerichtlichen Auseinandersetzungen getroffen haben.

ATI hat indes ja bereits mobile DX11-Chips angekündigt.

Ronny145
2010-01-12, 16:24:40
Fraglich nur ob Nvidia tatsächlich Probleme in der Entwicklung hatte - oder ob diese "Verspätung" einfach inoffizieller Teil des Vergleichs war, den beide Firmen im Zuge der gerichtlichen Auseinandersetzungen getroffen haben.



Welchen Vergleich zwischen NVIDIA meinst du?

Dural
2010-01-18, 18:25:58
NV über 40nm GPUs:

nachdem man nach eigenen Angaben bereits 10 Millionen 40nm-GPUs ausgeliefert habe.

http://www.pcgameshardware.de/aid,703239/Fermi-GF100-im-Technik-TUeV-Kommentare-zu-Architekturdetails-Bildqualitaet-und-Benchmarks/Grafikkarte/Test/?page=5

das dürften also wohl nur die drei GT215/GT216/GT218 sein, was anderes haben sie in ja 40nm noch gar nicht.

Schlammsau
2010-01-18, 18:29:53
NV über 40nm GPUs:



http://www.pcgameshardware.de/aid,703239/Fermi-GF100-im-Technik-TUeV-Kommentare-zu-Architekturdetails-Bildqualitaet-und-Benchmarks/Grafikkarte/Test/?page=5

das dürften also wohl nur die drei GT215/GT216/GT218 sein, was anderes haben sie in ja 40nm noch gar nicht.

:| 10 Millionen? Ich glaub die haben sich um eine 0 vertan!

Coda
2010-01-18, 18:37:49
Das Zeug läuft bei den OEMs wohl ziemlich gut. Wundert mich ehrlich gesagt nicht.

mapel110
2010-01-18, 18:42:24
:| 10 Millionen? Ich glaub die haben sich um eine 0 vertan!
Das Zeug ist schon 9 Monate(oder gar länger) auf dem Markt und dürfte kaum Yield-Probleme haben. Sind nicht einige Notebook-Chips von nvidia auch schon 40nm Parts?!