PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - 2900Pro-Review-Thread


Seiten : [1] 2 3

dildo4u
2007-09-25, 18:48:26
tweaktown

http://www.tweaktown.com/reviews/1189/1/page_1_introduction/index.html

Polnischer PCLab Test übersetzt

http://www5.tranexp.com:2000/Translate/index.shtml?from=pol&to=eng&type=url&url=http%3A%2F%2Fpclab.pl%2Fart28806.html

Sentionline
2007-09-25, 19:23:16
Also, so wie ich das sehe ist die Karte im schnitt 30€ billiger und etwa 5% schneller als eine G80GTS. Und die D3D10 performance scheint auch ok zu sein. Kann an den 512Bit & 512MB Liegen (?). Also ein echtes schnäppchen...

Ich seh schon die GTS läute hier rumtrollen. Gefundenes fressen (Thread)...:rolleyes:

@dildo4u: Danke für die Links!

Botcruscher
2007-09-25, 19:33:00
Vorallem die mit der 320MB Version welche man schon bei CoD2 absolut ins Skat drücken kann.:|
Eine gute Karte, zu einem guten Preis.

Gast
2007-09-25, 19:40:32
Vorallem die mit der 320MB Version welche man schon bei CoD2 absolut ins Skat drücken kann.:|
Eine gute Karte, zu einem guten Preis.
Und bei WIC, Dirt, Stalker, Crysis, usw bitte nicht vergessen ;-)

LovesuckZ
2007-09-25, 20:20:18
Man sollte nicht nur nach Leistung gehen. Guck euch dochmal die Lautstärkemessung an. Viel Spaß bei der Turbine beim spielen.

Angiesan
2007-09-25, 20:30:40
Eine schöne Leistung zu einem sehr guten Preis.

Wenn das Ding nun noch leise wäre, hätte ich gleich mal eine für meinen HDCP bestellt.

Aber das könnte wirklich die die Karte der "neuen Generation" sein was die 7900GTO bei der alten Generation ist.

Ich denke wenn es da mal mehr Tests gibt wird der Markt den Preis auch gleich mal wieder in andere Regionen verschieben.

Finde ich gut, das sich Ati/AMD mit so einem Preisleistungsknaller zurückmeldet.

mrt
2007-09-25, 20:40:36
Es gibt mehr als genug Leute denen die Lautstärke BEIM Spielen egal ist, mir im übrigen auch. Wozu soll sie da auch leise sein wenn eh der Spielesound alles übertönt?
Idle Lautstärke ist interessant und die ist noch akzeptabel für viele.

Alles in Allem eine sehr gute Karte für das Geld!

Henroldus
2007-09-25, 20:40:55
Wenn das Ding nun noch leise wäre, hätte ich gleich mal eine für meinen HDCP bestellt.

:|
HTPC Home Theater PC wohl eher

HDCP ist der HD Kopierschutz

Gast
2007-09-25, 20:44:01
Es gibt mehr als genug Leute denen die Lautstärke BEIM Spielen egal ist, mir im übrigen auch. Wozu soll sie da auch leise sein wenn eh der Spielesound alles übertönt?


Klar, deine Nachbarn werden es dir danken.

Botcruscher
2007-09-25, 20:46:53
Man sollte nicht nur nach Leistung gehen. Guck euch dochmal die Lautstärkemessung an. Viel Spaß bei der Turbine beim spielen.


Die wirds auch mit brauchbarem Kühler geben.:rolleyes:

Sentionline
2007-09-25, 20:52:56
Man sollte nicht nur nach Leistung gehen. Guck euch dochmal die Lautstärkemessung an. Viel Spaß bei der Turbine beim spielen.
Nja, man kannst auch übertreiben. Silent ist die G80 auch nicht. Habs doch beim Kollegen erlebt. Und du spielst ein Spiel ohne Sound oder wie?

Gast
2007-09-25, 21:05:49
Nja, man kannst auch übertreiben. Silent ist die G80 auch nicht. Habs doch beim Kollegen erlebt. Und du spielst ein Spiel ohne Sound oder wie?

Die GTS ist unter Last kaum lauter als im IDLE. Die 8800GTX ist leicht aus meinem Gehäuse heraushörbar.
Ansonsten sollte man erstmal nachdenken, dass Sound nicht nur BummBumm bedeutet. Es soll auch in Spielen leise Momente geben. Oder man spielt auch mal Spät am Abend.

Gast
2007-09-25, 21:28:57
Dafür das die Karte zwischen der 8600GTS und 8800GTS positioniert werden soll läuft die Ausgezeichnet. Wenn jetzt noch Tests mit aktuellen Games kommen z.b. MOHA, Dirt, Stranglehold oder Bioshock, WIC, evt. Crysis-Demo wäre es nicht schlecht.

ATI is Back ;-)

Gast
2007-09-25, 22:13:11
Hallo zusammen,
ich hätte mal ne Frage zur Performance der 2900er Karten. Ja ich weiss wurde schon zigmal behandelt mit geflame hier und da...

Die Test geben ein sehr differenziertes Bild mal ist Karte schneller mal langsamer als die GTS Serie mit AF und AA hat sie Probleme etc.

Kann es sein das die Min FPS Werte sich gegenüber einer GTS besser sind?

Ich meine einen Test (Computerbase) über die neuen Treiber gelesen zu haben bez. Min Avg und Max FPS. Eigentlich interessieren ja die Min FPS Werte mit am meisten oder? Ich möchte ja wissen ob das Spiel ruckelt oder eben nicht. Genauer wäre ein Zeitl. Verlauf der Werte interessant. Wie oft wird bspw. 25 FPS Unterschritten. Man bekommt das Gefühl das die einzelnen Test ein Ergebnis erzielen wollen (Pro NV oder Pro ATI) und deshalb eigentlich die Testbedingungen nur sehr ungenau darlegen...

Vielleicht kann ja mal jemand Licht ins Dunkel bringen...

Gruß
Arek

Spasstiger
2007-09-25, 22:22:18
Und du spielst ein Spiel ohne Sound oder wie?
Gerade weil man mit Sound spielt, störts. Da ist das Rechnergeräusch ein permanentes Störgeräusch, das nicht zum Spielesound gehört. Würde man ohne Sound spielen, wäre es was anderes, dann wärs halt das Rechnergeräusch, welches aber keinen Einfluss auf das Spielen hat.

Gast
2007-09-25, 22:34:42
:|
HTP Home Theater PC wohl eher

HDCP ist der HD Kopierschutz
Wenn, dann schon HTPC. Und HDCP ist ein Signalschutz, kein Kopierschutz.
Aber die Gäste sind ja Vulgärkabular.

AnarchX
2007-09-25, 22:38:00
The 512MB model is clocked at 600MHz with 800MHz GDDR3 memory, and an AMD spokeswoman tells us the 1GB variant runs at 742MHz with 800MHz GDDR4 RAM.
http://techreport.com/discussions.x/13267

Eine 1GB 2900XT für 260€, verletzt man da wohl die Preisabsprachen mit NV? :D

Gast
2007-09-25, 22:55:42
warum ist die karte bei lost planet so schlecht? ob da noch was per treiber geht? nen bioshock test wäre auch schön gewesen ..

mike49
2007-09-25, 22:56:05
Eine 1GB 2900XT für 260€, verletzt man da wohl die Preisabsprachen mit NV? :D
Wow, die 1GB-Variante für ~ 250€ ist natürlich schon der Hammer:

http://geizhals.at/deutschland/?cat=gra16_512&bpmax=&asuch=2900&asd=on&pixonoff=off&sort=p

Komischerweise ist die bei geizhals noch mit 600/800 gelistet. Soll ja wohl scheinbar mit 742/800 kommen...

up¦²
2007-09-25, 22:59:11
Zack: lieferbar! :smile:
http://geizhals.at/eu/a283502.html

[dzp]Viper
2007-09-25, 23:00:57
http://techreport.com/discussions.x/13267

Eine 1GB 2900XT für 260€, verletzt man da wohl die Preisabsprachen mit NV? :D


Also das wäre dann der Burner - 1GB und dann noch die Taktraten der XT.. für 250-260€

Hossa die Waldfee :eek:

dildo4u
2007-09-25, 23:04:31
1GB die nix bringen weil das Ding wenn man die 1GB ausnutzen will mit AA und AF abkackt und eine solche Karte frisst noch mher Strom.

mike49
2007-09-25, 23:10:32
1GB die nix bringen weil das Ding wenn man die 1GB ausnutzen will mit AA und AF abkackt und eine solche Karte frisst noch mher Strom.
Die ~ 5-10W machen den Kohl auch nicht mehr fett. Außerdem ist die 1GB-Variante scheinbar ~ 20% höher getaktet (GPU). Und mehr als 3x so viel Speicher als eine GTS 320MB zum gleichen Preis hat schon was ;)

Wobei Du natürlich Recht hast: Am Ende zählt, was hinten rauskommt (= fps) und das wird wohl auch bei der 2900Pro mit 1GiB idR nicht nennenswert mehr sein als bei einer GTS...

[dzp]Viper
2007-09-25, 23:12:41
Die ~ 5-10W machen den Kohl auch nicht mehr fett. Außerdem ist die 1GB-Variante scheinbar ~ 20% höher getaktet (GPU). Und mehr als 3x so viel Speicher als eine GTS 320MB zum gleichen Preis hat schon was ;)

Wobei Du natürlich Recht hast: Am Ende zählt, was hinten rauskommt (= fps) und das wird wohl auch bei der 2900Pro mit 1GiB idR nicht nennenswert mehr sein als bei einer GTS...

mal die 1GB Versionsreviews abwarten

AnarchX
2007-09-25, 23:12:53
Aber eine 1GB FireGL durch Mod-Treiber für 260€ ist doch schon nett.

Auch so ist die hier gebotene Preisleistung, wenn es denn stimmt, eine Kampfansage, die NV hoffentlich mit entsprechenden GTS-Preisen erwiedern wird.;)

Gast
2007-09-25, 23:28:17
1GB die nix bringen weil das Ding wenn man die 1GB ausnutzen will mit AA und AF abkackt und eine solche Karte frisst noch mher Strom.
Du erzählst hier ein Blech lol. Ich kenne jetzt schon min.2 Games wo es einen größeren unterschied von 512 zu 1024 bei der 2900xt gibt in Games.
Und DDR4 verbraucht weniger da die Spannung niedriger ist.

LovesuckZ
2007-09-25, 23:30:42
Auch so ist die hier gebotene Preisleistung, wenn es denn stimmt, eine Kampfansage, die NV hoffentlich mit entsprechenden GTS-Preisen erwiedern wird.;)

Warum sollten sie? Der Zug für AMD ist längst abgefahren. Die 2900 Karten gelten als schlecht und nicht konkurrenzfähig. Die paar Leute hier im Forum werden keine Auswirkung auf die Preisgestaltung von nVidia haben.

Spasstiger
2007-09-25, 23:41:02
Warum sollten sie? Der Zug für AMD ist längst abgefahren. Die 2900 Karten gelten als schlecht und nicht konkurrenzfähig. Die paar Leute hier im Forum werden keine Auswirkung auf die Preisgestaltung von nVidia haben.
Wo gelten die HD-2900-Karten als schlecht? Die paar Leute hier ausm Forum werden wohl kaum Nvidia beeinlfussen. Die Massen sehen eine High-End-Karte von ATI für etwas mehr als 200€, also muss auch NV entsprechendes bieten.

dildo4u
2007-09-25, 23:44:48
Wo gelten die HD-2900-Karten als schlecht? Die paar Leute hier ausm Forum werden wohl kaum Nvidia beeinlfussen. Die Massen sehen eine High-End-Karte von ATI für etwas mehr als 200€, also muss auch NV entsprechendes bieten.
High-End sind 8800GTX und Ultra.Nicht mal ATI selber ordnet eine 2900XT als High-End ein eine Pro dann noch viel weniger.

LovesuckZ
2007-09-25, 23:46:41
Wo gelten die HD-2900-Karten als schlecht? Die paar Leute hier ausm Forum werden wohl kaum Nvidia beeinlfussen. Die Massen sehen eine High-End-Karte von ATI für etwas mehr als 200€, also muss auch NV entsprechendes bieten.

Und dann kaufen sie trotzdem nVidia. So war es bei der GF6, so war es bei der GF7 und so wird es jetzt wieder sein.
Die 2900 ist einfach zu stark kritisiert wurden. Zu spät, zu laut, zu stromhungrig, zu langsam... Das steht in jedem Test, auf jeder Seite. ATis Reaktion mit der Pro spiegelt dies eben einfach wider. Die 2900XT Karten werden nicht für 310€ gekauft, also muss etwas billigeres her. Das bedeutet jedoch lange noch nicht, dass die Menschen diese Karte dann auch kaufen werden.

desert
2007-09-25, 23:50:23
Also da muss man sich doch nur den steam survey anschauen, um zu sehen das die hd 2900 xt niemanden mehr hinter dem ofen begeistern kann.

Wer highend will hat schon lange g80.


Ich meine knappe 50.000 g80 zu wievielen r600, vielleicht 2000-3000 tausend?

genauso mit dem r520. Das die karten monate zu spät waren hat ihnen den hals gebrochen und nicht ihre leistung

Gast
2007-09-25, 23:50:28
Euch ist aber schon klar das der meiste Umsatz nicht mit High End gemacht wird.
Und im unteren und mitleren Preissegment ist Ati gut aufgestellt.

dildo4u
2007-09-25, 23:53:22
Euch ist aber schon klar das der meiste Umsatz nicht mit High End gemacht wird.
Und im unteren und mitleren Preissegment ist Ati gut aufgestellt.
Wenn man aber dazu keine echte High-End Karte hat um "Oben" mitzumischen hat man ein ultimativen Marketing Nachteil.Noch wenn dazu die eigenen Karten wesentlich mher Strom verpulvern.Und gerade in diesem Jahr ist die Klima Disskusion ja Thema Nummer 1 da überlegt man sich 2mal ob man nur für zocken 180-200Watt nur für die Grafikkarte verpulvern will.

Gast
2007-09-25, 23:53:43
Also da muss man sich doch nur den steam survey anschauen
Ist natürlich sehr Repräsentativ. :rolleyes:

AnarchX
2007-09-25, 23:57:34
Ist natürlich sehr Repräsentativ. :rolleyes:

Kannst du etwas repräsentativeres bieten? ;)

AMD Says ATI Radeon HD 2900 Pro – Limited Edition Product.
AMD Blasts ATI Radeon HD 2600 X2 with HD 2900 Pro (http://www.xbitlabs.com/news/video/display/20070925130640.html)
“The HD 2900 Pro is not something AMD needs. Those are just ‘defective’ graphics cards [that could not run at 742MHz’ and there are very few of them, just about several thousands worldwide. In fact, we only accepted orders [on them] for several days,” said a representative of an add-in card supplier who wished to remain unnamed.
:|
Das passt aber wieder nicht zur 1GB "XT" oder hat Sapphire noch genug XT-Cores auf Lager?

LovesuckZ
2007-09-25, 23:58:09
Euch ist aber schon klar das der meiste Umsatz nicht mit High End gemacht wird.
Und im unteren und mitleren Preissegment ist Ati gut aufgestellt.

Biligeres und überpowertes High-End führt zur Preisspirale nach unten. Der CPU Markt hätte AMD eine Lehre sein sollen. Anscheinend lernen sie nicht aus Fehlern und zerstören sich fröhlich weiter die Märkte.

Gast
2007-09-25, 23:58:11
Wenn man aber dazu keine echte High-End Karte hat um Oben mit zu mischen hat man ein ultimativen Marketing Nachteil noch wenn dazu die eigenen Karten wesentlich mher Strom verpulvern.Und gerade in diesem Jahr ist die Klima Disskusion ja Thema Nummer 1.

Das interesiert aber den OEM und Blödmartkäufer wenig. Im Forum hier sind die meisten "Freaks" und nicht mit normalen leuten zu vergleichen.Verstehst wie ich das mein?

Angiesan
2007-09-26, 00:03:22
:|
HTP Home Theater PC wohl eher

HDCP ist der HD Kopierschutz



:redface: Jo freudscher Verschreiber:biggrin:
meinte natürlich HTPC.

Henroldus
2007-09-26, 00:11:29
Wenn, dann schon HTPC. Und HDCP ist ein Signalschutz, kein Kopierschutz.

ein Signal kann gar nicht geschützt werden, es ist physikalisch auf der Leitung und überträgt verschlüsselte Informationen/Daten.
back2topic bzw gute nacht

Normaler
2007-09-26, 00:48:23
Und dann kaufen sie trotzdem nVidia. So war es bei der GF6, so war es bei der GF7 und so wird es jetzt wieder sein.
Die 2900 ist einfach zu stark kritisiert wurden. Zu spät, zu laut, zu stromhungrig, zu langsam... Das steht in jedem Test, auf jeder Seite. ATis Reaktion mit der Pro spiegelt dies eben einfach wider. Die 2900XT Karten werden nicht für 310€ gekauft, also muss etwas billigeres her. Das bedeutet jedoch lange noch nicht, dass die Menschen diese Karte dann auch kaufen werden.

Dann geh dich schnell als Nv Junge beim Luxx Forum anmelden sonst sind die Karten bald ausverkauft.

Man du bist echt unter aller Kanone.Ich hoffe du merkst es selber in welchen Ton du hier schreibst.Es ist bei der wirklich leicht zusehen das du nur für eine Seite bist.Für 200 Euro ist eine X2900 Pro (die man zu einer X2900 XT Takten kann)einfach Super.Warum immer alles schlecht reden was doch ganz gut ist?

AMC
2007-09-26, 03:57:57
tweaktown

http://www.tweaktown.com/reviews/1189/1/page_1_introduction/index.html

Polnischer PCLab Test übersetzt

http://www5.tranexp.com:2000/Translate/index.shtml?from=pol&to=eng&type=url&url=http%3A%2F%2Fpclab.pl%2Fart28806.html

Mensch dildo, von Dir hatte ich mehr erwartet. Hier erhebt sich wieder das böse Haupt eines Tests mit 162.18 Treiber (gerade bei einer GTS 320, wie nun wirklich oft genug gesagt, brachte der 163.63 große Vorteile in CoH/CoD/Stalker/Bioshock, etc.pp.) und dann auch noch ohne AA/AF? :| Ich dachte, dass hätten wir mittlerweile hinter uns.....:rolleyes: Aber hej, AA und AF sucken seit neuestem, right?

AMC

Nachtrag: Ich bezog mich auf das Review (was dildo wohl unkritisch verlinkt hat). Bevor es wieder zu 'steinigt' ihn und 'Jehova' Rufen kommt. ;)

Dr.Dirt
2007-09-26, 07:41:41
Ich dachte, dass hätten wir mittlerweile hinter uns.....:rolleyes: Aber hej, AA und AF sucken seit neuestem, right?

Schade, daß man solche Kommentare hier immer wieder lesen muß.
AMC, was kann denn dildo für Test's? Er wird sie ja sicherlich nicht selbst durchgeführt haben.

Anárion
2007-09-26, 08:12:41
Fanboys stinken, ich frage mich da immer wie man sich einem Stück Elektronik so verschreiben kann, permanent irgendwas schlechtreden muss - weit über Religiösität hinaus. Geht mal vor die Tür ihr Nerds.

Die Karte hat einen attraktiven Preis und scheint in dem unterbesetzten Zwischensegment durchaus die Lücke füllen zu können. Einer GTS 320 würde ich sie allemal vorziehen.

The_Invisible
2007-09-26, 08:40:07
komisch das die meisten tests ohne aa/af sind. man wird die zukünftigen tests jetzt doch nicht auf ATI zuschneiden, weil zocken ohne aa/af wieder in ist. oder wo sind die leute die so auf niedrigem idle stromverbrauch stehen, die gts verbraucht nämlicht weniger.

mfg

Radeonator
2007-09-26, 09:03:11
*abwarten*

EDIT: Erm, da ist ja scheinbar wirklich ohne Quality settings gebenched worden...WTF ???

Gast
2007-09-26, 09:05:56
Kannst du etwas repräsentativeres bieten? ;)


Das ist kein Argument. Nur weil es nichts besseres gibt ist diese Umfrage nicht repräsentativ.

reunion

Gast
2007-09-26, 09:09:03
Die 2900XT Karten werden nicht für 310€ gekauft, also muss etwas billigeres her. Das bedeutet jedoch lange noch nicht, dass die Menschen diese Karte dann auch kaufen werden.

Das ist quatsch. Die 2900Pro/GT sind rein dazu da um die Lager für den wohl bald erscheinenden RV670 zu leeren, denn dann will wirklich niemand mehr einen R600.

reunion

The_Invisible
2007-09-26, 09:14:42
Das ist kein Argument. Nur weil es nichts besseres gibt ist diese Umfrage nicht repräsentativ.

reunion

mit fast 1,1mio ergebnissen kenne ich keine andere umfrage die repräsentativer wäre. http://www.steampowered.com/status/survey.html

btw
ist klar das den r600 dann keiner mehr haben will mit den schwerwiegenden "bugs", will ja jetzt kaum einer haben

mfg

LovesuckZ
2007-09-26, 09:23:25
Das ist quatsch. Die 2900Pro/GT sind rein dazu da um die Lager für den wohl bald erscheinenden RV670 zu leeren, denn dann will wirklich niemand mehr einen R600.
reunion

Jetzt will schon keiner eine 2900. Die preisliche Gestaltung zeigt doch klar, dass AMD das nichtbeachtende Produkt versucht über den Preis besser zustellen. Das hat in der Vergangenheit nicht geklappt, dass wird heute auch nicht klappen.
Das Image der 2900 Karten ist einfach sehr negativ behaftet.

Taigatrommel
2007-09-26, 09:27:57
Ich glaube hier überschätzen manche Leute das schlechte Image. Wenn es sich bei dieser Karte wirklich um einen Preis-/Leisungskracher handelt, dann wird sie sich auch gut verkaufen. Vielleicht nicht SO gut wie mit gutem Image der High-End Karten, aber dennoch gut.

desert
2007-09-26, 09:32:04
Das ist kein Argument. Nur weil es nichts besseres gibt ist diese Umfrage nicht repräsentativ.

reunion

das sind mittlerweile über 1 mio datensätze. Du willst mir doch nicht ernsthaft erzählen, das nur steamnutzer die ati grafikkarten nicht kaufen?

Langsam wird es echt Lächerlich. Das ist wohl die sammlung schlechthin, genauere Zahlen über marktdurchdringung hat wohl kein anderer.

Und da sieht das einfach beschissen aus für die hd 2... und auch für die x1800 serie.

Komischerweise sind z.b. in diesem forum auch diese beiden kartengeneration weniger vertreten.

Wahrscheinlich alles zufall oder wie?

Gast
2007-09-26, 09:50:56
ein Signal kann gar nicht geschützt werden, es ist physikalisch auf der Leitung und überträgt verschlüsselte Informationen/Daten.
back2topic bzw gute nacht
Und HDCP ist weiterhin ein Signalschutz und kein Kopierschutz. Lies mal genau nach, was HDCP genau macht bzw. wozu es dient.

Das ist malwieder lustig: Die Leistung einer Grafikkarte wird über die Anzahl der verkauften Grafikkarten beurteilt. Super.

1GB die nix bringen weil das Ding wenn man die 1GB ausnutzen will mit AA und AF abkackt und eine solche Karte frisst noch mher Strom.
Und wo ist jetzt der genaue Zusammenhang zwischen der Größe des VRAMs und der Leistung mit AA/AF?
Aber eine 1GB FireGL durch Mod-Treiber für 260€ ist doch schon nett.

Auch so ist die hier gebotene Preisleistung, wenn es denn stimmt, eine Kampfansage, die NV hoffentlich mit entsprechenden GTS-Preisen erwiedern wird.;)
Schade nur, dass man auch den Support nicht mitmodden kann. X-D

Euch ist aber schon klar das der meiste Umsatz nicht mit High End gemacht wird.
Und im unteren und mitleren Preissegment ist Ati gut aufgestellt.
Aber der Gewinn zählt weiterhin?
Biligeres und überpowertes High-End führt zur Preisspirale nach unten. Der CPU Markt hätte AMD eine Lehre sein sollen. Anscheinend lernen sie nicht aus Fehlern und zerstören sich fröhlich weiter die Märkte.
Du bist ein Marktanalytiker? Warum bleiben wir nicht dort, worüber man in diesem Forum diskutiert: bei der Leistung der Grafikkarte bzw. bei der Grafikkarte selbst? Der PoWi-Bereich ist nur ein paar Scrolls weiter unten.

Das größte Problem der HD2900Pro ist nicht unbedingt die Leistung (man kauft sich keine Grafikkarte für 200 Euro, um mit Einstellungen zu spielen, denen nur eine 8800 Ultra gerecht wird). Ihre Schwäche ist insbesondere "AVIVO HD". Der Stromhunger ist und bleibt eine Nebensächlichkeit, oder habt ihr alle so hocheffiziente <300-W-Netzteile, die eine 2900Pro überfordert? In den meisten Rechnern sind überdimensionale Netzteile, die Leute kaufen eh auf Vorrat Wattmonster.
Aber zurück zu AVIVO HD: Der Käufer einer 2900Pro hat definitiv keinen Quad-Core oder überhaupt eine Highend-CPU, eher etwas Mittelmäßiges. Und bei solchen Rechnern zählt jede Unterstützung bei der Wiedergabe von hochauflösenden Videos. Und hier versagt die 2900Pro.

Gast
2007-09-26, 09:54:45
Euch ist aber schon klar das der meiste Umsatz nicht mit High End gemacht wird.
Und im unteren und mitleren Preissegment ist Ati gut aufgestellt.

Aber auch nicht besser als Nvidia und das bräuchten sie dringend.

Bumsfalara
2007-09-26, 11:02:51
Mensch dildo, von Dir hatte ich mehr erwartet. Hier erhebt sich wieder das böse Haupt eines Tests mit 162.18 Treiber (gerade bei einer GTS 320, wie nun wirklich oft genug gesagt, brachte der 163.63 große Vorteile in CoH/CoD/Stalker/Bioshock, etc.pp.) und dann auch noch ohne AA/AF? :| Ich dachte, dass hätten wir mittlerweile hinter uns.....:rolleyes: Aber hej, AA und AF sucken seit neuestem, right?

AMC
Dildo hat jediglich den Review-Thread eröffnet und die ersten beiden Reviews gepostet. Ohne Kommentar, ohne Bewertung.

Man sollte ihm eher dankbar sein als ihn anzufahren.


Den Test auseinanderzunehmen ist die Aufgabe des Threads hier, nicht vom Threadersteller.

Gast
2007-09-26, 11:55:23
mit fast 1,1mio ergebnissen kenne ich keine andere umfrage die repräsentativer wäre. http://www.steampowered.com/status/survey.html

btw
ist klar das den r600 dann keiner mehr haben will mit den schwerwiegenden "bugs", will ja jetzt kaum einer haben

mfg

Schon wieder der selben Blödsinn. Repräsentativer gibt es nicht. Entweder eine Umfrage ist repräsentativ, oder sie ist es nicht. Stream ist es nicht. Denn eine Umfrage ist nur dann repräsentativ, wenn jeder in der sogenannten Grundgesamtheit die gleiche Chance hat, befragt zu werden. Alles andere kann zu extremen Abweichungen führen. Wenn ich bei einem Politbarometer bsw. 1.1mio Bayern frage, wird etwas völlig anderes herauskommen, als wenn ich im gesamten Deutschland frage. Was natürlich nicht bedeutet, dass die Umfrage falsch sein muss, nur wenn sie stimmen würde, wäre das reiner Zufall. Mehr als eine ungefähre Tendenz kann man daraus sicherlich nicht ableiten.

reunion

The_Invisible
2007-09-26, 12:01:15
wenn willst du den befragen? hausfrauen, rentner und kinder?

die haben sicher keine 8800er oder 2900er, da würde höchstens der mainstream hardware prozentsatz steigen, sonst nichts.

mfg

Gast
2007-09-26, 12:20:24
Schon wieder der selben Blödsinn. Repräsentativer gibt es nicht. Entweder eine Umfrage ist repräsentativ, oder sie ist es nicht. Stream ist es nicht. Denn eine Umfrage ist nur dann repräsentativ, wenn jeder in der sogenannten Grundgesamtheit die gleiche Chance hat, befragt zu werden

Natürlich ist Steam eine repräsentative Umfrage, denn alle Voraussetzungen dafür sind erfüllt.

darkvader
2007-09-26, 12:25:00
Schon wieder der selben Blödsinn. Repräsentativer gibt es nicht. Entweder eine Umfrage ist repräsentativ, oder sie ist es nicht. Stream ist es nicht. Denn eine Umfrage ist nur dann repräsentativ, wenn jeder in der sogenannten Grundgesamtheit die gleiche Chance hat, befragt zu werden. Alles andere kann zu extremen Abweichungen führen. Wenn ich bei einem Politbarometer bsw. 1.1mio Bayern frage, wird etwas völlig anderes herauskommen, als wenn ich im gesamten Deutschland frage. Was natürlich nicht bedeutet, dass die Umfrage falsch sein muss, nur wenn sie stimmen würde, wäre das reiner Zufall. Mehr als eine ungefähre Tendenz kann man daraus sicherlich nicht ableiten.

reunion

Eine repräsentative umfrage ist dadurch gekennzeichnet, dass die stichprobe die grundgesamtheit in den für die repräsentativität als wesentlich erachteten merkmalen angemessen widerspiegelt, also vergleichbar ist.

Bedeutet also, dass Steam durchaus Repräsentativ in der Kategorie "Hat einen PC, spielt und hat ein Steam Spiel" ist. Wenn man jetzt überlegt, wieviele der PC Käufer die auch spielen ein soclhes Steam Spiel besitzen, dann kann man schon auf eine Grundgesamtheit schließen.

Gast
2007-09-26, 12:30:17
wenn willst du den befragen? hausfrauen, rentner und kinder?

die haben sicher keine 8800er oder 2900er, da würde höchstens der mainstream hardware prozentsatz steigen, sonst nichts.

mfg

Leute die keine Internetanschluss haben, Leute die keine Computerspiele spielen (Stichwort Quadro/FireGL), Leute die keine Steam-Spiele haben, Leute die sich Steam nicht antun wollen, Leute die an der Umfrage nicht teilnehmen wollen, etc.

reunion

Gast
2007-09-26, 12:31:35
Eine repräsentative umfrage ist dadurch gekennzeichnet, dass die stichprobe die grundgesamtheit in den für die repräsentativität als wesentlich erachteten merkmalen angemessen widerspiegelt, also vergleichbar ist.

Bedeutet also, dass Steam durchaus Repräsentativ in der Kategorie "Hat einen PC, spielt und hat ein Steam Spiel" ist. Wenn man jetzt überlegt, wieviele der PC Käufer die auch spielen ein soclhes Steam Spiel besitzen, dann kann man schon auf eine Grundgesamtheit schließen.

Ja, sie dürfte für Steamuser repräsentativ sein, nicht mehr und nicht weniger.

reunion

Gast
2007-09-26, 12:32:35
Natürlich ist Steam eine repräsentative Umfrage, denn alle Voraussetzungen dafür sind erfüllt.

Nein, sind sie nicht. Aber darüber wurden schon so viele Threads zugemüllt, dass ich dir raten, mal die Suche anzuwerfen.

reunion

Gast
2007-09-26, 12:38:13
wo sind die leute die so auf niedrigem idle stromverbrauch stehen, die gts verbraucht nämlicht weniger.

mfg

Ja genau, du Flames hier nur rum was soll das? :-(
Beim R600 kann man die Vgpu im iIdle noch senken und rutertakten das spart richtig. Ach ja geht ja bei dem G80 nich kannst du ja nich wissen. (2D Spannung senken).

http://img167.imageshack.us/img167/620/jgys6.jpg (http://imageshack.us)

myopF
2007-09-26, 12:43:38
oder wo sind die leute die so auf niedrigem idle stromverbrauch stehen, die gts verbraucht nämlicht weniger.

mfg

hm hab da andere daten, von der c't gemessene sekundäre leistungsaufnahme:

2D/3D/Peak in W
2900XT 58/152/208
8800GTS 59/99/149
8800GTX 74/139/213
8800GTX Ultra 80/159/236

und die pro braucht eher weniger als die xt ;)
und die c't is ja auch noch einigermaßen seriös imho.

Ronny145
2007-09-26, 12:50:47
hm hab da andere daten, von der c't gemessene sekundäre leistungsaufnahme:

2D/3D/Peak in W
2900XT 58/152/208
8800GTS 59/99/149
8800GTX 74/139/213
8800GTX Ultra 80/159/236

und die pro braucht eher weniger als die xt ;)
und die c't is ja auch noch einigermaßen seriös imho.


Ist das der Durchschnitt? Die Club3D liegt nämlich bei 45W Idle.

Gaestle
2007-09-26, 12:54:12
Das ist kein Argument. Nur weil es nichts besseres gibt ist diese Umfrage nicht repräsentativ.

reunion

Schon wieder der selben Blödsinn. Repräsentativer gibt es nicht. Entweder eine Umfrage ist repräsentativ, oder sie ist es nicht. Stream ist es nicht. Denn eine Umfrage ist nur dann repräsentativ, wenn jeder in der sogenannten Grundgesamtheit die gleiche Chance hat, befragt zu werden. Alles andere kann zu extremen Abweichungen führen. Wenn ich bei einem Politbarometer bsw. 1.1mio Bayern frage, wird etwas völlig anderes herauskommen, als wenn ich im gesamten Deutschland frage. Was natürlich nicht bedeutet, dass die Umfrage falsch sein muss, nur wenn sie stimmen würde, wäre das reiner Zufall. Mehr als eine ungefähre Tendenz kann man daraus sicherlich nicht ableiten.

reunion

Leute die keine Internetanschluss haben, Leute die keine Computerspiele spielen (Stichwort Quadro/FireGL), Leute die keine Steam-Spiele haben, Leute die sich Steam nicht antun wollen, Leute die an der Umfrage nicht teilnehmen wollen, etc.

reunion

Ja, sie dürfte für Steamuser repräsentativ sein, nicht mehr und nicht weniger.

reunion


That's it.

myopF
2007-09-26, 12:54:57
denke, hab aber keine lust in keller zu laufen und das heft rauszukramen, das ises mir dann auch net wert ^^

vl läuft die club ja mit geringer vid als stock im idle

Ronny145
2007-09-26, 12:59:13
denke, hab aber keine lust in keller zu laufen und das heft rauszukramen, das ises mir dann auch net wert ^^

vl läuft die club ja mit geringer vid als stock im idle


Die Sapphire liegt dort bei 47W, hat aber andere Gründe als die Spannung. Woran es liegt ist nicht bekannt.

LovesuckZ
2007-09-26, 13:02:33
Leute die keine Internetanschluss haben, Leute die keine Computerspiele spielen (Stichwort Quadro/FireGL), Leute die keine Steam-Spiele haben, Leute die sich Steam nicht antun wollen, Leute die an der Umfrage nicht teilnehmen wollen, etc.
reunion

Das ist lächerlich.
Mit so einer Begründung gibt es keine repräsentative Umfrage, da man nie jeden einzelnen Typen erreichen kann.
Valve befragt eine große Menge an Menschen. Warum genau jene Menschen nVidia Grafikkarten bevorzugen sollten, sollte doch erstmal dargelegt werden.

Nakai
2007-09-26, 13:04:16
Der Großteil der Menge sind Spieler, wenn auch mit veralteter Hardware.

mfg Nakai

dildo4u
2007-09-26, 13:06:43
Das ist lächerlich.
Mit so einer Begründung gibt es keine repräsentative Umfrage, da man nie jeden einzelnen Typen erreichen kann.
Valve befragt eine große Menge an Menschen. Warum genau jene Menschen nVidia Grafikkarten bevorzugen sollten, sollte doch erstmal dargelegt werden.

Ebend wenn man mal überlegt wie oft ATI schon zusammen mit Valve Werbeaktionen gestartet hat z.B HL2 Coupon bei ATI Karten in der Verpackung.Oder erst letztens wieder kostenlose Steam Games wenn ein ATI Treiber erkannt wird.Gerade bei Steam müssten noch relativ viele ATI Fanboys unterwegs sein.

Gast
2007-09-26, 13:11:07
Bei Steam sind die ganzen CS Kiddys mit den 5er,6er und 7er GF unterwegs.
Die umfrage ist für die Tonne. Seht das doch mal ein.

P.S. Ich hab da auch nicht mitgemacht

dildo4u
2007-09-26, 13:14:06
Bei Steam sind die ganzen CS Kiddys mit den 5er,6er und 7er GF unterwegs.

Dafür find ich aber 50000 8800er schon erstaunlich viel wenn da angeblich nur "CS Kiddys" mit "uralt" Hardware unterwegs sind.

Gast
2007-09-26, 13:16:58
Das ist lächerlich.
Mit so einer Begründung gibt es keine repräsentative Umfrage, da man nie jeden einzelnen Typen erreichen kann.

Nein, das ist nicht lächerlich, das ist Statistik. Wenn ich bei einer repräsentativen Umfrage einen "Typen" warum auch immer nicht erreichen, dann nehme ich jemand anderen, der genau in dasselbe Schema fällt.


Valve befragt eine große Menge an Menschen. Warum genau jene Menschen nVidia Grafikkarten bevorzugen sollten, sollte doch erstmal dargelegt werden.

Ich kann auch 20mio Bayern befragen, und habe trotzden nichtmal annähernd ein repräsentatives Ergebnis für Gesamtdeutschland. jetzt könnte ich genauso fragen warum sollten die Bayern anders wählen als der Rest von Deutschland? Warum sollte der Wohnort einen Einfluss auf das Wahlverhalten haben? Und nochwas: Ich habe nicht gesagt, dass genau jene Menschen nVidia-Grafikkarten bevorzugen. Es könnte genauso gut sein, dass in Wahrheit nV noch viel besser dasteht als in dieser Umfrage. Sie ist einfach nicht repräsentativ für den Gesamtmarkt.

reunion

Gast
2007-09-26, 13:25:00
Nein, das ist nicht lächerlich, das ist Statistik. Wenn ich bei einer repräsentativen Umfrage einen "Typen" warum auch immer nicht erreichen, dann nehme ich jemand anderen, der genau in dasselbe Schema fällt.

Wie kannst du bei einer Telefonumfrage die Typen ohne Telefon bzw. mit Telefon und ohne Eintragung ins Telefonbuch erreichen?
Wie kannst du taube bzw. Menschen ohne Sprachmöglichkeit am Telefon befragen?
Du fängst gerade an mit Krümmelkackerei eine Umfrage in Miskredit zu ziehen, die wesentlich repräsentativer ist als Umfragen auf diesem Board oder sonstige Umfragen.


Ich kann auch 20mio Bayern befragen, und habe trotzden nichtmal annähernd ein repräsentatives Ergebnis für Gesamtdeutschland. jetzt könnte ich genauso fragen warum sollten die Bayern anders wählen als der Rest von Deutschland? Warum sollte der Wohnort einen Einfluss auf das Wahlverhalten haben? Und nochwas: Ich habe nicht gesagt, dass genau jene Menschen nVidia-Grafikkarten bevorzugen. Es könnte genauso gut sein, dass in Wahrheit nV noch viel besser dasteht als in dieser Umfrage. Sie ist einfach nicht repräsentativ für den Gesamtmarkt.


Keine Umfrage ist repräsentativ für den Gesamtmarkt bzw. der Masse. Es sind immer nur Annäherungen.

Gast
2007-09-26, 13:27:55
Dafür find ich aber 50000 8800er schon erstaunlich viel wenn da angeblich nur "CS Kiddys" mit "uralt" Hardware unterwegs sind.
Man sollte auch eventuell mal bedenken das die 8800er länger auf dem Markt ist.

Gast
2007-09-26, 13:42:05
ist klar das den r600 dann keiner mehr haben will mit den schwerwiegenden "bugs", will ja jetzt kaum einer haben

mfg

Der nicht gefixte Vram Bug ist ein "schwerwiegender " Bug wer will den beim Gamen alle 10min. Alt+Tab drücken?


komisch das die meisten tests ohne aa/af sind. man wird die zukünftigen tests jetzt doch nicht auf ATI zuschneiden, weil zocken ohne aa/af wieder in ist.
mfg

Was soll das nun wieder? Bei CB wurde verglichen in 1600x1200 mit 4xAA und 16xAF.

Fazit: Von 18 Benchmarks gehen 7 an ATI und 5 an NV sowie bei 6 war es gleichstand.


Quellen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_ati_catalyst_79/1/#abschnitt_einleitung

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_nvidia_forceware_16367/

Gast
2007-09-26, 13:59:23
Der nicht gefixte Vram Bug ist ein "schwerwiegender " Bug wer will den beim Gamen alle 10min. Alt+Tab drücken?




Was soll das nun wieder? Bei CB wurde verglichen in 1600x1200 mit 4xAA und 16xAF.

Fazit: Von 18 Benchmarks gehen 7 an ATI und 5 an NV sowie bei 6 war es gleichstand.


Quellen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_ati_catalyst_79/1/#abschnitt_einleitung

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_nvidia_forceware_16367/

Krass wie lahme die 2900 is? die is ja gradmal im bereich einer 640GTS
Und die DX10 bench sprechen klar für die 640GTS. (AMD/ATI Hinweis: kein AF, Hinweis: schlechte Texturqualität)

dildo4u
2007-09-26, 14:03:16
Man sollte auch eventuell mal bedenken das die 8800er länger auf dem Markt ist.
Ist das jetzt das Problem von NV oder ATI?

Gast
2007-09-26, 14:05:14
Die 8800GTS 640 und 2900XT 512 sind doch im selben Preissegment ,wiso soll die so schnell wie eine GTX z.b. sein ?

The_Invisible
2007-09-26, 14:07:20
Die 8800GTS 640 und 2900XT 512 sind doch im selben Preissegment ,wiso soll die so schnell wie eine GTX z.b. sein ?

weil die user es hier so wollen.

freuen sich immer wie ein kleines kind wenn die xt mal an die gtx rankommt :D

mfg

LovesuckZ
2007-09-26, 14:10:34
Die 8800GTS 640 und 2900XT 512 sind doch im selben Preissegment ,wiso soll die so schnell wie eine GTX z.b. sein ?

Um vielleicht einen Mehrwert zum Stromverbrauch oder Lärmbelästigung zu haben...

superdash
2007-09-26, 14:19:59
Die 8800GTS 640 und 2900XT 512 sind doch im selben Preissegment ,wiso soll die so schnell wie eine GTX z.b. sein ?
Nur weil eine Graka im selben Preissegment ist wie eine andere, heißt das noch lange nicht, dass nicht eine dieser jenen schneller als die andere sein kann.

Interessant ist schon, dass die 2900xt in neueren Spielen eher in Richtung gtx rückt und sich oft von der gts absetzen kann.

Gruß

K4mPFwUr$t
2007-09-26, 14:20:03
dem ist ja nicht der fall. die 2900pro ist fast genau so laut wie die 2900XT, ergo ohrenbluten inkl.

Gast
2007-09-26, 14:22:27
Interessant ist schon, dass die 2900xt in neueren Spielen eher in Richtung gtx rückt und sich oft von der gts absetzen kann.

Gruß

Link?

[dzp]Viper
2007-09-26, 14:22:41
Krass wie lahme die 2900 is? die is ja gradmal im bereich einer 640GTS
Und die DX10 bench sprechen klar für die 640GTS. (AMD/ATI Hinweis: kein AF, Hinweis: schlechte Texturqualität)

Das ist schon lange bekannt, dass die 2900xt "nur" in 640GTS Performanceniveau ist

Gast
2007-09-26, 14:25:57
Interessant ist schon, dass die 2900xt in neueren Spielen eher in Richtung gtx rückt und sich oft von der gts absetzen kann.

Gruß
Link?

Vergiss es. Seh gerade deine Sig. Da kann nur müll rauskommen.

Gast
2007-09-26, 14:40:31
Nur weil eine Graka im selben Preissegment ist wie eine andere, heißt das noch lange nicht, dass nicht eine dieser jenen schneller als die andere sein kann.

Interessant ist schon, dass die 2900xt in neueren Spielen eher in Richtung gtx rückt und sich oft von der gts absetzen kann.

Gruß
So etwas kannst du hier nicht sagen, die FB werden dich in Stücke reißen, hier ist es so sinnlos zu Diskutieren wie in der Wüste nach Schnee zu suchen.


Hier für die FB habt ihr Futter

http://img516.imageshack.us/img516/8832/llbe2.jpg (http://imageshack.us)

http://www.guru3d.com/article/Videocards/459/

Gast
2007-09-26, 14:54:17
Könnte ein Mod vielleicht Dildo4u und Lovesucks hier bitte entfernen?

Gast
2007-09-26, 15:00:01
Könnte ein Mod vielleicht Dildo4u und Lovesucks hier bitte entfernen?

Warum? dann müsste man Gast #87, superdash und co auch gleich entfernen.
Weil rosinpicker und oder was einfach in raum werfen ohne belege (superdash)
bringt hier keinen was. Weil das kann jeder... http://www.xbitlabs.com/articles/video/display/enemy-territory-performance.html

The_Invisible
2007-09-26, 15:00:59
wieder ohne AA/AF, es ist sinnlos...

mfg

superdash
2007-09-26, 15:03:57
Vergiss es. Seh gerade deine Sig. Da kann nur müll rauskommen.
Wie lässt sich über meine Signatur auf meine Kompetenz schließen. Da muss ich doch stark an deiner zweifeln. Wenn du solche Schlüsse ziehst, kannst du nicht erwarten, dass jmd. deinen Schlussfolgerungen noch vertrauen schenkt.

Meine oben getroffene Aussage bezieht sich auf neuerlich erschienene Spiele wie Bioshock oder Medal of Honor: Airborne. Natürlich kann das Zufall sein, aber mein Eindruck bleibt der Gleiche.

(@gast: Meine Aussage war eine ganz neutrale. Du gehst gleich unter die Gürtellinie und wirfst mir vor meine Aussagen nicht belegen zu können. Kann ich 1. (http://www.forumdeluxx.de/forum/showpost.php?p=6910865&postcount=1) und 2. muss ich das nicht und 3. ist das alles offtopic. Es geht hier um 2900pro, welche ich recht attraktiv finde, da sie kaum beschnitten ist und einen fairen Preis hat. Mir persönlich kommt das vor, wie ein Abverkauf, bevor der 670er kommt)

Gruß

Gast
2007-09-26, 15:05:42
wieder ohne AA/AF, es ist sinnlos...

mfg
Hättest du mal den Test richtig gelesen. Ich bin raus hier es ist sinnlos...

"In "very high" image quality (IQ) mode we enabled the DX10 rendering path with the DX10 compatible cards. The DX9 cards can also be tested in "Very high" IQ mode, yet are forced over the DX9 code path (obviously). This mode also has 4xAA and 4xAF enabled for all graphics cards."

AMC
2007-09-26, 15:10:17
Schade, daß man solche Kommentare hier immer wieder lesen muß.
AMC, was kann denn dildo für Test's? Er wird sie ja sicherlich nicht selbst durchgeführt haben.

Er kann gar nix dafür, aber normalerweise sind seine links dann doch von besserer Qualität. Dieses "review-verlinken-auch-wenn-es-ein-sinnbefreites-review-ist-hauptsache-wir-haben-eins", dass wollte ich kritisieren. Dildo4u hält hier oftmals die Fahne hoch und ich respektiere seine Postings und seine Quellen, also nicht missverstehen. :up:

AMC

Gast
2007-09-26, 15:10:49
Wie kannst du bei einer Telefonumfrage die Typen ohne Telefon bzw. mit Telefon und ohne Eintragung ins Telefonbuch erreichen?
Wie kannst du taube bzw. Menschen ohne Sprachmöglichkeit am Telefon befragen?
Du fängst gerade an mit Krümmelkackerei eine Umfrage in Miskredit zu ziehen, die wesentlich repräsentativer ist als Umfragen auf diesem Board oder sonstige Umfragen.


Solche Dinge sind bei einer repäsentativ ausgewählten Stichprobe irrelevant, da ich für eine solchen Fall immer eine Ersatzperson wählen kann. Bei einer zufällig ausgewählten Stichprobe aber natürlich nicht.


Keine Umfrage ist repräsentativ für den Gesamtmarkt bzw. der Masse. Es sind immer nur Annäherungen.

Natürlich sind repräsentative Umfragen nur Annäherungen. Nur gibt es bei einer repräsentativen Umfrage immer auch eine Schwankungsbreite und einen Vertrauensintervall, beides fehlt bei der Steam-Umfrage. Es ist ein beliebig zusammengewürfelter Haufen, der nicht repräsentativ für den Gesamtmarkt ausgewählt wurde, und deshalb IMHO auch nicht den Anspruch erheben kann diesen repräsentativ wiederzugeben.

reunion

reunion

Grindcore
2007-09-26, 15:19:45
Zum World in conflict Test, Zitat:

"A warning here about the 2900 XT though (before you get too excited) there's a bug in the 7.9 Cats drivers we used and we noticed poorer Texture Quality in certain situations."

:|

Gast
2007-09-26, 15:20:15
Wie lässt sich über meine Signatur auf meine Kompetenz schließen. Da muss ich doch stark an deiner zweifeln. Wenn du solche Schlüsse ziehst, kannst du nicht erwarten, dass jmd. deinen Schlussfolgerungen noch vertrauen schenkt.

Meine oben getroffene Aussage bezieht sich auf neuerlich erschienene Spiele wie Bioshock oder Medal of Honor: Airborne. Natürlich kann das Zufall sein, aber mein Eindruck bleibt der Gleiche.

Gruß

Junge laber kein scheiss und tue nich so als seist du KompetenT. Rofl
Wenn du echtes intresse an einer runde talk hätte, dann hättest du auchmal links gebracht. (danke) Tests mit Medal of Honor: Airborne hab ich leider noch nich gesehen. Und zu Bioshock wissen wir das es ohne AA/AF is wobei die 8800er mit AA getestet wurde. Ich kenn nur dies Biovergleich
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_nvidia_forceware_16367/7/#abschnitt_bioshock

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_ati_catalyst_79/7/#abschnitt_bioshock

Und da handelt es sich um eine 640GTS Vs. 2900XT
Also wie du auf "-Interessant ist schon, dass die 2900xt in neueren Spielen eher in Richtung gtx rückt und sich oft von der gts absetzen kann.
-" kommst möchten wir doch gern ALLE Wissen. Danke

AMC
2007-09-26, 15:20:43
Meine oben getroffene Aussage bezieht sich auf neuerlich erschienene Spiele wie Bioshock oder Medal of Honor: Airborne.

Huh? :| Gerade in Bioshock DX-10 kackt sie gegen die GTS320 recht gnadenlos ab, vor allem mit 4/16.


Natürlich kann das Zufall sein, aber mein Eindruck bleibt der Gleiche.


(@gast: Meine Aussage war eine ganz neutrale. Du gehst gleich unter die Gürtellinie und wirfst mir vor meine Aussagen nicht belegen zu können. Kann ich 1. (http://www.forumdeluxx.de/forum/showpost.php?p=6910865&postcount=1) und 2. muss ich das nicht und 3. ist das alles offtopic. Es geht hier um 2900pro, welche ich recht attraktiv finde, da sie kaum beschnitten ist und einen fairen Preis hat. Mir persönlich kommt das vor, wie ein Abverkauf, bevor der 670er kommt)

Gruß

Zu diesem (bereits in anderen Threads verlinkten) und von den wohl größten ATI-Fanboys unter der (roten) Sonne (zocker28) nach nagus und tarkin erstellten 'Benchmarks', wollen wir doch nun aber auch nichts geben, oder?

Schau Dir mal deren irre Rückschlüsse an. ;D

AMC

AMC
2007-09-26, 15:25:23
Ich kenn nur dies Biovergleich
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_nvidia_forceware_16367/7/#abschnitt_bioshock

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_ati_catalyst_79/7/#abschnitt_bioshock

Nun kennst Du auch das hier ;) HardOCP - Bioshock DX10 (http://enthusiast.hardocp.com/article.html?art=MTM4NywzLCxoZW50aHVzaWFzdA==)

AMC

arcanum
2007-09-26, 15:42:24
Es ist ein beliebig zusammengewürfelter Haufen, der nicht repräsentativ für den Gesamtmarkt ausgewählt wurde, und deshalb IMHO auch nicht den Anspruch erheben kann diesen repräsentativ wiederzugeben.


die wichtigsten kriterien sind doch gegeben: steam-user nutzen ihren pc zum spielen von halbwegs hardwarefordernden titeln.

gerade dieses beliebige zusammenwürfeln macht es doch repräsentativ. warum sollte steam mehr g80 als r600 nutzer anziehen. und gerade durch die blackbox sollte die r600 keine nachteile erfahren in der erfassung.

Lawmachine79
2007-09-26, 15:49:10
Den Review auf Tweaktown kann man in die Tonne treten. Gerade mal drei Tests mit AA&AF - das ist einfach keine zeitgemäße Testumgebung.
Interessant ist eher die Positionierung auf dem Markt, die billigste Karte kostet gerade mal 207€ und schließt damit die Lücke zwischen Mainstream und unterem High-End. Die Karte hat das Potential, die neue 1950Pro zu werden.
Die 1GB Variante kann man sich schenken - was kann ich mit 1GB, was ich nicht mit 512MB kann? Auflösung erhöhen und Kantenglättung hochschrauben. Die erste Sache klappt, verglichen mit dem G80, besser, umso shaderlastiger ein Spiel ist, das zweite kann man sich aufgrund der schwachbrüstigen und/oder verbuggten Rop-Leistung schenken - in AA-Stufen, wo 1024 ggü 512MB einen Vorteil bringen, limitieren die Rops.

Gast
2007-09-26, 15:49:44
Mein Gott Jessas! Spielt denn hier keiner mit AA/AF? Ich kann nur sagen schaltet man das bei der 2900 Serie ein ist der Spielspass abrupt zuende. Ich kann diese nichtssagenden benches nicht mehr sehen. Ich habe einen PC damit ich AA/AF nutzen kann damit es ein Augenschmaus wird. Es ist und bleibt so das diese ATI-Generation niemals, und ich betone NIEMALS wegen der Architekturmängel AA/AF kompensieren kann. Ich kann diese benches echt nicht mehr sehen. Meine Erfahrungen sind andere. In diesem Sinne

Gaestle
2007-09-26, 15:50:47
Solche Dinge sind bei einer repäsentativ ausgewählten Stichprobe irrelevant, da ich für eine solchen Fall immer eine Ersatzperson wählen kann. Bei einer zufällig ausgewählten Stichprobe aber natürlich nicht.


Nicht ganz. Damit unterstellst Du, dass das Dir bekannte Merkmal (z.B. hat Telefon oder nicht) mit der interessierenden Variable im Zusammenhang steht.

Vgl. dazu:

Schnell, R. (1997): Nonresponse in Bevölkerungsumfragen: Ausmaß, Entwicklung und Ursachen.
Opladen: Leske + Budrich

Schnell,R. (1993): Die Homogenität sozialer Kategorien als Voraussetzung für "`Repräsentativität"' und Gewichtungsverfahren. In: Zeitschrift für Soziologie, 22 (1), S.16-32

und vor allem

Schnell,R. (1991): Wer ist das Volk? Undercoverage, Schwererreichbare und Nichtbefragbare bei "`allgemeinen Bevölkerungsumfragen"'. In: Kölner Zeitschrift für Soziologie und Sozialpsychologie, 43 (1) S. 106-137

Außerdem:

Rothe, G. (1990): Wie (un)wichtig sind Gewichtungen? Eine Untersuchung am ALLBUS 1986. ZUMA -
Nachrichten, 26, 31-55.


Natürlich sind repräsentative Umfragen nur Annäherungen. Nur gibt es bei einer repräsentativen Umfrage immer auch eine Schwankungsbreite und einen Vertrauensintervall, beides fehlt bei der Steam-Umfrage. Es ist ein beliebig zusammengewürfelter Haufen, der nicht repräsentativ für den Gesamtmarkt ausgewählt wurde, und deshalb IMHO auch nicht den Anspruch erheben kann diesen repräsentativ wiederzugeben.

reunion

reunion

Genau so sieht es aus.


Schlußendlich gibt es in der Praxis absolut KEINE Repräsentativen Umfragen (im Sinne der Wortbedeutung von "Repräsentativität"), auch wenn es gern behauptet wird. Somit kann es auch nichts geben, was repräsentativer als etwas anderes ist. Repräsentativität ist eine bestimte Eigenschaft, sie kann gegeben sein, oder auch nicht. Im Falle von Umfragen ist dies mit sehr hoher Wahrscheinlichkeit nicht der Fall.

PS: Ich bin dafür irgendwo mal einen separaten Repräsentativitäs-Thread aufzumachen, auf den immer wieder verwiesen werden kann, da es doch immer die gleichen Diskussionen sind.

Gast
2007-09-26, 15:52:15
Und zu Bioshock wissen wir das es ohne AA/AF is wobei die 8800er mit AA getestet wurde. Ich kenn nur dies Biovergleich
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_nvidia_forceware_16367/7/#abschnitt_bioshock

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_ati_catalyst_79/7/#abschnitt_bioshock

Die 8800 wurde genau so ohne AA wie die 2900 getestet.

Gast
2007-09-26, 15:56:41
Mein Gott Jessas! Spielt denn hier keiner mit AA/AF? Ich kann nur sagen schaltet man das bei der 2900 Serie ein ist der Spielspass abrupt zuende. Ich kann diese nichtssagenden benches nicht mehr sehen. Ich habe einen PC damit ich AA/AF nutzen kann damit es ein Augenschmaus wird. Es ist und bleibt so das diese ATI-Generation niemals, und ich betone NIEMALS wegen der Architekturmängel AA/AF kompensieren kann. Ich kann diese benches echt nicht mehr sehen. Meine Erfahrungen sind andere. In diesem Sinne
Bist du besoffen? Schau doch eine seite zurück da wurde in 1600x1200 mit 4/16 getestet und es ergab bei 18 Tests 7:5 für die HD2900XT und 6 Benches gleichwertig.

Gast
2007-09-26, 15:59:16
Erzähl nicht! Schau bei Computerbase vorbei, und da sieht die Sache anders aus. Wie ich fanboys hasse...

[dzp]Viper
2007-09-26, 16:02:12
Die 1GB Variante kann man sich schenken - was kann ich mit 1GB, was ich nicht mit 512MB kann? Auflösung erhöhen und Kantenglättung hochschrauben. Die erste Sache klappt, verglichen mit dem G80, besser, umso shaderlastiger ein Spiel ist, das zweite kann man sich aufgrund der schwachbrüstigen und/oder verbuggten Rop-Leistung schenken - in AA-Stufen, wo 1024 ggü 512MB einen Vorteil bringen, limitieren die Rops.

Nicht vergessen, die 1GB Version scheint mit den Taktraten der 2900XT zu laufen (also 742 MHz vor Core!)

Gast
2007-09-26, 16:02:31
Wohlgemerkt wird da ne 2900XT gegen 8800GTS getestet. Erstmal abwarten wie die ATIchips abgehen. Denn es sind nur Prochips die den XT-Takt nicht geschafft haben. Und der Lüfter ist der "Brüller". MfG

Gast
2007-09-26, 16:02:48
Öhmm Eigentor würd ich sagen das ist von CB.
Quellen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_ati_catalyst_79/1/#abschnitt_einleitung

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_nvidia_forceware_16367/[/QUOTE]

Gast
2007-09-26, 16:05:33
DIE HD2900PRO SOLL ZWISCHEN DER 8600GTS UND 8800GTS LIEGEN.

Also zwischen nicht gleichauf oder schneller,

Gast
2007-09-26, 16:07:44
Ich hab keinen Bock mich mit dir Fanboy zu keilen. Ne 8800GTS und XT liegen summa summarum gleichauf. Die ATI ist ein Stromvernichter und der Lüfter indiskutabel. Nvidia verbessert Treiber, ATI verschlechtert sie. Und in den DX10 benches scheint NVIDIA die besseren Karten zu haben. Die Pro soll erstmal kommen. Ich erwarte da nix besonderes. In diesem Sinne

Lawmachine79
2007-09-26, 16:07:52
DIE HD2900PRO SOLL ZWISCHEN DER 8600GTS UND 8800GTS LIEGEN.

Also zwischen nicht gleichauf oder schneller,
Da passt die 2900Pro 512 preislich auch hin. Es ist uninteressant, wo die Karte laut Hersteller liegt, sondern wo sie in der Preisliste liegt.

Dr.Dirt
2007-09-26, 16:37:56
Ist das jetzt das Problem von NV oder ATI?
Weder noch. Das erklärt aber teilweise, warum in der Umfrage mehr G80 als HD2900 vorhanden sind.

Gast
2007-09-26, 16:38:37
Um nochmal auf den Threat*g* zurückzukommen: toll, ATI hat es geschafft, minderwertige Chips auf ne Pro-Karte zu verbauen. Toll, so schockt man nen Konkurrenten. Und ich gebe mal nen Tip: Die Leute die diese Karten testen haben bestimmt Karten mit "besseren" Chips bekommen, damit sich das dumme Volk diese eben kauft. Ich behaupte einfach mal man kann froh sein, wenn man mit Spannungserhöhung near XT-Takt kommt. Also versprecht euch nicht zuviel. Und das was verbessert gehörte wurde mal wieder nicht gemacht. Stichwort "Turbine". Denkt mal drüber nach. MfG

Dr.Dirt
2007-09-26, 16:39:20
freuen sich immer wie ein kleines kind wenn die xt mal an die gtx rankommt :D

mfg

Und dich ärgert es dann wie ein kleines Kind wenn dem so ist?

Edit: Gibt's eigentlich inzwischen weitere Tests zur 2900 Pro?

Gast
2007-09-26, 18:06:04
Just heard from a fairly reliable source that the G92 aka GF8700 performs in between a GF8600GTS and GF8800GTS. It looks like AMD really succeeded in crashin nV's party by releasing the HD2900Pro which offers better performance for the same price one and a half months sooner. And G92 will go up against RV670 in November... and that fight should be in favor of the RV670...

There will be two versions of the GF8700, a GTS and a GX2, which was sort of confirmed by Kinc yesterday who said that there will be a GX2 version of the "die shrink".

http://forum.beyond3d.com/showthread.php?p=1070119#post1070119
Hoffentlich geht jetzt einigen ein Licht auf.

Gast
2007-09-26, 18:09:10
Habe das Gefühl, dass Amd die nur Pro genannt hat um den günstigen Preis zu rechtfertigen. Die XT könnten sie preislich nicht so reduzieren, ohne dass ihnen selbst hartgesottene Fanboys wegen des immensen Wertverlustes an die "Gurgel" gehen würden. Schnell die XTs in Pro umgelabelt und auf den Markt geschmissen. Man bekommt auf jeden Fall viel Ware fürs Geld. Alleine der Kupferkühlkörper mit Heatpipes und dem starken Lüfter...
Will nicht wissen, wieviel Amd da drauflegen muss.

Gast
2007-09-26, 18:12:48
Habe das Gefühl, dass Amd die nur Pro genannt hat um den günstigen Preis zu rechtfertigen. Die XT könnten sie preislich nicht so reduzieren, ohne dass ihnen selbst hartgesottene Fanboys wegen des immensen Wertverlustes an die "Gurgel" gehen würden. Schnell die XTs in Pro umgelabelt und auf den Markt geschmissen. Man bekommt auf jeden Fall viel Ware fürs Geld. Alleine der Kupferkühlkörper mit Heatpipes und dem starken Lüfter...
Will nicht wissen, wieviel Amd da drauflegen muss.
XL wäre zumindest bei der 512-bit-Version passender.

Gast
2007-09-26, 18:35:16
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/22/#abschnitt_performancerating
Die X2900 Pro müsste also schneller als die Gts 320 sein.Wenn man jetzt noch jede Pro zur Xt machen kann.;D

Gast
2007-09-26, 20:10:33
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/22/#abschnitt_performancerating
Die X2900 Pro müsste also schneller als die Gts 320 sein.Wenn man jetzt noch jede Pro zur Xt machen kann.;D

Und der Stromverbrauch ist auch grade mal so hoch wie bei einer 8800 GTX.

Das Karte rockt.

Gast
2007-09-26, 20:28:13
http://forum.beyond3d.com/showthread.php?p=1070119#post1070119
Hoffentlich geht jetzt einigen ein Licht auf.

Die angebliche 8700xxx soll einen Single-Slot Kühler haben, der bestimmt wesentlich leiser sein wird. Dazu kommt der deutlich niedrige Stromverbrauch. Sry, aber die 2900pro "crusht" nirgends rein, sondern ist nur de rletzte Versuch von AMD, irgendwie die Chips an den Mann zubringen.
Der neuste Test von Computerbase zeigt ja eindrucksvoll, wie zukunftstauglich die 2900XT Karten sind. Ich sehe hier kaum noch Vorteile bei der XT gegenüber der GTS640, die einen Kauf rechtfertigen.

LovesuckZ

Gast
2007-09-26, 20:40:11
Die angebliche 8700xxx soll einen Single-Slot Kühler haben, der bestimmt wesentlich leiser sein wird. Dazu kommt der deutlich niedrige Stromverbrauch. Sry, aber die 2900pro "crusht" nirgends rein, sondern ist nur de rletzte Versuch von AMD, irgendwie die Chips an den Mann zubringen.
Der neuste Test von Computerbase zeigt ja eindrucksvoll, wie zukunftstauglich die 2900XT Karten sind. Ich sehe hier kaum noch Vorteile bei der XT gegenüber der GTS640, die einen Kauf rechtfertigen.

LovesuckZ
Du hast CJs Posting nicht ganz verstanden.
Nochmal: Die 2900Pro soll den Bereich abdecken, der zwischen der HD2600XT (X2?) und der HD2900XT liegt. Nicht die 2900Pro chrusht irgendwas, sondern AMD, da sie eine Grafikkarte auf den Markt bringen, die weder die 2900XT ersetzt noch mit der 8800GTS irgendwas konkurriert.
Nvidia hat so eine Grafikkarte gar nicht, diese soll erst im November kommen. Und im Oktober kommt noch die 2900GT. Wen als Käufer interessiert es, dass es sich um Abverkäufe handelt? Und was der Test von CB mit Zukunftstauglichkeit zu tun hat, ist mir ein Rätsel.

DrFreaK666
2007-09-26, 20:43:40
Fand die Karte erst interessant.
Aber dann wurde ich an die Lautstärke erinnert ... schade :frown:

LovesuckZ
2007-09-26, 20:46:37
Du hast CJs Posting nicht ganz verstanden.
Nochmal: Die 2900Pro soll den Bereich abdecken, der zwischen der HD2600XT (X2?) und der HD2900XT liegt. Nicht die 2900Pro chrusht irgendwas, sondern AMD, da sie eine Grafikkarte auf den Markt bringen, die weder die 2900XT ersetzt noch mit der 8800GTS irgendwas konkurriert.

Die 2900pro ist AMDs letzter Versuch nicht nur schlechtere Chips an den Mann zubringen, sondern auch - ja ich bewege mich auf glattem Eis - "vollwertige". Ich sehe keinen Kaufgrund einer 2900XT gegenüber 8800GTS mit 640mb.


Nvidia hat so eine Grafikkarte gar nicht, diese soll erst im November kommen. Und im Oktober kommt noch die 2900GT. Wen als Käufer interessiert es, dass es sich um Abverkäufe handelt? Und was der Test von CB mit Zukunftstauglichkeit zu tun hat, ist mir ein Rätsel.

Die Leute werden sich dann in den Arsch beisen, wenn sie sehen, dass die 8700xxx nicht nur leiser ist und weniger Strom verbraucht, sondern auch eine ähnliche Leistung erreicht.

Gast
2007-09-26, 20:55:39
Die 2900pro ist AMDs letzter Versuch nicht nur schlechtere Chips an den Mann zubringen, sondern auch - ja ich bewege mich auf glattem Eis - "vollwertige". Ich sehe keinen Kaufgrund einer 2900XT gegenüber 8800GTS mit 640mb.



Die Leute werden sich dann in den Arsch beisen, wenn sie sehen, dass die 8700xxx nicht nur leiser ist und weniger Strom verbraucht, sondern auch eine ähnliche Leistung erreicht.
Warum bringst du wieder die 2900XT ins Gespräch?
Nochmal: Die 2900Pro steht in den nächsten Wochen ohne Konkurrenz da. Wenn die 8700er draußen ist, wird es auch eine passende Antwort von AMD geben. Was ist daran so schwer zu verstehen?
Was interessiert mich als Käufer, dass die R600-Chips auf der Pro "schlechter" sind als auf der XT? Ich zahle für eine Pro und erwarte auch eine Pro und keine XT. Dass der R600 seine Macken hat, weiß doch jeder, der in diesem Forum unterwegs ist, aber weder sind Spiele darauf jetzt unspielbar noch werden sie es. Es ist alles eine Frage von Einstellungen, und Reviews, wo möglichst höchste visuelle Stufe verwendet wird, sagen nur aus, wie die Performance mit diesen Einstellungen aussieht (wobei es meist eh nur aufgenommene Timedemos sind).

Gast
2007-09-26, 20:59:55
Warum bringst du wieder die 2900XT ins Gespräch?
Nochmal: Die 2900Pro steht in den nächsten Wochen ohne Konkurrenz da.

Das ist doch Quatsch, die Konkurrenz ist sehr stark in Form der 8800GTS.

LovesuckZ
2007-09-26, 21:01:34
Checkst du nicht, dass ich mich auf das "crush" konzentriere? AMD müsste diesen Weg nicht gehen, wenn sich die XT gut verkaufen würde. Sie schießen sich doch so selbst ins Bein, da ja ihre RV670 oder Sonstwaskarte auch nicht schneller ist.
Und ich sage klar, dass sich viele Pro Käufer ärgern werden, wenn AMD und nVidia in November Produkte vorstellen, die vielleicht leicht langsamer, dafür aber leiser und weniger stromhungrig sein werden.

Gast
2007-09-26, 21:07:50
Nochmal: Die 2900Pro steht in den nächsten Wochen ohne Konkurrenz da. Wenn die 8700er draußen ist, wird es auch eine passende Antwort von AMD geben.
Genau so sieht es aus und der Nachfolger in Form der 2950Pro in 55nm mit einer TDP von 135W ist ja auch schon geplant.


Mit LovesuckZ zu Diskutieren ist umsonst er hat große vorbehalte gegen A/A.
Verstehe sowieso nicht das man wegen ein stück HW so abgehen kann, kauf dir ne ULTRA und lehn dich zurück ;-)

reunion
2007-09-26, 21:09:12
Checkst du nicht, dass ich mich auf das "crush" konzentriere? AMD müsste diesen Weg nicht gehen, wenn sich die XT gut verkaufen würde.

Stimmt, sie könnten auch Chips, welche die XT-Taktraten nicht schaffen (Pro) oder defekt sind (GT) einfach wegschmeißen.


Sie schießen sich doch so selbst ins Bein, da ja ihre RV670 oder Sonstwaskarte auch nicht schneller ist.

Oh doch.


Und ich sage klar, dass sich viele Pro Käufer ärgern werden, wenn AMD und nVidia in November Produkte vorstellen, die vielleicht leicht langsamer, dafür aber leiser und weniger stromhungrig sein werden.

Das wird GTS-Käufern nicht anders gehen.

LovesuckZ
2007-09-26, 21:10:25
Mit LovesuckZ zu Diskutieren ist umsonst er hat große vorbehalte gegen A/A.
Verstehe sowieso nicht das man wegen ein stück HW so abgehen kann, kauf dir ne ULTRA und lehn dich zurück ;-)

Nein, du willst mich bloß nicht verstehen. Das ist ein Unterschied.
Du kannst mir gerne den Sinn der 2900pro erklären. Vorallen unter der Tatsache, dass im November von AMD eine Karte auf den Markt, die zum selben Preis mit einer selben Leistung verkauft wird.

Stimmt, sie könnten auch Chips, welche die XT-Taktraten nicht schaffen (Pro) oder defekt sind (GT) einfach wegschmeißen.

Siehe Posting oben. Für Pro und GT ist die Veröffentlichung zeitlich nicht gerechtfertigt. Außer man will die Lager so schnell wie möglich ohne Verluste leeren.


Das wird GTS-Käufern nicht anders gehen.

Ja, die Karte kommt auch nächste Woche in den Laden. :rolleyes:

reunion
2007-09-26, 21:15:16
Siehe Posting oben. Für Pro und GT ist die Veröffentlichung zeitlich nicht gerechtfertigt. Außer man will die Lager so schnell wie möglich ohne Verluste leeren.


Warum ist die Veröffentlichung deiner Meinung nach nicht gerechtfertigt? Es dauert eben seine Zeit, bis man ein paar defekte/zu langsame Chips zusammen hat. Und die will man jetzt - wie du schon sagst - noch schnell loswerden, bevor RV670 kommt. Denn eins steht fest: Wenn RV670 kommt, will niemand mehr einen R600, egal in welcher Form.


Ja, die Karte kommt auch nächste Woche in den Laden. :rolleyes:

Was hat das damit zu tun? Wenn ich mir heute eine GTS kaufe, bin ich genau so angeschmiert, wie wenn ich mir heute eine Pro kaufe. Welche Karte wann erschienen ist, kann mit heute völlig egal sein.

Gast
2007-09-26, 21:15:21
Nein, du willst mich bloß nicht verstehen. Das ist ein Unterschied.
Du kannst mir gerne den Sinn der 2900pro erklären. Vorallen unter der Tatsache, dass im November von AMD eine Karte auf den Markt, die zum selben Preis mit einer selben Leistung verkauft wird.
Wie reunion schon sagt soll A/A die "schlechteren " Chips in die Tonne hauen?
Die Pro bietet ein gutes P/L verhältnis und A/A ist im Gespräch.
Ich würde aber auch auf die 2950Pro setzen das ist klar.

LovesuckZ
2007-09-26, 21:21:46
Warum ist die Veröffentlichung deiner Meinung nach nicht gerechtfertigt? Es dauert eben seine Zeit, bis man ein paar defekte/zu langsame Chips zusammen hat. Und die will man jetzt - wie du schon sagst - loswerden, bevor RV670 kommt. Denn eins steht fest: Wenn RV670 kommt, will niemand mehr einen R600, egal in welcher Form.

Dann kannst du mir bestimmt auch erklären, wie nVidia es beim G80 geschafft hat am Release-Tag 8800GTS Karten zu verkaufen, wenn die Selektierung "eben seine Zeit" benötige.
Die Pro ist der Abverkauf, um die Lager zu leeren. Sie "crushen" sich damit doch selbst.


Was hat das damit zu tun? Wenn ich mir heute eine GTS kaufe, bin ich genau so angeschmiert, wie wenn ich mir heute eine Pro kaufe. Welche Karte wann erschienen ist, kann mit heute völlig egal sein.

Die GTS320 benötigt deutlich weniger Strom und ist deutlich leiser als die Pro. Der Unterschied bezüglich dieser zwei Faktoren ist wesentlich größer bei der Pro als bei der GTS.

Hauwech
2007-09-26, 21:26:53
Hat da nicht mal ein Gast? eine begrenzte Verfügbarkeit angedeutet? Nur irgendwas um die 50.000 Karten weltweit? Falls dem wirklich so ist, dürften die Stückzahlen hierzulande also recht klein sein und die Karte daher nur begrenzt als P/L-Kracher gelten, oder nicht?

AnarchX
2007-09-26, 21:28:28
Bei einer Lebensdauer von ~4 Wochen sollte das doch kein Problem sein. ;)

Gast
2007-09-26, 21:35:59
Die GTS320 benötigt deutlich weniger Strom und ist deutlich leiser als die Pro. Der Unterschied bezüglich dieser zwei Faktoren ist wesentlich größer bei der Pro als bei der GTS.

Lautstärke stimmt aber Strom ist nicht deutlich mehr.

8800GTS 320 IDLE 196W, LOAD 270W

2900Pro 512 IDLE 199W, LOAD 295W

http://www.tweaktown.com/reviews/1189/13/page_13_power_consumption_tests/index.html

Die 320er krankt aber stark am Vram Bug, z.b. in World in Conflict und Crysis-Beta richtig derbe.

LovesuckZ
2007-09-26, 21:40:25
Das ist ein Test. Warten wir andere ab. Ich gehe jedoch stark davon aus, dass der Stromverbrauchsunterschied sich zwischen 30-50 Watt einpendeln wird - je nach Test.
Und der VRam Bug ist eben nicht immer einer. Irgendwann ist die physikalische Grenze einfach erreicht.

reunion
2007-09-26, 21:40:45
Dann kannst du mir bestimmt auch erklären, wie nVidia es beim G80 geschafft hat am Release-Tag 8800GTS Karten zu verkaufen, wenn die Selektierung "eben seine Zeit" benötige.
Die Pro ist der Abverkauf, um die Lager zu leeren. Sie "crushen" sich damit doch selbst.


Indem man hauptsächlich voll funktionsfähige Chips verkauft hat, ist doch klar. Der Verkauf an GTS-Karten dürfte durch den niedrigeren Preis erheblich höher liegen als bei den GTX-Karten. Wenn diese wirklich alle defekt wären, wären die Yieldraten miserabel. Die Pro ist nicht ohne Grund auf eine geringe Stückzahl limitiert. Das gleiche Spiel gabs bei ATi doch schon mal, zuletzt mit der X1900GT, welche bald durch die X1950pro mit RV570 ersetzt wurde.


Die GTS320 benötigt deutlich weniger Strom und ist deutlich leiser als die Pro. Der Unterschied bezüglich dieser zwei Faktoren ist wesentlich größer bei der Pro als bei der GTS.

Und weiter? Ein G92 wird trotzdem in jeder Hinsicht zu bevorzugen sein, und nur darum ging es.

Das ist ein Test. Warten wir andere ab. Ich gehe jedoch stark davon aus, dass der Stromverbrauchsunterschied sich zwischen 30-50 Watt einpendeln wird - je nach Test.


Es ist nicht ein Test, es ist der einzige Test, der den Stromverbrauch misst. Und solange es keine andere Grundlage gibt, sehe ich keinen Grund, warum man diesen nicht glauben sollte. Was du mutmaßt ist schön für dich, steht aber hier denke ich nicht zu Disposition.

Gast
2007-09-26, 21:50:29
Einige scheinen zu vergessen das man ne 8800GTS auch im 2D runterregeln kann, zwar nicht an der Voltschraube drehen kann, aber immerhin. Das macht auch ein paar Watt aus. Dann kann man den Lüfter sogar locker auf 50 Prozent regeln und die Kiste wird noch leiser. Es ist einfach enttäuschend das ATI nach x-Monaten nicht fähig ist Nvidia irgendwie gefährlich zu werden. Traurig aber wahr. MfG

Gast
2007-09-26, 21:52:10
Und der VRam Bug ist eben nicht immer einer. Irgendwann ist die physikalische Grenze einfach erreicht.
*lach* das erzähl mal den Usern die das betrifft die freuen sich bestimmt ;-)

Du arbeitest nicht zufällig bei NV

reunion
2007-09-26, 21:53:08
Einige scheinen zu vergessen das man ne 8800GTS auch im 2D runterregeln kann, zwar nicht an der Voltschraube drehen kann, aber immerhin. Das macht auch ein paar Watt aus. Dann kann man den Lüfter sogar locker auf 50 Prozent regeln und die Kiste wird noch leiser.

Stell dir vor, die 2900Pro kann man nicht nur in 2D weiter runtertakten, sondern man kann auch die Spannung weiter senken, was bekanntlich wesentlich mehr bringt. Zudem kann man natürlich auch den Lüfter selbst regeln, und hier sollte einiges drin sein, da selbst die XTs relativ kühl bleiben.

LovesuckZ
2007-09-26, 21:56:19
Indem man hauptsächlich voll funktionsfähige Chips verkauft hat, ist doch klar. Der Verkauf an GTS-Karte dürfte durch den niedrigeren Preis erheblich höher liegen als bei den GTX-Karten. Wenn diese wirklich alle defekt wären, wären die Yieldraten miserabel. Die Pro ist nicht ohne Grund auf eine geringe Stückzahl limitiert. Das gleiche Spiel gabs bei ATi doch schon mal, zuletzt mit der X1900GT, welche bald durch die X1950pro mit RV570 ersetzt wurde.

Du willst also behaupten, dass nVidia freiwillig vollwertige Chips um 2/8 kastriert hat, um mehr GTS als GTX Karten zu verkaufen?
Wahrscheinlich hat nVidia das schon seit der GF4 so getan. Warum auch mehr Geld mit Selektion einnehmen, wenn man vollwertige Chips für das oberste Glied der Kett zweckentfremden kann. Komm, das ist absurd.
Deine Ausreden, dass man erst jetzt eine 2900Pro bringt, sind doch wirklich nicht haltbar. Selektion hätte man schon am Anfang machen können. Wenn dieser Preisrahmen so wichtig für AMD wäre, hätte es die Pro schon zum Release gegeben.


Und weiter? Ein G92 wird trotzdem in jeder Hinsicht zu bevorzugen sein, und nur darum ging es.

Du verstehst es anscheinend nicht. Der Unterschied zwischen einer Pro und einer GTS320 zu den neuen Karten ist nicht gleich. Die Pro hat deutlichere Nachteile als die GTS. Das die GTS320 aufgrund des Speichers nicht immer ihre volle Leistung entfalten kann, müssten vielen Käufern heutzutage klarsein.
Der Anreiz seine neuerworbene Karte wiederzuverkaufen wird bei der Pro wesentlich höher ausfallen, da Lautstärke und Stromverbrauch keine unwesentliche Faktoren sind.


Es ist nicht ein Test, es ist der einzige Test, der den Stromverbrauch misst. Was du mutmaßt ist schön für dich, steht aber hier denke ich nicht zu Disposition.

Der Stromverbrauch variert zwischen den Tests deutlich. Und 30 bis 50 Watt sind keine unbedeutenden Unterschiede.

*lach* das erzähl mal den Usern die das betrifft die freuen sich bestimmt ;-)
Du arbeitest nicht zufällig bei NV

Dass der Speicher eine physikalische Grenze der Leistung darstellen kann? Sry, aber dann sind die Käufer eben dumm gewesen. Ich würde mich beim kauf einer GTS ja auch nicht beschweren, dass die Karte nicht die Leistung einer GTX erreicht.

Gast
2007-09-26, 21:57:18
Reunion, nix anderes habe ich behauptet. Aber auch eine 8800 kann man runterdrehen. ATI wird es schwer haben in Zukunft gegen Nvidia. Vielleicht heisst es bald Intel vs. Nvidia? Abwarten und Tee trinken. We`ll see

Gast
2007-09-26, 22:06:19
ATI wird es schwer haben in Zukunft gegen Nvidia.
Ist doch Quatsch, ATI hatte die letzten Jahre die Nase vorn und derzeit halt NV.
Es kann in einem Jahr schon wieder umgedreht sein und wenn nicht geht die Welt auch nicht unter.
Wie schon erwähnt ich kann es nicht verstehen wie einige Leute hier abgehen.

LovesuckZ
2007-09-26, 22:08:52
Ist doch Quatsch, ATI hatte die letzten Jahre die Nase vorn und derzeit halt NV.


Nein, seit dem NV40 - 2004 - ist nVidia auf der Überholspur. Der Notebookmarkt ist das beste Beispiel für die Dominanz von nVidia.

Mumins
2007-09-26, 22:09:39
Was für eine Korinthenkackerei hier. Wen interessieren 20W im 3D-Betrieb? Das macht im Jahr bei 2 Stunden am Tag 2,60 € Unterschied, lass es 4 mal so viel sein sinds 10 €.
Zur Lautstärke, mir ist jeder Lüfter zu laut, deswegen interessiert mich die Lösung der Anbieter nicht, meine Wakü kommt drauf.

Gast
2007-09-26, 22:12:31
Naja, ich kann einige schon verstehen wenn sie mal aus der Hose hüppen. Es gibt halt Fanboys die vergleichen ne XT mit ner GTX/Ultra, und das so penetrant das es peinlich ist. Ich will das haben was das beste Preis/Leistungsverhältnis hat und für mich ist das ne 8800GTS 320MB. Das Gesamtpaket ist halt stimmiger. Gruss

reunion
2007-09-26, 22:17:35
Du willst also behaupten, dass nVidia freiwillig vollwertige Chips um 2/8 kastriert hat, um mehr GTS als GTX Karten zu verkaufen?
Wahrscheinlich hat nVidia das schon seit der GF4 so getan. Warum auch mehr Geld mit Selektion einnehmen, wenn man vollwertige Chips für das oberste Glied der Kett zweckentfremden kann. Komm, das ist absurd.

Nein. Absurd ist es zu glauben, dass derart viele Chips defekt sind und als GTS verkauft werden müssen. Das absolute High-End ist zwar am lukrativsten, allerdings sind die Stückzahlen auch mit Abstand am geringsten. Natürlich verkauft man auch funktionsfähige Chips als GTS, alleine schon weil man sonst im Preisrahmen von ~170-400€ faktisch keine Karte anbieten könnte. Ist doch schon lange so, früher konnte man viele Karten dank Mod sogar wieder voll aktivieren, welche nachweislich funktionierten.


Deine Ausreden, dass man erst jetzt eine 2900Pro bringt, sind doch wirklich nicht haltbar. Selektion hätte man schon am Anfang machen können. Wenn dieser Preisrahmen so wichtig für AMD wäre, hätte es die Pro schon zum Release gegeben.

Das ist keine Ausrede, das sind Tatsachen. Wegen weniger hundert Chips lohnt es sich nicht eine neue Karte vorzustellen, es dauert eben seine Zeit, bis man ausreichend defekte Chips zusammen hat. Hat man ja in der Vergangenheit ebenso gemacht. Und nochmal: Es geht nicht um den Preisrahmen, es geht darum diese Chips nicht wegwerfen zu müssen. Ginge es um den Preisrahmen, würde ich dir recht geben, dann hätte man die Karte auch gleich zu beginn vorstellen können, so nicht. Deshalb auch die limitierten Stückzahlen. Wenn du das nicht einsehen willst, dann kann ich dir auch nicht helfen.



Du verstehst es anscheinend nicht. Der Unterschied zwischen einer Pro und einer GTS320 zu den neuen Karten ist nicht gleich. Die Pro hat deutlichere Nachteile als die GTS. Das die GTS320 aufgrund des Speichers nicht immer ihre volle Leistung entfalten kann, müssten vielen Käufern heutzutage klarsein.
Der Anreiz seine neuerworbene Karte wiederzuverkaufen wird bei der Pro wesentlich höher ausfallen, da Lautstärke und Stromverbrauch keine unwesentliche Faktoren sind.


Ich verstehe sehr wohl worauf du hinaus wolltest, nur ist das doch lächerlich. Du sprachst davon, dass sich ein Pro-Käufer in wenigen Monaten verarscht vorkommen muss, und jetzt wo ich das auf die GTS bezog, fängst du an Erbsen zu zählen, und die GTS-Käufer irgendwie als die weniger verarschten unten den Verarschten hinzustellen.


Der Stromverbrauch variert zwischen den Tests deutlich. Und 30 bis 50 Watt sind keine unbedeutenden Unterschiede.


Hallo? Wo wurden 30-50W gemessen? Ich habe bis jetzt nur den einen Test von TT gesehen, und dort wurde auch nur unter Last 25W Differenz gemessen, unter idle fast identisch. Was du hier zusammen fantasierst, weiß ich nicht.

Gast
2007-09-26, 22:22:20
Nein, seit dem NV40 - 2004 - ist nVidia auf der Überholspur. Der Notebookmarkt ist das beste Beispiel für die Dominanz von nVidia.

Ich sag nur R580 vs. G70/71. Was hat der Notebookmarkt jetzt mit den Desktopkarten zu tun.:confused:

LovesuckZ
2007-09-26, 22:32:12
Nein. Absurd ist es zu glauben, dass derart viele Chips defekt sind und als GTS verkauft werden müssen. Das absolute High-End ist zwar am lukrativsten, allerdings sind die Stückzahlen auch mit Abstand am geringsten. Natürlich verkauft man auch funktionsfähige Chips als GTS, alleine schon weil man sonst im Preisrahmen von ~170-400€ faktisch keine Karte anbieten könnte. Ist doch schon lange so, früher konnte man viele Karten dank Mod sogar wieder voll aktivieren, welche nachweislich funktionierten.

Die GTS ist um 2/8 kastriert. Sollte nur in einem TCP ein Fehler auftreten, hat man ein Chip für die GTS Karte. Bei der Komplexiblität der heutigen Chips sollte dies deutlich öfters auftreten als früher.
Wenn es genug funktionsfähige Chip geben würde, hätte nVidia eine andere Aufstellung vorgenommen. AMD bringt vollwertige XT Chips, die die Taktrate anscheinend nicht schaffen. Solch eine Selektierung benötigt keine 4 Monate. Ansonsten, warum haben sie nicht am Anfang die Karte herausgebracht? Anscheinend ist diese Marktpositinierung ja umheimlich wichtig.


Deshalb auch die limitierten Stückzahlen. Wenn du das nicht einsehen willst, dann kann ich dir auch nicht helfen.

Eine Limitierung der Stückzahlen? Deswegen auch eine GT? :rolleyes:


Ich sag nur R580 vs. G70/71. Was hat der Notebookmarkt jetzt mit den Desktopkarten zu tun.

Ja, die Karten (g70/71) haben sich besser verkauft.
Und der Notebookmarkt war der Bereich indem nVidia bis zur 6600go und 6800go kaum existent war. Seitdem haben sie AMD deutlich in die Schranken gewiesen. Und der Bereich eben auch zur Widerlegung von "ATI hatte die letzten Jahre die Nase vorn"

Gast
2007-09-26, 22:34:19
Lovesuckz schiebt glaub ich grade paranoia.Er versucht hier wirklich die X2900 sowas von schlecht zu reden und merkt selbst nicht wie ätzend seine Schreibweise doch ist.Du bist echt das Musterbeispiel für ein Fanboy.....

Die X2900 Pro ist einfach attraktiv für denn Preis,da wirst du kaum was ändern können....

Gast
2007-09-26, 22:42:43
Ja, die Karten (g70/71) haben sich besser verkauft.

Will ich nicht abstreiten, aber waren/sind nicht die besseren Graka.
@Gast Unterschreib

P.S. Ich bin raus hier und werd mal Jericho zocken und danach Crysis MP.
Mit der 2900XT 880/980. Und ich kann sagen das die genauso gut/schlecht performt wie die 8800ULTRA obwohl es von Nvidia schon 2 Spez. Treiber gab.


Bye

Gast
2007-09-26, 22:54:25
@Gast über mir (Ein volles Gasthaus heute*g*) du bist echt drollig! Unterstellst Lovesuckz ein Fanboy zu sein und vergleichst ernsthaft ne XT mit ner Ultra? LOL, ich freue mich auf die Crisisdemo dann sehen wir wos besser läuft. Ansonsten biste zum schiessen. Auffen Mond gehörste geschossen..echt jetzt*g*

Gummikuh
2007-09-26, 22:57:04
Die 2900 Pro sollte doch erst nen 256 Bit Speicherinterface haben, nun doch 512, ja wie ists denn bei den Pros , welche auf dem RV670 basieren???Haben die denn nun 256 oder auch 512???

Gast
2007-09-26, 23:01:00
vergleichst ernsthaft ne XT mit ner Ultra?
Ich sage NUR das es DERZEIT in der MP-Beta zwischen der 2900XT 880/980 und einer Standart 8800 ULTRA keine nennenswerten Performaceunterschiede gibt.
Nicht mehr und nicht weniger.;-)

Gast
2007-09-26, 23:05:56
Wie, biste immer noch hier? Ich denke du wolltest Crysis zocken? Oder ruckelt es so dolle das du grad nebenher hier noch schreibst*g*? Ich versichere dir, in der finalen Version zersägt eine Ultra ne 2900XT. Und jetzt ab ins Bett, da kannste weiterträumen*g*

Gast
2007-09-26, 23:09:47
Ja, die Karten (g70/71) haben sich besser verkauft.


Wo steht das? Und selbst wenn, bedeutet das für Dich, dass sie deswegen automatisch besser waren? Die 1950er Reihe hat ggü. dem G70 und dessen Derivate fast nur Vorteile und erst noch den besseren Speed.

Gast
2007-09-26, 23:40:08
Wo steht das? Und selbst wenn, bedeutet das für Dich, dass sie deswegen automatisch besser waren? Die 1950er Reihe hat ggü. dem G70 und dessen Derivate fast nur Vorteile und erst noch den besseren Speed.

Guck dir Steam an. Guck dir die Preisstabilität der Karten an.
Seit dem NV40 hat nVidia Marktanteile zurückerobert, den Notebooksektor deutlich angegriffen und ihre Margen verdammt erhöht. Das bessere Produkt muss nicht zwangsläufig das erfolgreichere sein.

LovesuckZ

Coda
2007-09-27, 00:14:48
Nein. Absurd ist es zu glauben, dass derart viele Chips defekt sind und als GTS verkauft werden müssen.
Was bitte? Bei einm 90nm Chip mit fast 700 Mio. Logiktransistoren und der Die-Größe ist es unwahrscheinlich dass welche nicht kaputt sind? Geht's noch? Da funktionieren wahrscheinlich nichtmal 50% des Wafers komplett. Ich schätze so 30-40% sind voll funktionierende G80, der Rest ist entweder GTS oder komplett futsch.

Das ist sehr sehr gut erklärbar und bei weitem nicht "absurd".

Dr.Dirt
2007-09-27, 00:26:52
Die GTS320 benötigt deutlich weniger Strom

Ganze 3W im Idle und 15W unter Last für den gesamten PC nennst du deutlich.:crazy:
http://www.tweaktown.com/reviews/1189/13/page_13_power_consumption_tests/index.html

Angiesan
2007-09-27, 00:36:43
Ich verstehe sehr wohl worauf du hinaus wolltest, nur ist das doch lächerlich. Du sprachst davon, dass sich ein Pro-Käufer in wenigen Monaten verarscht vorkommen muss, und jetzt wo ich das auf die GTS bezog, fängst du an Erbsen zu zählen, und die GTS-Käufer irgendwie als die weniger verarschten unten den Verarschten hinzustellen. .
Das ist der Spruch des Tages, aber mit viel Warheit.
@ LovesuckZ
Wenn ich nicht eine 8800GTX hätte mit der ich auch zufrieden bin würde ich mit Heute eher eine HD2900Pro zulegen, weil: der Preis ist heiß.
Natürlich bekomme ich weniger Leistung, aber ich bezahle auch weniger dafür.
Und der V-Ram Bug bei der 8800er ist nicht sehr lustig, und ich bezweifele, dass
NV das in den Griff bekommt.

Heute zeigt sich das Problem fast nur auf den 8800GTS 320 Karten, wenn der
Speicherverbrauch aber bei neuen Spielen steigen wird, und das wird er, können
früher oder später auch die 8800GTS 640 und 8800GTX/Ultra von dem Problem
betroffen sein. Und dann könnte der ein oder andere sich wünschen eine ATi/AMD im Rechner zu haben.
Da ich das Problem noch nicht kenne, denke ich das ist wie --auf die BAB,
voll Pulle, das Grinsen auf der Fresse wird immer breiter und auf ein mal ...Stau
Na toll.

Weil was hilft es wenn ich ein paar Minuten mit sehr guter Leistung spielen
kann, bis es Probleme gibt.
Dann doch lieber gleich weniger Leistung dafür aber konstant.:D

Und wenn ich den Aussagen der MP Betatester von Crisys glauben darf, ist bei meiner nativen Auflösung 1680x1050 eh kein AA mehr in der Tüte ob nun GTX oder XT oder Pro spielt dann auch keine Rolle mehr.

Ganz abgesehen von dem Trend, dass ohne Hack bei den letzten Top-Spielen
kein AA möglich ist, siehe Stalker und Bioshock, das kotzt mich z.B. total an.

Was bleibt den wirklich abseits von es sind minderwerttige XT GPU oder der lächerliche Stromverbrauch, richtig der laute Lüfter:mad: Aber ansonsten ist
die ATi meiner Meinung nach der 8800GTS 320 auf jeden Fall vorzuziehen.

Und verarscht fühlt man sich als PC-Spieler eh meistens, ob das nun schlechte
Ports von Konsolen sind mit den man abgespeist wird oder eben schlechte FPS
obwohl das Gezeigte das nicht rechtfertigt, oder das man nach nur 6 Mon.
schon wieder € 600,-- auf den Tisch legen soll um die tollste und schnellste Graka in seinem Rechner zu haben ... usw.

Grüße

Dr.Dirt
2007-09-27, 00:43:21
Der Stromverbrauch variert zwischen den Tests deutlich. Und 30 bis 50 Watt sind keine unbedeutenden Unterschiede.

Hast du dazu auch mal eine Quelle oder entspringen diese Zahlen deiner blühenden Phantasie?

Bullz
2007-09-27, 00:51:31
AA/AF und Gesamtperfomance noch ein wenig mit Treiber erhöhen und dann ist das teil gekauft..,

Gast
2007-09-27, 00:54:35
Wie, biste immer noch hier? Ich denke du wolltest Crysis zocken? Oder ruckelt es so dolle das du grad nebenher hier noch schreibst*g*? Ich versichere dir, in der finalen Version zersägt eine Ultra ne 2900XT. Und jetzt ab ins Bett, da kannste weiterträumen*g*

Ich brauch nicht ins Bett, ich kann zocken ;-)
Mit der HD2900XT bekommt man sogar ein paar Frames zusammen.

http://img221.imageshack.us/img221/6878/cry1zs9.th.jpg (http://img221.imageshack.us/my.php?image=cry1zs9.jpg)

http://img300.imageshack.us/img300/4418/cry2uj0.th.jpg (http://img300.imageshack.us/my.php?image=cry2uj0.jpg)

Gast
2007-09-27, 01:00:29
Ich brauch nicht ins Bett, ich kann zocken ;-)
Mit der HD2900XT bekommt man sogar ein paar Frames zusammen.

http://img221.imageshack.us/img221/6878/cry1zs9.th.jpg (http://img221.imageshack.us/my.php?image=cry1zs9.jpg)

http://img300.imageshack.us/img300/4418/cry2uj0.th.jpg (http://img300.imageshack.us/my.php?image=cry2uj0.jpg)

man sieht das game dreckig aus ...

reunion
2007-09-27, 01:17:20
Was bitte? Bei einm 90nm Chip mit fast 700 Mio. Logiktransistoren und der Die-Größe ist es unwahrscheinlich dass welche nicht kaputt sind? Geht's noch?


Der Satz ergibt keinen Sinn, also ja - es geht noch.


Da funktionieren wahrscheinlich nichtmal 50% des Wafers komplett. Ich schätze so 30-40% sind voll funktionierende G80, der Rest ist entweder GTS oder komplett futsch.

Seltsam das ATi dann kaum defekte Chips hat, aber die können wohl zaubern. Zudem ist der Verkauf von GTS-Karten mit Sicherheit um mindestens Faktor 2-3 höher als dies bei den GTXen der Fall ist, da nur ein absolut vernachlässigbarer Prozentsatz der Kunden bereit ist, 500€ für eine Graka hinzulegen. Dieses Verhältnis kannst du niemals mit den Yields erklären, zumal es schon ein arger Zufall wäre, wenn sich die Nachfrage genau nach den Yields richten würde, denn eine Engpass sehe ich momentan weder bei den GTS-, noch bei den GTX-Karten. Im übrigen hat auch nV schon in der Vergangenheit nachweislich voll funktionsfähige Chips künstlich beschnitten, wie die ganze reaktivierten NV4x-Chips zeigen - und das ergibt ja auch Sinn.


Das ist sehr sehr gut erklärbar und bei weitem nicht "absurd".

NV stellt so viele GTS-Karten her, wie der Markt verlangt. Alles andere wäre absurd.

Eine Limitierung der Stückzahlen? Deswegen auch eine GT? :rolleyes:

Hä? Mit der GT werden defekte Chips verkauft, welche natürlich limitiert sind.

Coda
2007-09-27, 01:41:26
Der Satz ergibt keinen Sinn, also ja - es geht noch.
Der Satz ergibt sehr wohl Sinn. Es ist sehr sehr wahrscheinlich, dass ein so riesiges Die defekt ist. Es ist inoffiziell von Yields von 35-40% die Rede von funktionierenden G80. Da fallen sehr sehr viele G80 GTS ab.

NV stellt so viele GTS-Karten her, wie der Markt verlangt. Alles andere wäre absurd.
Das können sie aber sehr wohl weitgehendst mit defekten Chips abdecken. Zumal es sehr viel lukrativer ist voll funktioniernde G80 als GTX zu verkaufen. Die Nachfrage dafür ist ja auch nicht gerade gering.

The_Invisible
2007-09-27, 09:10:57
komisch das alles immer auf den vram "bug" geschoben wird aber die aa/af performance der 2900er schöngeredet wird bzw man gar kein wort darüber verliert. das der speicher dabei wirklich mal ausgehen könnte kommt natürlich keinem in den sinn.

mfg

LovesuckZ
2007-09-27, 10:23:12
Das ist der Spruch des Tages, aber mit viel Warheit.
@ LovesuckZ
Wenn ich nicht eine 8800GTX hätte mit der ich auch zufrieden bin würde ich mit Heute eher eine HD2900Pro zulegen, weil: der Preis ist heiß.
Natürlich bekomme ich weniger Leistung, aber ich bezahle auch weniger dafür.
Und der V-Ram Bug bei der 8800er ist nicht sehr lustig, und ich bezweifele, dass
NV das in den Griff bekommt.
Heute zeigt sich das Problem fast nur auf den 8800GTS 320 Karten, wenn der
Speicherverbrauch aber bei neuen Spielen steigen wird, und das wird er, können
früher oder später auch die 8800GTS 640 und 8800GTX/Ultra von dem Problem
betroffen sein. Und dann könnte der ein oder andere sich wünschen eine ATi/AMD im Rechner zu haben.
Da ich das Problem noch nicht kenne, denke ich das ist wie --auf die BAB,
voll Pulle, das Grinsen auf der Fresse wird immer breiter und auf ein mal ...Stau
Na toll.

Wenn der VRam Bug bei der GTX auftritt, dann ist Speicher der Pro schon lange voll. Abgesehen davon, bezweifle ich, dass der Bug sich so stark auf der GTX bemerkbar macht, da die Leistung mit 8xMSAA immernoch mindesten auf dem Niveau der XT ist. Und das trotz Vram Bug.

Gast
2007-09-27, 10:52:30
Was bitte? Bei einm 90nm Chip mit fast 700 Mio. Logiktransistoren und der Die-Größe ist es unwahrscheinlich dass welche nicht kaputt sind? Geht's noch? Da funktionieren wahrscheinlich nichtmal 50% des Wafers komplett. Ich schätze so 30-40% sind voll funktionierende G80, der Rest ist entweder GTS oder komplett futsch.

Das ist sehr sehr gut erklärbar und bei weitem nicht "absurd".
Ich hätte höchstens den Einwand, dass es sehr unwahrscheinlich ist, dass sehr viele "defekte" G80-Chips anfallen, wo gleich zwei Shaderblöcke samt einer ROP-Partition nicht funktionieren.
Wenn aber die Yields von Anfang an gut wären (sprich der Ausschuss gering), dann hätten wir die 8800GTS - wie schon bei der 7800GT - um mehrere Wochen später sehen dürfen.

Radeonator
2007-09-27, 12:39:03
@Lovesuckz:
Was schreibst du eigentlich für nen Müll? Schau dir lieber mal die harten Fakten an und lass die *unwort* Brille mal im Etui... :rolleyes: Ist ja nicht zum Aushalten der Kindergarten hier...
AMD/ATi hat einen mobile Marktanteil von ca 23% und nVidia von ca 20%.
AMD/ATi hat einen Desktop Marktanteil von ca 21% und nVidia von ca 28%

Leute es geht um HARDWARE und nicht um euer Leben.

LovesuckZ
2007-09-27, 12:42:19
AMD/ATi hat einen mobile Marktanteil von ca 23% und nVidia von ca 20%.


nVidia hat innerhalb von einem Jahr ihre Anteile im Notebookmarkt mehr als verdoppelt. Das AMD noch soviel hat, ist klar, wenn man die Chipsätze mitrechnet.
Bei den Notebook-Grafikkarten dagegen spielt ATi zur Zeit kaum noch eine Rolle.

Gast
2007-09-27, 13:44:06
Quark...
Warum soll denn ATI bei den Notebookgrakas keine Rolle spielen?

Die NV-Mobilekarten waren bis auf einige Ausnahmen trotz ihres Namens
so stark beschnitten, dass man gleich mit nem IntelGMa ins Rennen ziehen konnte.
Und wo findet man eigentlich noch eine NV-NB-Karte mit echten Vram?
Alles dieser Turbocahce Mist. Ati hat da wenigsdtens noch einige Modelle mehr mit vernünftiger Speicherausstattung.

Coda
2007-09-27, 13:51:01
Ich hätte höchstens den Einwand, dass es sehr unwahrscheinlich ist, dass sehr viele "defekte" G80-Chips anfallen, wo gleich zwei Shaderblöcke samt einer ROP-Partition nicht funktionieren.
Klar. Aber man kann ja nicht für jeden Defekt ne andere SKU einführen. Mit G80 GTS deckt man recht viele defekte Chips ab und kann diese noch verkaufen.

LovesuckZ
2007-09-27, 13:57:57
Quark...
Warum soll denn ATI bei den Notebookgrakas keine Rolle spielen?

Wieviele Notebooks kennst du, die eine X1800 bzw. X1900 haben? Wieviele Notebooks bieten eine X2600XT an?


Die NV-Mobilekarten waren bis auf einige Ausnahmen trotz ihres Namens
so stark beschnitten, dass man gleich mit nem IntelGMa ins Rennen ziehen konnte.

Das hat sich spätesten seit der 6600go bzw. 6800go geändert.


Und wo findet man eigentlich noch eine NV-NB-Karte mit echten Vram?
Alles dieser Turbocahce Mist. Ati hat da wenigsdtens noch einige Modelle mehr mit vernünftiger Speicherausstattung.

Vielleicht in deinem Paralelluniversium. In meiner Welt gibt es sogar SLI-Notebooks mit 2x 512mb VRAM.

seahawk
2007-09-27, 14:01:37
Tolle Karte von AMD. Damit ist man im Performancesegment dominant. Hoffen wir, dass RV670 ein ähnlicher Hit wird.

Gast
2007-09-27, 14:06:28
Tolle Karte von AMD. Damit ist man im Performancesegment dominant. Hoffen wir, dass RV670 ein ähnlicher Hit wird.

jep denk ich auch. Denn die 2600 hatte ja keine land gesehen gegen eine 8600GTS. Mit der Pro ist das kein nun problem mehr ;D

Gast
2007-09-27, 14:07:39
jep denk ich auch. Denn die 2600 hatte ja keine land gesehen gegen eine 8600GTS. Mit der Pro ist das kein nun problem mehr ;D

Edit: nun kein..






oops.

Hakkerstiwwel
2007-09-27, 14:24:15
Klar. Aber man kann ja nicht für jeden Defekt ne andere SKU einführen. Mit G80 GTS deckt man recht viele defekte Chips ab und kann diese noch verkaufen.
Klar ist das korrekt, allerdings ist davon auszugehen dass NV um die Nachfrage nach GTS Karten erfuellen zu koennen eben auch teilweise zu voll funktioierenden Chips greifen muss. Wie hoch jetzt genau das Ratio teildefekt/voll funktionsfaehig ist weis sicher nur NV alleine.

N0Thing
2007-09-27, 15:18:24
Wenn der VRam Bug bei der GTX auftritt, dann ist Speicher der Pro schon lange voll.


Nur wird der VRAM bei der 2900pro geleert, bei der 8800er nicht. :wink:

Gast
2007-09-27, 17:40:36
Nur wird der VRAM bei der 2900pro geleert, bei der 8800er nicht. :wink:

Ich weiß nicht, wie Leuten Spiele ohne Texturen gefallen werden... :rolleyes:

N0Thing
2007-09-27, 17:54:01
Ich weiß nicht, wie Leuten Spiele ohne Texturen gefallen werden... :rolleyes:


Da muß man mal alle nicht 8800er Besitzer fragen, wie die damit bisher klar gekommen sind. :rolleyes:

Gast
2007-09-27, 18:57:23
Da muß man mal alle nicht 8800er Besitzer fragen, wie die damit bisher klar gekommen sind. :rolleyes:

Ja, weil du keine Ahnung davon hast, dass der Bug vielelicht sogar nur auf Karten mit wneiger als 640mb auftritt? Ironischerweise kann man als GTX User anscheinend in hohen Auflösungen und mit 8xMSAA immer noch auf mindesten XT Niveau spielen. Wo da nur der Bug sei...

LovesuckZ

AMC
2007-09-27, 19:10:20
Ich weiß nicht, wie Leuten Spiele ohne Texturen gefallen werden... :rolleyes:

Das dürfte dann nur die nächste Stufe sein, wo doch AA und AF auch in den 3DCenter News keine Beachtung mehr finden, siehe heute und den link zum "review" der 2900Pro. Wer braucht schon Texturen? Ich wette, ohne geht die 2900XT sowas von ab, da kannste direkt ne GTX als Konkurrenz schlagen. :biggrin:

AMC

Dr.Dirt
2007-09-27, 19:33:16
Das dürfte dann nur die nächste Stufe sein, wo doch AA und AF auch in den 3DCenter News keine Beachtung mehr finden, siehe heute und den link zum "review" der 2900Pro. Wer braucht schon Texturen? Ich wette, ohne geht die 2900XT sowas von ab, da kannste direkt ne GTX als Konkurrenz schlagen. :biggrin:

AMC
Schade, schon wieder ist mir von dir so ein gaflame aufgefallen. Von den Gästen hier ist man ja meistens nichts anderes gewöhnt, aber als registrierter user sollte man sich das verkneifen.

Der Thread hier zur 2900 pro ist inzwischen zur Flameschlacht verkommen, wie so viele Threads hier zu ähnlicher Thematik. :(

AMC
2007-09-27, 19:43:21
Schade, schon wieder ist mir von dir so ein gaflame aufgefallen. Von den Gästen hier ist man ja meistens nichts anderes gewöhnt, aber als registrierter user sollte man sich das verkneifen.

Der Thread hier zur 2900 pro ist inzwischen zur Flameschlacht verkommen, wie so viele Threads hier zu ähnlicher Thematik. :(

Hmm, erstens meinte der Gast das eher so -> ;) und daher habe ich es überspitzt fortgesetzt :tongue:, ferner solltest Du Dir einfach mal die News von heute ansehen. Mit Geflame hat das nichts zu tun, es entspricht nun mal leider der Wahrheit. Schon zum zweiten Mal wurde ein "Fazit" aufgrund eines irrelevanten "Reviews" gezogen (veraltete Treiber, 162.18 bei der GTS, aber CAT 7.9 bei der ATI :rolleyes:, da wollte wohl jemand sichergehen, dass die GTS in Stalker oder Bioshock nicht gewinnt) und ich sehe einfach nicht ein, mich einem sehr interessanten Foren-Phänomen zu beugen: Dem Phänomen der Realitätsverzerrung. Wenn nur lange und oft genug dasselbe behauptet wird, dann glauben es nach einiger Zeit die meisten User, egal, ob es falsch ist, oder nicht. Gut zu sehen in Threads wie "8500 vs Geforce 4". Die Geforce 4 hat zu aktuellen Zeiten Kreise um die 8500er gezogen, wenn man aber heute Beiträge dazu liest, dann erscheint es, als wäre die 8500 ebenbürtig, oder gar überlegen gewesen, was schlicht nicht stimmt. Man behauptet es allerdings stur und in einer Tour (welche "Kollegen" das sind, sollte Dir alleine aufallen) bis sich niemand mehr wehrt. Dazu habe ich keine Lust, vor allem nicht bei so schnell zu durchschauendem Schwachsinn, wie eben Benchmarks ohne AA und AF. Gerade hier auf 3DC wurde doch immer geschrien und gezetert, was die Wichtigkeit von AA und AF angeht und das es bloß in max. Qualität zu sein hat, etc.! Nun scheint man davon heimlich wieder abzurücken und dazu schreib ich hier meine Meinung, ob es nun passt, oder nicht.

AMC

Hauwech
2007-09-27, 20:25:58
@seahawk

Ich sehe nicht, wie ATI mit der 2900 Pro wieder dominant werden sollte.

@AMC

Kann ich so zustimmen.

seahawk
2007-09-27, 20:30:40
Warte mal ab wie schnell die PRO ausverkauft ist.

Hauwech
2007-09-27, 20:37:03
Warte mal ab wie schnell die PRO ausverkauft ist.

Ja sicher wird sie das, aber bei den anzunehmenden begrenzten Stückzahlen und der kurzen Lebensdauer auch kein "Wunder". Daraus irgendeine Dominanz ableiten zu wollen, sehe ich trotzdem nicht.

seahawk
2007-09-27, 20:38:21
ISt halt nur der Beginn, CJ (eine sehr gute Quelle bei Beyond3D) sagt ja ziemlich deutlich, dass RV670 G92 dominieren wird.

Hauwech
2007-09-27, 20:40:37
ISt halt nur der Beginn, CJ (eine sehr gute Quelle bei Beyond3D) sagt ja ziemlich deutlich, dass RV670 G92 dominieren wird.

Hat er schon beide getestet? Oder nur ATI oder noch gar keine und nur Werte genannt bekommen? Mit oder ohne AA/AF?

Gast
2007-09-27, 21:05:45
Was wollt ihr eigentlich?
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/22/#abschnitt_performancerating_qualitaet

Die X2900 Pro wird also schneller als eine 8800 GTS 320 werden.Die Spiele bei Tweaktown sind doch schon alt...

Dr.Dirt
2007-09-27, 21:12:40
Hmm, erstens meinte der Gast das eher so -> ;) und daher habe ich es überspitzt fortgesetzt :tongue:, ferner solltest Du Dir einfach mal die News von heute ansehen. Mit Geflame hat das nichts zu tun, es entspricht nun mal leider der Wahrheit. Schon zum zweiten Mal wurde ein "Fazit" aufgrund eines irrelevanten "Reviews" gezogen (veraltete Treiber, 162.18 bei der GTS, aber CAT 7.9 bei der ATI :rolleyes:, da wollte wohl jemand sichergehen, dass die GTS in Stalker oder Bioshock nicht gewinnt) und ich sehe einfach nicht ein, mich einem sehr interessanten Foren-Phänomen zu beugen: Dem Phänomen der Realitätsverzerrung. Wenn nur lange und oft genug dasselbe behauptet wird, dann glauben es nach einiger Zeit die meisten User, egal, ob es falsch ist, oder nicht. Gut zu sehen in Threads wie "8500 vs Geforce 4". Die Geforce 4 hat zu aktuellen Zeiten Kreise um die 8500er gezogen, wenn man aber heute Beiträge dazu liest, dann erscheint es, als wäre die 8500 ebenbürtig, oder gar überlegen gewesen, was schlicht nicht stimmt. Man behauptet es allerdings stur und in einer Tour (welche "Kollegen" das sind, sollte Dir alleine aufallen) bis sich niemand mehr wehrt. Dazu habe ich keine Lust, vor allem nicht bei so schnell zu durchschauendem Schwachsinn, wie eben Benchmarks ohne AA und AF. Gerade hier auf 3DC wurde doch immer geschrien und gezetert, was die Wichtigkeit von AA und AF angeht und das es bloß in max. Qualität zu sein hat, etc.! Nun scheint man davon heimlich wieder abzurücken und dazu schreib ich hier meine Meinung, ob es nun passt, oder nicht.

AMC
Der Gast hat einfach nur getrollt, und du hast ihm auch noch Futter zugeworfen.
Daß die 2900 schlecht bei AA/AF aussieht, haben sicherlich schon die meisten hier mitbekommen, ich denke mal sogar schon vor diversen Wochen. Aber damit jeden Thread zuzumüllen, wenn man als interessierter user zu einem neuen Produkt Informationen sammelt, halte ich für extrem störend.

Mach doch einfach einen neuen Thread auf, in dem du dann deine Ergüsse, die schon Jedermann kennt, zum besten geben kannst. Auf der Spielwiese ist sicher noch Platz für sowas. :rolleyes:

Gast
2007-09-27, 21:13:17
Ich dachte eigentlich das hier wär der "2900Pro Review Thread", doch es wird sich ja nur gegenseitig voll geflamet.
Das 3D Center ist auch nicht mehr was es mal war schade. ;-(

AMC
2007-09-27, 21:15:36
Was wollt ihr eigentlich?
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/22/#abschnitt_performancerating_qualitaet

Die X2900 Pro wird also schneller als eine 8800 GTS 320 werden.Die Spiele bei Tweaktown sind doch schon alt...

Z.b. Tests durchgängig mit AA, nur weils unter DX10 (auf den ATIs) nicht funzt in Bioshock, ist DX9 nicht tot, also bitte da dann mit AA testen. (Oder kommst Du mir jetzt mit den irren special-effects, die DX10 bringt, weswegen man DX9 gar nicht erst testen sollte? :rolleyes:) Und wo Du schon fragst: Wie wäre es mit Frame-Verläufen wie im HardOCP Test zu Bioshock und Stalker und keine timedemo Spielchen plzkkthxbye. =)

AMC

AMC
2007-09-27, 21:17:53
Der Gast hat einfach nur getrollt, und du hast ihm auch noch Futter zugeworfen.
Daß die 2900 schlecht bei AA/AF aussieht, haben sicherlich schon die meisten hier mitbekommen, ich denke mal sogar schon vor diversen Wochen. Aber damit jeden Thread zuzumüllen, wenn man als interessierter user zu einem neuen Produkt Informationen sammelt, halte ich für extrem störend.

Mach doch einfach einen neuen Thread auf, in dem du dann deine Ergüsse, die schon Jedermann kennt, zum besten geben kannst. Auf der Spielwiese ist sicher noch Platz für sowas. :rolleyes:

Kauf Dir Deine 2900er, spiel ohne AA/AF und hab Spaß. :up:

AMC

Nachtrag: Btw, mein Post war nichtmal Spam, sondern bezog sich auf die News zu eben diesem neuen Produkt! Wenn dort Schwachsinn steht, dann Verzeih mir, wenn ich dem, wie Du es hier ausdrückst: "interessierten Nutzer" nur einen Hinweis mit dem Zaunpfahl gebe. Wüsste nicht, was dann daran falsch wäre. =)

P.S. Du solltest den Thread nochmal genau lesen, dann wirst sogar Du (wenn nicht, auch egal), feststellen, dass es sich um zwei Gäste und nicht um einen Gast handelt. Btw, Sarkasmus und Ironie erkennen erfordert ein bissel mehr Gehirnschmalz, als jemanden als Flamer zu betiteln. :up:

Gast
2007-09-27, 21:36:04
Kauf Dir Deine 2900er, spiel ohne AA/AF und hab Spaß.
AMC


Beim CB test wurde mit 4AA und 16AF getestet und da ist die HD2900XT mit der 8800GTS 640mb gleich auf bei gleicher Preisklasse, verstehe dein post nicht.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/22/#abschnitt_performancerating_qualitaet

Gast
2007-09-27, 21:42:35
Ich würde mich mal nicht soweit aus dem Fenster lehnen @Dr.Dirt
Wie geistig du deine Beiträge verfast mit inhalt NULL sah man ja auch im
thread (Ist die Radeon 2900XT Reihe geflopt?)
Solche leute wie DU machen den talk hier kaputt. Nur weil sie zu dämlich sind
bei paar benchmarks zwichen den zeilen zulesen.

AMC
2007-09-27, 21:48:07
Beim CB test wurde mit 4AA und 16AF getestet und da ist die HD2900XT mit der 8800GTS 640mb gleich auf bei gleicher Preisklasse, verstehe dein post nicht.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/22/#abschnitt_performancerating_qualitaet

Ja, aber eben nicht überall. Ich schrieb ja auch "durchgängig", siehe Bioshock.

AMC

P.S. Was ich meine ist folgendes: Stell Dir vor, Du hast 3 Spiele die Du zum testen nutzt und 2 Karten, A und B. In den ersten beiden Spielen liegen A und B gleich auf, im dritten Spiel aber nur ohne AA. Mit AA würde Karte B durchaus schneller sein, aber Du testest es einfach nicht, weil Du Dich (warum auch immer) nur auf DX10 konzentrierst. Im Test ohne AA sind beide allerdings gleich, wie sähe Dein Fazit aus? Genau: A und B gleich auf. Das dem aber trotzdem nicht so sein muss, darauf wollte ich aufmerksam machen. Ich habe allerdings durchaus ein etwas argwöhnisches Auge auf die CB-Tests (wobei ich die Seite sonst schätze), aber ihre Benchmark-Settings und viele Test-Fazits sind oftmals sehr dubios und gehen nicht konform mit all den anderen Tests im Netz. In der Vergangenheit haben sie sich leider schon so manchen Schnitzer erlaubt, aber generell halte ich die CB-Tests nicht für Blödsinn. Hoffe, es ist nun klarer.

Gast
2007-09-27, 21:58:57
Ja, aber eben nicht überall. Ich schrieb ja auch "durchgängig", siehe Bioshock.

AMC


Wenn wir uns jetzt hier wegen 2-3FPS streiten bei BS, dann bin ich weg hier.
Haut euch die Köppe ein.....

AMC
2007-09-27, 22:01:43
Wenn wir uns jetzt hier wegen 2-3FPS streiten bei BS, dann bin ich weg hier.
Haut euch die Köppe ein.....

Wenn es mal nur 2-3fps wären...

AMC

Gast
2007-09-27, 22:18:06
Hmm, erstens meinte der Gast das eher so -> ;) und daher habe ich es überspitzt fortgesetzt :tongue:, ferner solltest Du Dir einfach mal die News von heute ansehen. Mit Geflame hat das nichts zu tun, es entspricht nun mal leider der Wahrheit. Schon zum zweiten Mal wurde ein "Fazit" aufgrund eines irrelevanten "Reviews" gezogen (veraltete Treiber, 162.18 bei der GTS, aber CAT 7.9 bei der ATI :rolleyes:, da wollte wohl jemand sichergehen, dass die GTS in Stalker oder Bioshock nicht gewinnt) und ich sehe einfach nicht ein, mich einem sehr interessanten Foren-Phänomen zu beugen: Dem Phänomen der Realitätsverzerrung. Wenn nur lange und oft genug dasselbe behauptet wird, dann glauben es nach einiger Zeit die meisten User, egal, ob es falsch ist, oder nicht. Gut zu sehen in Threads wie "8500 vs Geforce 4". Die Geforce 4 hat zu aktuellen Zeiten Kreise um die 8500er gezogen, wenn man aber heute Beiträge dazu liest, dann erscheint es, als wäre die 8500 ebenbürtig, oder gar überlegen gewesen, was schlicht nicht stimmt. Man behauptet es allerdings stur und in einer Tour (welche "Kollegen" das sind, sollte Dir alleine aufallen) bis sich niemand mehr wehrt. Dazu habe ich keine Lust, vor allem nicht bei so schnell zu durchschauendem Schwachsinn, wie eben Benchmarks ohne AA und AF. Gerade hier auf 3DC wurde doch immer geschrien und gezetert, was die Wichtigkeit von AA und AF angeht und das es bloß in max. Qualität zu sein hat, etc.! Nun scheint man davon heimlich wieder abzurücken und dazu schreib ich hier meine Meinung, ob es nun passt, oder nicht.

AMC

Schön so das ich nicht alleine dastehe. Für mich sind Karten die so arg unter AA/AF leiden ne Fehlkonstruktion. Schande das es ATI im Jahre 2007 schafft eben solche Fehlkonstruktionen zu produzieren. Und nein, ich bin KEIN Fanboy, kann aber sagen das ich seit dem C16 in der Computerszene bin. AMD/ATI= What a mess. Das musste mal raus. Gruss

Gast
2007-09-27, 22:26:25
Wenn es mal nur 2-3fps wären...

AMC



1280x1024......................1,3fps
1280x1024, 1xAA 16xAF... 3,1fps

1600x1200......................0.0fps
1600x1200, 1xAA 16xAF....1,6fps

Anscheinend haben wir wohl unterschiedlich Tests vor uns, anders kann ich mir dein Post nicht erklären.

AMC
2007-09-27, 22:29:31
1280x1024......................1,3fps
1280x1024, 1xAA 16xAF... 3,1fps

1600x1200......................0.0fps
1600x1200, 1xAA 16xAF....1,6fps

Anscheinend haben wir wohl unterschiedlich Tests vor uns, anders kann ich mir dein Post nicht erklären.

Das sind jetzt Bioshock AA Ergebnisse? :rolleyes:

AMC

Gast
2007-09-27, 22:35:29
Das sind jetzt Bioshock AA Ergebnisse? :rolleyes:

AMC

Es sind Ergebnisse von CB andere sind da nicht :rolleyes:

Gast
2007-09-27, 22:48:09
Leute bei Bioshock geht unter Dx10 kein AA weder bei Nvidia noch bei Ati :-)

AMC
2007-09-27, 22:52:47
Leute bei Bioshock geht unter Dx10 kein AA weder bei Nvidia noch bei Ati :-)

LOL! Geht mit dem G80 prima! :up: (Hab sowohl nen G80 und Bioshock Demo).

Btw: THG - DX10 Benchmarks (http://www.tomshardware.com/de/DirectX-10-Vergleich-Geforce-Radeon,testberichte-239832.html) ;D

AMC

P.S. Löscht einmal einer den Spinner Post über mir? Irgendwie wäre ich ja wirklich mal wieder dafür, den Gastaccount zu deaktivieren. :(

AMC
2007-09-27, 22:53:21
Es sind Ergebnisse von CB andere sind da nicht :rolleyes:

Liest Du eigentlich, was ich schreibe? Und was 1xAA bedeutet, weißt Du?

AMC

AMC
2007-09-27, 22:58:19
http://media.bestofmicro.com/7/W/48236/original/02-chart_bioshock_test1_1024_trilinear.png

http://media.bestofmicro.com/7/X/48237/original/03-chart_bioshock_test1_1024_aa_af.png

http://media.bestofmicro.com/7/Y/48238/original/04-chart_bioshock_test1_1280_aa_af.png

http://media.bestofmicro.com/7/Z/48239/original/05-chart_bioshock_test1_1600_aa_af.png

http://media.bestofmicro.com/8/0/48240/original/06-chart_bioshock_test1_1920_aa_af.png

http://media.bestofmicro.com/8/1/48241/original/07-chart_bioshock_test2_1024_trilinear.png

http://media.bestofmicro.com/8/2/48242/original/08-chart_bioshock_test2_1024_aa_af.png

http://media.bestofmicro.com/8/3/48243/original/09-chart_bioshock_test2_1280_aa_af.png

http://media.bestofmicro.com/8/4/48244/original/10-chart_bioshock_test2_1600_aa_af.png

http://media.bestofmicro.com/8/5/48245/original/11-chart_bioshock_test2_1920_aa_af.png

AMC
2007-09-27, 22:59:15
http://media.bestofmicro.com/8/6/48246/original/12-chart_coh_1024_trilinear.png

http://media.bestofmicro.com/8/7/48247/original/13-chart_coh_1024_aa_af.png

http://media.bestofmicro.com/8/8/48248/original/14-chart_coh_1280_aa_af.png

http://media.bestofmicro.com/8/9/48249/original/15-chart_coh_1600_aa_af.png

http://media.bestofmicro.com/8/A/48250/original/16-chart_coh_1920_aa_af.png

http://media.bestofmicro.com/8/B/48251/original/17-chart_lost_planet_1024_trilinear.png

http://media.bestofmicro.com/8/C/48252/original/18-chart_lost_planet_1024_aa_af.png

http://media.bestofmicro.com/8/D/48253/original/19-chart_lost_planet_1280_aa_af.png

http://media.bestofmicro.com/8/E/48254/original/20-chart_lost_planet_1600_aa_af.png

Gast
2007-09-27, 23:00:14
Und was 1xAA bedeutet, weißt Du?

AMC
AA ist aus das ist doch klar und unter DX10 geht KEIN AA.

Wenn ich hier sowas wie im #205 lese bin ich hier Falsch :-(

AMC
2007-09-27, 23:01:46
http://media.bestofmicro.com/8/F/48255/original/21-chart_wic_test1_1024_trilinear.png

http://media.bestofmicro.com/8/G/48256/original/22-chart_wic_test1_1024_aa_af.png

http://media.bestofmicro.com/8/H/48257/original/23-chart_wic_test1_1280_aa_af.png

http://media.bestofmicro.com/8/I/48258/original/24-chart_wic_test1_1600_aa_af.png

http://media.bestofmicro.com/8/J/48259/original/25-chart_wic_test1_1920_aa_af.png

http://media.bestofmicro.com/8/K/48260/original/26-chart_wic_test2_1024_trilinear.png

http://media.bestofmicro.com/8/L/48261/original/27-chart_wic_test2_1024_aa_af.png

http://media.bestofmicro.com/8/M/48262/original/28-chart_wic_test2_1280_aa_af.png

http://media.bestofmicro.com/8/N/48263/original/29-chart_wic_test2_1600_aa_af.png

http://media.bestofmicro.com/8/O/48264/original/30-chart_wic_test2_1920_aa_af.png

AMC
2007-09-27, 23:02:31
http://media.bestofmicro.com/8/P/48265/original/31-chart_kulmulierte_frames.png

AMC

Henroldus
2007-09-27, 23:04:23
http://media.bestofmicro.com/8/P/48265/original/31-chart_kulmulierte_frames.png

AMC
ist ja gut, dafür gibt es schon folgenden Thread:
THG Test DX10 Chips unter realen Spielen (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=383714)

dafür musst Du nicht die gesamte THG Website hier reinkopieren und dass hier einige Ungereimtheiten wie z.B. 8600GTS schneller als 8800GTS auftreten wird auch schon diskutiert

Gast
2007-09-27, 23:05:02
Meine Güte, natürlich geht AA in Bioshock mit ner G80. Bei den Catalystdingern keine Ahnung. Ich hab ne G80...

AMC
2007-09-27, 23:08:16
Was mir direkt auffällt:

a) Wie zum Geier kann eine 8600 GTS schneller sein, als eine 8800 GTS 640? (7 zu 6 fps)? Wenn die Werte stimmen, dann sieht man hier den VRAM Bug aber mal vom feinsten, denn hier trifft es auch die 640er GTS.

b) Bin ich alleine, wenn ich der Meinung bin, dass aktuelle Publisher und Developer mal den kräftigsten Arschtitt verdient haben, denn man sich vorstellen kann? Spiele, deren Grafik nicht ansatzweise rechtfertigt, dass selbst GTX/Ultra gerade knapp flüssige fps erreichen, da frag ich mich echt: geht's noch?!? :|

c) Die Mittelklasse (und dazu gehören nun die 2900er nun mal auch), stinkt doch derbe ab in DX10. (Ok, ist jetzt nix neues, aber mein Gott, das hab ich so nicht erwartet....:eek:)

d) Wieder mit dem 162.22 getestet.....*grml* :mad: (möglicherweise ist das der Grund für den Einbruch der 640er in WiC)

e) Eine 2900XT kann größtenteils einer 320er GTS nicht das Wasser reichen, dann wird es, zumindest unter DX10, auch keine Pro können.

AMC

AMC
2007-09-27, 23:09:29
ist ja gut, dafür gibt es schon folgenden Thread:
THG Test DX10 Chips unter realen Spielen (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=383714)

und dass hier einige Ungereimtheiten wie z.B. 8600GTS schneller als 8800GTS auftreten wird auch schon diskutiert

Oh entschuldige, dass ich nicht alle Threads im 3DC Forum auswendig kenne und in Echtzeit vor mir habe. :rolleyes: Ich habe gerade eben (vor 10 min) den Test erst entdeckt und wusste nichts von dem von Dir verlinkten Thread. Warum macht man sich hier überhaupt noch die Mühe? Selbst Hilfe kann man hier ja heute nicht mehr erwarten, da wird entweder SuFu, oder giiiibts schon, go away n00b geschrien. :rolleyes:

Gott, wie mir die Community zu stinken beginnt....

AMC

Gast
2007-09-27, 23:16:30
Meine Güte, natürlich geht AA in Bioshock mit ner G80. Bei den Catalystdingern keine Ahnung. Ich hab ne G80...
Bei NV und ATI geht unter XP Dx9 AA in BS. In Vista Dx10 geht es bei NV und ATI NICHT.

Angiesan
2007-09-27, 23:20:07
LOL! Geht mit dem G80 prima! :up: (Hab sowohl nen G80 und Bioshock Demo).

Btw: THG - DX10 Benchmarks (http://www.tomshardware.com/de/DirectX-10-Vergleich-Geforce-Radeon,testberichte-239832.html) ;D

AMC

(
Meine Güte, natürlich geht AA in Bioshock mit ner G80. Bei den Catalystdingern keine Ahnung. Ich hab ne G80...
unter DX 10 geht das aber nicht oder gibt es da was Neues?
Und DX 9 unter Vista geht wohl, aber die Performance ist nicht mehr
als spielbar einzustufen, auch nicht mit 8800GTX und einer Auflösung von 1680x1050.

Grüße

Gast
2007-09-27, 23:20:15
Um nochmal das Preview anzuschneiden: Wie kann man nur so Schuldigung "doof" sein und sich so ne Karte kaufen. ATI verarscht den Kunden nach Strich und Faden. Angeblich sollen die Dinger tatsächlich 2900XT Takt erreichen können. Hätte ich nicht gedacht. Was wohl jetzt die 2900XT Besitzer sagen werden? Und in kurzer Zeit rollt die nächste "refresh" Reihe an die wieder keinerlei technische Innovationen aufweist. ATI, so gewinnt man vielleicht Kunden, enttäuscht aber die Stammkundschaft. Ich habe fertig.

Gast
2007-09-27, 23:26:54
Bei COH bricht die 8800GTS 640mb aber ein, ist das der Rambug? Bloß wer will mit einer 300€ Karte auf 1024x768 spielen.:confused:

1024x768 4aa,8af sind es noch gute 44,4fps

1280x1024 4aa,8af sind es unspielbare 10,3fps

AMC
2007-09-27, 23:34:10
unter DX 10 geht das aber nicht oder gibt es da was Neues?
Und DX 9 unter Vista geht wohl, aber die Performance ist nicht mehr
als spielbar einzustufen, auch nicht mit 8800GTX und einer Auflösung von 1680x1050.

Grüße

Unter 2000 DX9 kein Problem, Vista DX10 soll aber auch gehen, notfalls über .exe renaiming. (löl) -> soll natürlich renaming heißen. ;) Schau mal die Threads durch, ich kann Dir leider keinen Beitrag dazu zeigen aus dem Stehgreif, meiner aber was dazu hier im Forum gelesen zu haben.

AMC

Gast
2007-09-27, 23:35:45
Wenn man mal ehrlich ist (Und das bin ich jetzt) sind alle DX10 Karten fürn Po. In DX10 games (Wofür sie angeblich geschaffen sind) kacken sie in unspielbare Frames ab. Sich jetzt eine DX10 Karte zu kaufen (Wenn man ne gute DX9 Karte hat) ist absolut sinnfrei. Ich warte bis Mitte 08 und hoffe auf ne gut DX10 Karte. Einfach traurig der Grakamarkt zur Zeit. Bei den CPU sieht das ganz anders aus. Achso hab ne 8800GTS 640MB. Gruss

AMC
2007-09-27, 23:47:23
Bei COH bricht die 8800GTS 640mb aber ein, ist das der Rambug? Bloß wer will mit einer 300€ Karte auf 1024x768 spielen.:confused:

1024x768 4aa,8af sind es noch gute 44,4fps

1280x1024 4aa,8af sind es unspielbare 10,3fps

Jepp, wie es mit den Treibern > 163.xx aussieht, kann ich nicht sagen, aber ich teste das Spiel möglicherweise demnächst einmal selbst aus. Könnte aber in der Tat der VRAM-Bug sein, ja.

Wenn man mal ehrlich ist (Und das bin ich jetzt) sind alle DX10 Karten fürn Po. In DX10 games (Wofür sie angeblich geschaffen sind) kacken sie in unspielbare Frames ab. Sich jetzt eine DX10 Karte zu kaufen (Wenn man ne gute DX9 Karte hat) ist absolut sinnfrei. Ich warte bis Mitte 08 und hoffe auf ne gut DX10 Karte. Einfach traurig der Grakamarkt zur Zeit. Bei den CPU sieht das ganz anders aus. Achso hab ne 8800GTS 640MB. Gruss

Jo! Ich hab auch ne GTS nur für DX9 und genieße unter 2000 das schöne AF und das, in meinen Augen, superbe CFSAA. 8x CFSAA unter NWN2 sieht klasse aus. :up:

Nu back to topic. Wenn ich mir diese Benches ansehe, dann erwarte ich nicht, dass die Pro die GTS angreift, dies gelingt selbst der XT nur in den allerwenigsten Fällen. (Wer > 300 Euro für eine Karte ausgibt, ohne AA und AF zu nutzen, sollte Jehova sagen und gesteinigt werden. ;)) Für 200 Euro ist eine XT natürlich klasse, nur würde ich da dann trotzdem AA und AF Performance verlangen, alleine schon, weil ich weiß das es sich in Wahrheit um eine XT handelt, die nur niedriger getaktet wurde und die eigentlich 300 Euro wert ist. Nur weil Pro draufsteht, würde ich nicht verzichten darauf zu pochen, mein High-End AA/AF zu verlangen. Kann nicht angehen, dass wir wieder Schritte zurückgehen, wo so lange um brauchbares AA und AF gekämpft wurde. Zumindest kann man mit den 2900ern noch einigermaßen spielen, für Midrangekarten. Aber was man sich bei den 26xx, 24xx und 86xx und 84xx gedacht hat, ist und bleibt mir absolut ein Rätsel.

AMC

Dr.Dirt
2007-09-28, 07:44:27
Nachtrag: Btw, mein Post war nichtmal Spam, sondern bezog sich auf die News zu eben diesem neuen Produkt!
Dein Ausgangspost bezog sich auf einen Gast, der von "Spiele ohne Texturen" sprach, und das ist kein Spam?

Wie kann man hier bloß etliche Bilder von einem THG Test verlinken, bei dem augenscheinlich Fehler passiert sind?

AMC
2007-09-28, 11:14:13
Wenn man mal ehrlich ist (Und das bin ich jetzt) sind alle DX10 Karten fürn Po. In DX10 games (Wofür sie angeblich geschaffen sind) kacken sie in unspielbare Frames ab.

Ah und noch was: Du darfst den Vista-Effekt nicht vergessen! Was ja auch nicht gerade ein Synonym für Speed ist. Schade, dass man DX10 nicht mit XP/2K vergleichen kann, vielleicht wäre es dann nicht so schlimm. Wie alle early-adaptor hat man hier immer das Problem ein Featureträger und kein Feature-Nutzer zu sein, aber so schlimm, wie nun mit DX10 war es eigentlich nie. Zumindest ich konnte SM 3.0 und HDR in Splinter Cell 3 auf meiner 6800GT nutzen und es lief prima, also hatte ich zumindest dann doch etwas von den damals neuen Features! Dieses Glück werden die Besitzer aktueller Mainstream Karten definitiv nicht und die Nutzer einer 2900/G80 nur mit enormen, anderweitigen Einschränkungen haben. :(

AMC

P.S. Eigentlich müsste man sich doch mal so eine Pro kaufen und damit ein wenig experimentieren. :biggrin:

Gast
2007-09-28, 18:50:19
iXBT: http://www.ixbt.com/video3/r600-3.shtml
Performance-Balken: http://www.ixbt.com/video3/r600-3-d.shtml#p18

Gast
2007-09-28, 21:27:32
Wenn man mal ehrlich ist (Und das bin ich jetzt) sind alle DX10 Karten fürn Po. In DX10 games (Wofür sie angeblich geschaffen sind) kacken sie in unspielbare Frames ab.
Blödsinn. Viele DX10-Spiele kann man mit den großen Karten gut spielen. Bioshock bsw.

Matrix316
2007-09-28, 21:34:27
Wenn man mal ehrlich ist: so richtig groß ist der optische Unterschied zwischen DX9 und 10 auch wieder nicht. Wobei selbst DX9 noch nicht wirklich ausgereizt sein dürfte, wenn Spiele wie Stalker mit dynamischer Beleuchtung ankommen und viele noch gute Hardware in die Knie zwingen können...

Gast
2007-09-28, 23:15:19
Blödsinn. Viele DX10-Spiele kann man mit den großen Karten gut spielen. Bioshock bsw.

Was heisst gut spielen? Für mich heisst gut spielen alles fully loaded und 8/16 auf 1600*1200. Da bekommste mit ner Ultra vielleicht in zukünftigen DX10 Titeln gerade so spielbare Frameraten. Also Blödsinn ist das net. Grüsse

Gaestle
2007-09-28, 23:27:39
aber so schlimm, wie nun mit DX10 war es eigentlich nie. Zumindest ich konnte SM 3.0 und HDR in Splinter Cell 3 auf meiner 6800GT nutzen und es lief prima, also hatte ich zumindest dann doch etwas von den damals neuen Features!


Ahhh. Und in welcher Auflösung? Ich musste mit HDR auf 800x600 runter gehen.* Und bei welcher Auflösung "kacken die Karten unter DX10 ab"?


*Was auch okay war, da ich den Effekt wenigstens überhaupt sehen konnte.

AMC
2007-09-28, 23:39:10
Ahhh. Und in welcher Auflösung? Ich musste mit HDR auf 800x600 runter gehen.

1024*768


Und bei welcher Auflösung "kacken die Karten unter DX10 ab"?

Einfach mal die zigtausend Reviews zu dem Thema lesen, es gibt doch nun wirklich genug links zu Benches und Tests hier im Forum und im Netz, sorry! Immer und überall dasselbe zu erzählen, ermüdet irgendwann einfach. Einen Hinweis geb ich Dir: Einfach mal so Sachen wie WiC, Lost Planet und Call of Juarez ansehen, selbst in 1024*768 ist die Performance eine Katastrophe (~40 fps, wenn überhaupt, an AA ist dann kaum noch zu denken) und in 1600*1200 biste runter auf 20 fps. (Auch wenn ich es auf ein mieses Vista und extrem mies programmierte Spiele schiebe!)

AMC

Gaestle
2007-09-29, 00:07:08
1024*768



Einfach mal die zigtausend Reviews zu dem Thema lesen, es gibt doch nun wirklich genug links zu Benches und Tests hier im Forum und im Netz, sorry! Immer und überall dasselbe zu erzählen, ermüdet irgendwann einfach. Einen Hinweis geb ich Dir: Einfach mal so Sachen wie WiC, Lost Planet und Call of Juarez ansehen, selbst in 1024*768 ist die Performance eine Katastrophe (~40 fps, wenn überhaupt, an AA ist dann kaum noch zu denken) und in 1600*1200 biste runter auf 20 fps. (Auch wenn ich es auf ein mieses Vista und extrem mies programmierte Spiele schiebe!)

AMC

Und wie flüssig lief SC3 mit HDR auf 'ner 6800GT in 1024x768? Ich tippe spontan auf 25-30fps. An AA war ja auch nicht zu denken, schon wegen HDR. Woran lag DAS denn? War das auch wegen dem mies geproggten Spiel, wegen dem beschissenen OS oder der lahmen HW? Oder waren damals "Katastrophen" noch was anderes?

Merkst Du was? Offenbar ist es häufiger so, dass die erste HW-Generation eines Techlevels bei der Benutzung dieses Techlevels an seine Grenzen kommt. Das war z.B. bei der GF3 genau so, wie bei der GF6.

Darüber hinaus ist es bei DX10 besonders "clever", von einer Überforderung durch DX10 zu reden. Siehe auch das: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=363737



Gott, wie mir die Community zu stinken beginnt....


Kannst Du mit den Stichworten WALD, HINEIN RUFEN und HERAUS SCHALLEN etwas anfangen?

Sir Winston
2007-10-01, 20:16:51
Für 200 Euro ist eine XT natürlich klasse, nur würde ich da dann trotzdem AA und AF Performance verlangen, alleine schon, weil ich weiß das es sich in Wahrheit um eine XT handelt, die nur niedriger getaktet wurde und die eigentlich 300 Euro wert ist.

Logik, ick hör dir trapsen...
Kann es sein, dass plötzlich die Erwartungen an 200 Euro-Karten hier plötzlich teils deutlich hochgeschraubt werden? Aktuelle Spiele in 1600/1200 + AA/AF gut spielbar - tschuldigung, aber eine solche Karte zu diesem Preis gab es imho noch nie...

AMC
2007-10-01, 20:22:19
Logik, ick hör dir trapsen...
Kann es sein, dass plötzlich die Erwartungen an 200 Euro-Karten hier plötzlich teils deutlich hochgeschraubt werden? Aktuelle Spiele in 1600/1200 + AA/AF gut spielbar - tschuldigung, aber eine solche Karte zu diesem Preis gab es imho noch nie...

Logik ick hör dir noch mehr trapsen: Wenn mir einer also z.B. eine GTX für 200 Euro verkauft und alles, was er ändert ist den Takt per BIOS um 150 Mhz zu senken, dann kann ich damit nicht mehr spielen, wie mit einer GTX? :ulol2:

Einfach per Rivatuner den Takt wieder anheben und ich habe was: eine GTX die nicht mehr die fps einer GTX liefert, weil sie 200 Euro gekostet hat...?! :hammer:

AMC

Gast
2007-10-01, 21:19:27
Logik, ick hör dir trapsen...
Kann es sein, dass plötzlich die Erwartungen an 200 Euro-Karten hier plötzlich teils deutlich hochgeschraubt werden? Aktuelle Spiele in 1600/1200 + AA/AF gut spielbar - tschuldigung, aber eine solche Karte zu diesem Preis gab es imho noch nie...
Kann man nur unterschreiben die Aussagen absolut bestes Preis/Leistungsverhältnis.
Bei ATI hat man schon immer mehr Leistung fürs Geld bekommen, Top :-))

Sir Winston
2007-10-01, 23:38:15
Logik ick hör dir noch mehr trapsen: Wenn mir einer also z.B. eine GTX für 200 Euro verkauft und alles, was er ändert ist den Takt per BIOS um 150 Mhz zu senken, dann kann ich damit nicht mehr spielen, wie mit einer GTX? :ulol2:

Einfach per Rivatuner den Takt wieder anheben und ich habe was: eine GTX die nicht mehr die fps einer GTX liefert, weil sie 200 Euro gekostet hat...?! :hammer:

AMC

Mag ja sein, dass du ein psychologisches Problem damit hast, dass dies eigentlich dieselbe Karte wie ein deutlich teureres Modell ist, welches zu seinem ursprünglichen Preis nicht gerade ein Pflichtkauf war. Das ändert aber nichts daran, dass die gebotene Leistung zu neuen Preis absolut in Ordnung ist.

AMC
2007-10-02, 00:06:06
Mag ja sein, dass du ein psychologisches Problem damit hast, dass dies eigentlich dieselbe Karte wie ein deutlich teureres Modell ist, welches zu seinem ursprünglichen Preis nicht gerade ein Pflichtkauf war. Das ändert aber nichts daran, dass die gebotene Leistung zu neuen Preis absolut in Ordnung ist.

Ich denke, Du hast verstanden was ich sagen wollte, aber ich zitiere mich hier mal selbst:


P.S. Eigentlich müsste man sich doch mal so eine Pro kaufen und damit ein wenig experimentieren. :biggrin:

Trotzdem "weiß" ich es im Geiste ja besser, da es sich eben um einen R600 handelt, nur künstlich niedriger getaktet und da soll mir dann keiner sagen, der Preis von 200 Euro Preis rechtfertigt nun die bescheidene Performance mit AA/AF, darum ging es mir! Der R600 hat ein grundsätzliches Problem mit der absoluten Performance, irrelevant, wie teuer er angeboten wird. Als Käufer kauft man schliesslich eine Karte und nicht die Einordnung einer Leistungsklasse, definiert über den Preis. Wenn ich Deiner Argumentation folgen würde könnte ich auch sagen, ok: wenn die ~200 Euro Klasse nicht für 1600*1200 4/16 konzipiert ist, dann ist die GTS320 die Karte der Wahl, die packt nicht nur 1600*1200 4/16, sondern ist bis dort in den allermeisten Spielen auch schneller, als die 300 Euro XT.

AMC

Sir Winston
2007-10-02, 00:32:45
Der R600 hat ein grundsätzliches Problem mit der absoluten Performance, irrelevant, wie teuer er angeboten wird. Als Käufer kauft man schliesslich eine Karte und nicht die Einordnung einer Leistungsklasse, definiert über den Preis. Wenn ich Deiner Argumentation folgen würde könnte ich auch sagen, ok: wenn die ~200 Euro Klasse nicht für 1600*1200 4/16 konzipiert ist, dann ist die GTS320 die Karte der Wahl, die packt nicht nur 1600*1200 4/16, sondern ist bis dort in den allermeisten Spielen auch schneller, als die 300 Euro XT.


Kann es sein, dass du die GTS320 - deren günstigster Preis laut Geizhals immer noch ein ganzes Eckchen über dem der 2900Pro liegt - ein wenig überbewertest?

Davon (was ein ziemlich dickes 'davon' ist) mal abgesehen, geht es einfach um die Frage - worum auch sonst? - ob die Karte zum geforderten Preis ihre Existenzberechtigung hat. Das mit der Begründung, dass es teureres schnelleres gibt, zu verneinen, überzeugt mich nicht.

AMC
2007-10-02, 00:49:34
Kann es sein, dass du die GTS320 - deren günstigster Preis laut Geizhals immer noch ein ganzes Eckchen über dem der 2900Pro liegt - ein wenig überbewertest?

227.33€ - 2900 Pro (http://www.bestseller-computer.de/?ID=16153) vs. 238.99€ 8800 GTS 320 (http://www.grafikkartenpower.de/shop/catalog/product_info.php?products_id=273) sind für mich kein "ganzes Eckchen", sorry. (Ich hab die günstigste lieferbare GTS mit der günstigsten lieferbaren 2900 Pro verglichen.)


Davon (was ein ziemlich dickes 'davon' ist) mal abgesehen, geht es einfach um die Frage - worum auch sonst? - ob die Karte zum geforderten Preis ihre Existenzberechtigung hat.

Hat sie! Eine "gute" Wahl wird sie dadurch jedoch nicht automatisch.

AMC

Spasstiger
2007-10-02, 01:58:33
Manche scheinen hier zu vergessen, dass die HD 2900 Pro/XT zwar mit AA wesentlich stärker als die Konkurrenz einbricht, dafür aber ohne AA eine höhere Performance bietet.
Im Performancerating von Computerbase liegt die HD 2900 XT in 1600x1200 mit 4xAA und 16:1 AF auf dem Niveau einer 8800 GTS 640 MB und 27% über der 8800 GTS 320 MB.
Mit der 2900 Pro bekommt man mit AA im Schnitt die Performance einer 8800 GTS 320 MB, ohne AA sogar mehr.

Dr.Dirt
2007-10-02, 02:05:34
http://techreport.com/discussions.x/13267

Eine 1GB 2900XT für 260€, verletzt man da wohl die Preisabsprachen mit NV? :D
Hab bisher noch keine weiteren Aussagen dazu gefunden, daß die 1024er einen höheren Core Takt hat, im Gegenteil, bei Sapphire wird der Core Takt identisch zur 512er Version angegeben.
http://www.sapphiretech.com/en/productfiles/matrix-vga-1.xls

AMC
2007-10-02, 02:22:40
Manche scheinen hier zu vergessen, dass die HD 2900 Pro/XT zwar mit AA wesentlich stärker als die Konkurrenz einbricht, dafür aber ohne AA eine höhere Performance bietet.
Im Performancerating von Computerbase liegt die HD 2900 XT in 1600x1200 mit 4xAA und 16:1 AF auf dem Niveau einer 8800 GTS 640 MB und 27% über der 8800 GTS 320 MB.
Mit der 2900 Pro bekommt man mit AA im Schnitt die Performance einer 8800 GTS 320 MB, ohne AA sogar mehr.

Bitte, wer spielt heute noch ohne AA/AF? Es kann doch nicht angehen, dass wir wieder in der Bildqualität zurückgehen?! Sorry, aber das ist schlicht nicht annehmbar und realistisch.

Btw, ich halte mit den HardOCP und THG Tests dagegen. Bis 1600*1200 sieht die 2900 XT in den meisten Fällen kein Land gegen die GTS 320/640. Schau Dir mal die THG Tests an, oder Bioshock DX10 auf HardOCP, dort sogar mit fps-Verläufen über mehrere Szenen.

AMC

Spasstiger
2007-10-02, 02:42:12
Bitte, wer spielt heute noch ohne AA/AF? Es kann doch nicht angehen, dass wir wieder in der Bildqualität zurückgehen?! Sorry, aber das ist schlicht nicht annehmbar und realistisch.
Du kannst doch auch mit AA/AF bei passablen Frameraten spielen. Oder erwartest du jetzt eine Karte, die auch mit AA und AF deutlich schneller ist als die 8800 GTS 320 MB, und das für weniger Geld?
AMD/ATI will konkurrenzfähig sein, nicht teure Chips zu Dumpingpreisen verkaufen (was sie aber eh schon tun).
Die Message, die ich mit meinem obigen Posting rüberbringen wollte, ist offenbar nicht angekommen. Die HD 2900 Pro/XT ist mit AA und AF im Mittel nicht schlechter als die 8800 GTS 320/640 MB.

Btw, ich halte mit den HardOCP und THG Tests dagegen. Bis 1600*1200 sieht die 2900 XT in den meisten Fällen kein Land gegen die GTS 320/640. Schau Dir mal die THG Tests an, oder Bioshock DX10 auf HardOCP, dort sogar mit fps-Verläufen über mehrere Szenen.
Mich interessieren grundsätzlich nur Benchmarks mit AA/AF, außer das Spiel unterstützt kein AA. Bei HardOCP sehe ich übrigens die 2900 XT mit 4xAA in Bioshock (@DX9) im Mittel über der 8800 GTS 640 MB:
http://enthusiast.hardocp.com/images/articles/1188859168W3Q3PDdCdy_4_5_l.gif.
Die 8800 GTS 320 MB hat hier sogar sehr üble Einbrüche, da dürfte die 2900 Pro klar im Vorteil sein, auch oder gerade mit AA.
Die DX10-Performance ist wieder ein eigenes Kapitel, bei Bioshock schwächelt die Radeon-HD-Serie definitiv in DX10, bei anderen Spielen (Call of Juarez) siehts dagegen wieder gut aus. Man darf bei der Bewertung einer Grafikkarte nicht nur auf ein einzelnes Spiel schauen.

AMC
2007-10-02, 03:14:56
Du kannst doch auch mit AA/AF bei passablen Frameraten spielen.

Ja, da hast Du recht!


Oder erwartest du jetzt eine Karte, die auch mit AA und AF deutlich schneller ist als die 8800 GTS 320 MB, und das für weniger Geld?

Nein.


AMD/ATI will konkurrenzfähig sein, nicht teure Chips zu Dumpingpreisen verkaufen (was sie aber eh schon tun).

Ich wollte es gerade sagen, das tun sie ja schon. Die XT wäre eher ein Gegner für die kleine GTS, eine Pro mit weniger Takt kann hier schlicht keinen Stich machen.


Die HD 2900 Pro/XT ist mit AA und AF im Mittel nicht schlechter als die 8800 GTS 320/640 MB.

Ich bin anderer Meinung. Die meisten Benches (DX9 und DX10) sehen bis 1600 die GTS 320 leicht über dem R600. Belegen lässt sich beides: Fälle, in denen auch die R600 mehr als konkurrenzfähig ist, aber in den meisten liegt die XT etwas unterhalb der GTS 320. Mit weniger Takt sehe ich hier keine Chance, dass die Pro eine ernsthafte Konkurrenz zur GTS darstellen könnte, bei (fast) gleichem Preis.


Mich interessieren grundsätzlich nur Benchmarks mit AA/AF, außer das Spiel unterstützt kein AA. Bei HardOCP sehe ich übrigens die 2900 XT mit 4xAA in Bioshock (@DX9) im Mittel über der 8800 GTS 640 MB:
http://enthusiast.hardocp.com/images/articles/1188859168W3Q3PDdCdy_4_5_l.gif.
Die 8800 GTS 320 MB hat hier sogar sehr üble Einbrüche, da dürfte die 2900 Pro klar im Vorteil sein, auch oder gerade mit AA.

Japp, in DX9 in Bioshock geht es.


Die DX10-Performance ist wieder ein eigenes Kapitel, bei Bioshock schwächelt die Radeon-HD-Serie definitiv in DX10, bei anderen Spielen (Call of Juarez) siehts dagegen wieder gut aus.

In DX10 aber auch eben nicht durch die Bank weg, sondern in schon als Ausnahme zu betrachtenden Spielen. Btw, Call of Juarez können wir als DX10 Spiel eigentlich mal aus der Liste streichen, denn die fps die ich da in DX10 gesehen habe, sind mit keiner heutigen Hardware halbwegs flüssig spielbar, egal ob nV oder ATI!


Man darf bei der Bewertung einer Grafikkarte nicht nur auf ein einzelnes Spiel schauen.

Das ist natürlich korrekt, aber Du solltest erkennen können, dass es mehr Spiele gibt, die die GTS 320 bis zu einer gewissen Auflösung gegen die XT gewinnt, vor allem, wenn kein AA/AF genutzt wird. Hier geht es nun aber um den direkten Gegner der kleinen GTS (preislich betrachtet) und das ist dann die Pro und da sehe ich doch schwarz, denn für den Preis ist die Leistung einer XT mit niedrigerem Takt dann nicht mehr ausreichend, um diese anzugreifen, von Ausnahmen abgesehen.

Das die Karte eine Berechtigung hat am Markt zu sein, ist unbestritten und sei es nur, um den R600 irgendwie unter das Volk zu bringen, Hauptsache AMD/ATI verdient noch etwas daran! Eine sinnige Begründung eine 2900 Pro einer GTS vorzuziehen, sehe ich dann aber doch nicht. Alleine die Turbine und die 150W, gepart mit leicht schlechterer AF-Qualität und generell "langsamerem" Speed, sind keine Werbung.

Nun, ich werde mir selbst ein Bild davon machen und mir die 2900 Pro mal näher ansehen. Was mich viel brennender interessieren würde ist, ob die Grafikkartenhersteller die Übertaktungsmöglichkeiten absichtlich reduzieren, gerade weil man die Pro ja mit Leichtigkeit zur Vollwertigen XT machen könnte. Wenn, dann würden sie wahrscheinlich die Spannungswandler anpassen und den Chip mit niedrigerer vCore betreben, was ich nicht hoffe, dann müsste halt ein feiner voltmod helfen. Wenn jemand hier eine Pro hat, könnte er ja mal beizeiten nachmessen und den Wert mit dem einer XT vergleichen, wäre auf jeden Fall interessant.

AMC

Spasstiger
2007-10-02, 03:26:41
Das die Karte eine Berechtigung hat am Markt zu sein, ist unbestritten und sei es nur, um den R600 irgendwie unter das Volk zu bringen, Hauptsache AMD/ATI verdient noch etwas daran! Eine sinnige Begründung eine 2900 Pro einer GTS vorzuziehen, sehe ich dann aber doch nicht. Alleine die Turbine und die 150W, gepart mit leicht schlechterer AF-Qualität und generell "langsamerem" Speed, sind keine Werbung.
Wenn man auf die min-fps in höheren Auflösungen und bei aktivem AA schaut, sollte die 2900 Pro der 8800 GTS 320 MB in einigen Spielen weit überlegen sein.
Die 8800 GTS 320 MB bricht stellenweise sehr stark ein (in den einstelligen fps-Bereich), wo die 640-MB-Variante noch genug Luft hat (und die 2900 Pro genauso).
Ich persönlich werde allerdings eine 2900 Pro auch erst uneingeschränkt weiterempfehlen, wenn einige Hersteller ab Werk leise Kühler bieten.

AMC
2007-10-02, 03:49:45
Wenn man auf die min-fps in höheren Auflösungen und bei aktivem AA schaut, sollte die 2900 Pro der 8800 GTS 320 MB in einigen Spielen weit überlegen sein.

Das muss sich noch zeigen.


Die 8800 GTS 320 MB bricht stellenweise sehr stark ein (in den einstelligen fps-Bereich), wo die 640-MB-Variante noch genug Luft hat (und die 2900 Pro genauso).

Ich warte mit einem Urteil bis zum nächsten offiziellen Treuber von nV (daher auch meine Aussage oben). Sie sagten ja, dass im nächsten Treiber definitiv der VRAM-Bug behoben sein soll.

So, gute Nacht.

AMC

Stormscud
2007-10-02, 08:47:49
Zitat von AMC
Bitte, wer spielt heute noch ohne AA/AF? Es kann doch nicht angehen, dass wir wieder in der Bildqualität zurückgehen?! Sorry, aber das ist schlicht nicht annehmbar und realistisch.

Also mal ganz ehrlich: Das ist doch wohl eine etwas engstirnige Ansicht von der Welt da draußen.
Der größte Teil der Spieler wird nicht mal wissen was AA und AF sind, geschweige denn sie würden es nutzen.
Außerdem haben doch nur wenige Spieler einen solchen Hardcore PC mit dem man alle Schmankerl einschalten kann.

Leute wie ihr, oder auch wie ich, die sich um die grafische Verbesserung von Spielen Gedanken machen sind nunmal eindeutig in der Minderheit.
Aber auch mir reicht 4*AF völlig. Nur bei Racer (nicht verwechseln mit Race 07) mach ich mal 16*AF rein. Und ohne AA komm ich auch klar. Aber wenn es geht mach ich es an.

Erst gestern wieder fragte einer bei uns im Spellforce 2 Forum, warum die Maus bei ihm ruckelt. Wobei ich mir noch nicht ganz genau vorstellen kann was er genau damit meint. Ich vermute nämlich, dass das komplette Spiel ruckelt. Immerhin will der SF2 mit einer FX 5200 spielen :eek:
Das wird nie und nimmer flüssig.

Das ist aber nur mal wieder ein Beweis dafür, mit welcher Hardware viele Spieler da draußen auskommen müssen!
Der Typ ist auch nicht der Erste mit solch einer Anfrage und entsprechend langsamer Hardware. (Lustigerweise hat er aber als Prozessor ein gar nicht so langsamen Pentium D 2,8).
Typischer OEM Rechner halt.


Abgesehen davon, um auch meinen Senf zur 2900Pro zum Besten zu geben: Abgesehen vom Stromverbrauch ist das eine sehr performante Karte für einen recht attraktiven Preis ;)

Gast
2007-10-02, 12:11:03
Keine Frage, die Karte hat ein gutes P/L Verhältnis. Aber wer sich jetzt die Karte kauft, ist ziemlich dumm, denn mitte November kommt die Radeon HD 2950 Pro raus. Und die soll weniger Strom verbrauchen, mindestens in derselben Leistungsklasse spielen, ein besseres Kühlkonzept haben, 55NM Produktion, DirectX10.1 besitzen und PCIE 2.0. Also Leute, wartet ab, sonst beisst ihr euch in den Arsch! MfG

AMC
2007-10-02, 12:12:10
Also mal ganz ehrlich: Das ist doch wohl eine etwas engstirnige Ansicht von der Welt da draußen.

Ich betrachte die Welt hier drinnen, denn nur hier existiert dieser Thread. ;)


Der größte Teil der Spieler wird nicht mal wissen was AA und AF sind, geschweige denn sie würden es nutzen.

Das stimmt natürlich, es gibt genug DAUs da draussen.


Außerdem haben doch nur wenige Spieler einen solchen Hardcore PC mit dem man alle Schmankerl einschalten kann.

Nu übertreibst Du ein wenig. Hier dürften genug User einen kleinen C2D haben und das reicht mehr als aus. Wie gesagt, wir sind hier nicht im Media Markt. :tongue:


Leute wie ihr, oder auch wie ich, die sich um die grafische Verbesserung von Spielen Gedanken machen sind nunmal eindeutig in der Minderheit.

Dieser Thread existiert, wie schon erwähnt, nun mal aber hier im Forum auf 3DC, wo sich sehr viele User über AA/AF Gedanken machen. Daher ist es auch völlig legitim, so eine "Weltsicht" zu besitzen. Gerade 3DC hat Tradition, was das hoch halten von Bildqualitätsfeatures angeht. Hier wurde schon so manche kleine Unstimmigkeit zum Thema AA/AF diskutiert und der jeweilige Chip abgestraft.


Aber auch mir reicht 4*AF völlig. Nur bei Racer (nicht verwechseln mit Race 07) mach ich mal 16*AF rein. Und ohne AA komm ich auch klar. Aber wenn es geht mach ich es an.

Wenn Dir das reicht, ok. Soll jeder so spielen, wie er möchte.


Erst gestern wieder fragte einer bei uns im Spellforce 2 Forum, warum die Maus bei ihm ruckelt. Wobei ich mir noch nicht ganz genau vorstellen kann was er genau damit meint. Ich vermute nämlich, dass das komplette Spiel ruckelt. Immerhin will der SF2 mit einer FX 5200 spielen :eek:
Das wird nie und nimmer flüssig.

;D


Das ist aber nur mal wieder ein Beweis dafür, mit welcher Hardware viele Spieler da draußen auskommen müssen!
Der Typ ist auch nicht der Erste mit solch einer Anfrage und entsprechend langsamer Hardware. (Lustigerweise hat er aber als Prozessor ein gar nicht so langsamen Pentium D 2,8).
Typischer OEM Rechner halt.

Also der Pentium D 2.8 ist doch recht langsam, sorry, aber Du solltest Dir mal aktuelle CPU-Benchmarks ansehen. Ein Pentium D 2.8 ist definitiv low-end, at the moment.



Abgesehen davon, um auch meinen Senf zur 2900Pro zum Besten zu geben: Abgesehen vom Stromverbrauch ist das eine sehr performante Karte für einen recht attraktiven Preis ;)

Der Stromverbrauch ist ein Killer, ja. Mir macht noch die Übertaktbarkeit in Form von GPU-Spannung sorgen und die Tatsache, dass ich eben nicht so einfach daran glaube, dass man mal eben schnell den Kühler wechseln kann der dann auch die 150W unter Kontrolle hält und gleichzeitig leise ist.

AMC

Dr.Dirt
2007-10-02, 12:16:39
Keine Frage, die Karte hat ein gutes P/L Verhältnis. Aber wer sich jetzt die Karte kauft, ist ziemlich dumm, denn mitte November kommt die Radeon HD 2950 Pro raus. Und die soll weniger Strom verbrauchen, mindestens in derselben Leistungsklasse spielen, ein besseres Kühlkonzept haben, 55NM Produktion, DirectX10.1 besitzen und PCIE 2.0. Also Leute, wartet ab, sonst beisst ihr euch in den Arsch! MfG

Jap, am 19. November soll es soweit sein. :up:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/oktober/amd_rv670_19_november/