PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : HD 2900 XT - Wer hat schon eine abbekommen? Wie ist sie?


Seiten : 1 [2] 3 4

MartinRiggs
2007-05-15, 19:08:20
Trotzdem, es gab doch schon gute GTX angebote die Fakes waren.
Bisher hatte ich mit Ebay keine Probleme, aber bei 400€ hab ich kein Bock die in den Sand zu setzen.
Selbst viele gute Bewertungen sind ja keine Garantie und wenn die kohle weg ist dann ist sie weg.
Es sei denn ich finde ein Angebot in meiner Nähe, kann sie abholen und dabei Bar bezahlen.

Blaze
2007-05-15, 19:09:23
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=361204

eBay und High-End Hardware = nein danke ;)

robbitop
2007-05-15, 19:09:43
Woran krankt das Ding letztenendes? An unausgereiften Treibern und nem hohen Einbruch beim Aktivieren von AA/AF. Imo nix, was man nicht in den Griff bekommen könnte.
An den drei Fs;;;
Fuellrate, Fuellrate und nochmals Fuellrate... X-D
Ansonsten auch anden ROPs, die AFAIK einen Bug haben und das Resolven per Shader erledigen muessen.

Ich hoffe, dass im R600 Refresh beiden Flaschenhaelsen nachgegangen wird.

MartinRiggs
2007-05-15, 19:11:35
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=361204

eBay und High-End Hardware = nein danke ;)

Genau sowas meine ich........

Mr. Lolman
2007-05-15, 19:13:10
An den drei Fs;;;
Fuellrate, Fuellrate und nochmals Fuellrate... X-D
Ansonsten auch anden ROPs, die AFAIK einen Bug haben und das Resolven per Shader erledigen muessen.

Die ROP-Buggeschichte ist ja nur ne Vermutung und bei hoher Shaderlast ist die Füllrate eher zweitrangig. (wie man auch bei TDU sieht)

Gast
2007-05-15, 19:15:58
Genau sowas meine ich........

Ach komm, sowas passiert einmal im Leben. Immer diese Ebay Abneidung von einigen Leuten hier, geht mir sowas auf den Keks, das kann dir bei Onlineshops auch passieren.

Solange Jemand gute BW hat, kann man sich auch verlassen. Ein wenig Vertrauen in die Leute wär gut, meint ihr nicht?

Sterem
2007-05-15, 19:16:01
Wie kann denn sowas angehen?Die X1950 bricht doch auch nicht stark ein wenn AA angeschaltet wird!Warum passiert der Scheiß bei der X2900 XT?:P

robbitop
2007-05-15, 19:16:05
Die ROP-Buggeschichte ist ja nur ne Vermutung und bei hoher Shaderlast ist die Füllrate eher zweitrangig. (wie man auch bei TDU sieht)
Die Fuellrate zweitrangig? Du spielst wohl nicht gern RPGs oder? ^^
In Oblivion oder Gothic wird in Kombinantion mit AF Fuellrate ohne Ende gebraucht.

Das AA kostet ausserdem trotz breiten SIs noch unglaublich viel. Auch sprechen die Z Werte, die ich gemessen habe (abh vom AA Mode) fuer suboptimale ROPs. Die Karte ist leider leider kein sinnvolles Upgrade von einer R580 aus. :(

Sterem
2007-05-15, 19:17:16
Die Fuellrate zweitrangig? Du spielst wohl nicht gern RPGs oder? ^^
In Oblivion oder Gothic wird in Kombinantion mit AF Fuellrate ohne Ende gebraucht.

Das AA kostet ausserdem trotz breiten SIs noch unglaublich viel. Auch sprechen die Z Werte, die ich gemessen habe (abh vom AA Mode) fuer suboptimale ROPs. Die Karte ist leider leider kein sinnvolles Upgrade von einer R580 aus. :(

Sowas muss doch Ati wissen?Die wissen doch was sie bauen müssen.:rolleyes:

Gast
2007-05-15, 19:18:32
Die Fuellrate zweitrangig? Du spielst wohl nicht gern RPGs oder? ^^
In Oblivion oder Gothic wird in Kombinantion mit AF Fuellrate ohne Ende gebraucht.

Das AA kostet ausserdem trotz breiten SIs noch unglaublich viel. Auch sprechen die Z Werte, die ich gemessen habe (abh vom AA Mode) fuer suboptimale ROPs. Die Karte ist leider leider kein sinnvolles Upgrade von einer R580 aus. :(

Mittlerweile denke ich, trotz ATI-Lastigkeit, daß der R600 überhaupt kein sinnvolles Upgrade mehr ist...

tombman
2007-05-15, 19:18:44
Trotzdem, es gab doch schon gute GTX angebote die Fakes waren.
Bisher hatte ich mit Ebay keine Probleme, aber bei 400€ hab ich kein Bock die in den Sand zu setzen.
Selbst viele gute Bewertungen sind ja keine Garantie und wenn die kohle weg ist dann ist sie weg.
Es sei denn ich finde ein Angebot in meiner Nähe, kann sie abholen und dabei Bar bezahlen.
Dann suche dir ein Angebot mit paypal Zahlung raus. Wenn der Hinweis dann dort auf der Angebotsseite steht, daß 500€ versichert wird kann sich ebay nimmer rausreden und sie müssen ZAHLEN :cool:
Und selbst ohne paypal bekommst IMMER 175€ zurück von ebay.

robbitop
2007-05-15, 19:19:39
Meine Fablemarkmessungen untermauern die These mit den verbuggten ROPs uebrigens.

Nakai
2007-05-15, 19:23:31
Meine Fablemarkmessungen untermauern die These mit den verbuggten ROPs uebrigens.

Hoffentlich ein Treiberbug, der gefixt werden kann.:frown:

mfg Nakai

Mr. Lolman
2007-05-15, 19:24:33
Die Fuellrate zweitrangig? Du spielst wohl nicht gern RPGs oder? ^^
In Oblivion oder Gothic wird in Kombinantion mit AF Fuellrate ohne Ende gebraucht.

Was Gothic3 mit der Rechenleistung so anstellt, hab ihn nie ganz verstanden.
Bei den Obliviontoren ist jedoch pure Shaderpower gefragt: http://www.3dcenter.org/images/radeon_hd_2900_xt/benchmark_oblivion_sg2.png

Je voller man die Szene mit Details stopft desto wichtiger wird auch HSR werden, was ja ohnehin ATis Metier ist. Und aktuell reichts wunderbar aus, Oblivion mit AA und EATM zu zocken (wenns dann mal den Treiber dafür zum DL gibt;))


Das AA kostet ausserdem trotz breiten SIs noch unglaublich viel. Auch sprechen die Z Werte, die ich gemessen habe (abh vom AA Mode) fuer suboptimale ROPs. Die Karte ist leider leider kein sinnvolles Upgrade von einer R580 aus. :(

Ich tippe auf Treiberbugs, du auf Designflaws. Schaun wir mal, wer Recht hat. UNd selbst wenns wirklich einen HW-Fehler geben sollte, so denk ich, dass neue Treiber die Karte eher flotter als langsamer werden lassen...

Ailuros
2007-05-15, 19:25:06
Die ROP-Buggeschichte ist ja nur ne Vermutung und bei hoher Shaderlast ist die Füllrate eher zweitrangig. (wie man auch bei TDU sieht)

Du vermutest eher dass es eine Vermutung ist; und ein dickes fettes NEIN zum zweiten. Dass was R600 in zukuenftigen Spielen durch ihre Vorteile erringen koennte, verliert sie schnell wieder durch mangelde Fuellraten.

sulak
2007-05-15, 19:27:23
Ich tippe auf Treiberbugs, du auf Designflaws. Schaun wir mal, wer Recht hat. UNd selbst wenns wirklich einen HW-Fehler geben sollte, so denk ich, dass neue Treiber die Karte eher flotter als langsamer werden lassen...

Toll das der erste Speedpush aber durch eine Qualitätsreduzierung kam und das als Bugfix verkauft wurde. Nicht meine Welt, aber das isn scheiß Marketing, alle 4h nen neuen Benchmark Treiber rauszuhauen.

robbitop
2007-05-15, 19:28:04
Ja sicher.Ein gewisses Treiberpotenzial ist vorhanden. Allerdings gehe ich davon aus, dass sich am Groben und Ganzen nicht viel aendert. ATI hat vermutlich bis zum Herbst kein konkurrenzfaehiges High End (und wer weiss ob man im Refresh so viel reissen kann). Quasi-Monopol und hohe Preise ahoi! :(
Hoffentlich erholt ATI sich schnell. Sonst haben wir alle darunter zu leiden.

tombman
2007-05-15, 19:31:47
Ja sicher.Ein gewisses Treiberpotenzial ist vorhanden. Allerdings gehe ich davon aus, dass sich am Groben und Ganzen nicht viel aendert. ATI hat vermutlich bis zum Herbst kein konkurrenzfaehiges High End (und wer weiss ob man im Refresh so viel reissen kann). Quasi-Monopol und hohe Preise ahoi! :(
Hoffentlich erholt ATI sich schnell. Sonst haben wir alle darunter zu leiden.
Jo, da hast schwerstens Recht. Einerseits "freut" man sich als GTX user, daß der R600 zuwenig kann, anderseits spürt man die Auswirkungen des Quasimonopols schon jetzt: die ULTRA für >700€ :mad:

Edit: lol, das geht schnell, 630€ lagernd bei der ULTRA :eek:

Ailuros
2007-05-15, 19:32:15
Ich tippe auf Treiberbugs, du auf Designflaws. Schaun wir mal, wer Recht hat. UNd selbst wenns wirklich einen HW-Fehler geben sollte, so denk ich, dass neue Treiber die Karte eher flotter als langsamer werden lassen...

Und was macht AMD's Treiberteam seit einem Jahr? So mancher AMD PR-Affe fuetterte die Presse indirekt mit Mist wie "miserabel" die G80-Treiber waeren; dafuer haette ich mit einer 6-monatigen Verspaetigung einen um einiges "reiferen" Treiber erwartet.

Ja Bugs kann man erfolgreich abdecken; das dumme ist aber dass man dann das Rennen gegen die Konkurrenz so oder so verloren hat, denn die "Abdeckung" kostet auch wertvolle Resourcen bzw. Leistung.

Nakai
2007-05-15, 19:35:44
Man kann nur hoffen, dass AMD einiges beim Refresh oder bei den "kleineren" Karte richten kann, wenn das tatsächlich ein Hardwarebug ist.:mad:
Das Design hat aber nur Probleme beiM MSAA, mit AAA sieht die Performance ganz okay aus.

mfg Nakai

Vertigo
2007-05-15, 19:36:30
Ja sicher.Ein gewisses Treiberpotenzial ist vorhanden. Allerdings gehe ich davon aus, dass sich am Groben und Ganzen nicht viel aendert. ATI hat vermutlich bis zum Herbst kein konkurrenzfaehiges High End (und wer weiss ob man im Refresh so viel reissen kann). Quasi-Monopol und hohe Preise ahoi! :(
Hoffentlich erholt ATI sich schnell. Sonst haben wir alle darunter zu leiden.
Absolut. Wenn man noch die CPU-Sparte von AMD und die letzten beiden Quartalsergebnisse sieht, kann einem schon Angst und Bange werden. Hoffentlich werden die Karten (v.a. Mainstream) dennoch komerziell erfolgreich.

Ronny145
2007-05-15, 19:36:34
Ich kann mich an sowas vergleichbares bei früheren launches nicht erinnern, dass eine neue Karte so dermaßen einbricht mit AA. Vor allem Ati war doch immer ein Garant dafür, bei eingeschaltetem AA gut dazustehen. Die hatten doch jetzt schon genügend Zeit für den Treiber. An die Treibergeschichte kann ich nicht glauben, ich glaube eher an einen defekt.

robbitop
2007-05-15, 19:39:08
Man kann nur hoffen, dass AMD einiges beim Refresh oder bei den "kleineren" Karte richten kann, wenn das tatsächlich ein Hardwarebug ist.:mad:
Das Design hat aber nur Probleme beiM MSAA, mit AAA sieht die Performance ganz okay aus.

mfg Nakai
AAA nutzt doch dennoch MSAA (fuer Polyedges auf jeden Fall)

Mr. Lolman
2007-05-15, 19:39:17
Du vermutest eher dass es eine Vermutung ist; und ein dickes fettes NEIN zum zweiten.

Stimmt. Ich vermute, dass die Vermutung der fehlerhaften ROPs sich bis jetzt noch nicht bestätigt hat. ;)


Dass was R600 in zukuenftigen Spielen durch ihre Vorteile erringen koennte, verliert sie schnell wieder durch mangelde Fuellraten.

Das ist jetzt ne Vermutung von dir. Ich halte die TDU Performance dagegen. Da ist die Texelfüllrate fast wurscht, eben wegen limitierender Shaderperformance. Und wohin uns die Zukunft bringen wird, zeigt ja diese Folie ganz gut:

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=30876&stc=1&d=1179221839

Nakai
2007-05-15, 19:41:35
AAA nutzt doch dennoch MSAA (fuer Polyedges auf jeden Fall)

Aber bei pures MSAA sieht das nicht so toll aus.

Anders kann ich mir den Abfall bei den Benches nicht erklären.

mfg Nakai

horn 12
2007-05-15, 19:41:43
Somit wäre ein Update von einer 1950 PRO 512 auf eine (momentane)
HD 2900 XT wohl auch nicht recht lohnenswert, diese viell. 15-25% Mehrleitung unter AA wird vielleicht schon das Maximum sein.
Also erstmal abwarten und hoffen das die Tage die Erlösung kommt.

robbitop
2007-05-15, 19:41:45
Der grobe Trend (Tex:ALU) wird sich zur R600 Lebzeit sicher nocht so ruckartig aendern. Ausserdem ist die gemessene Shaderleistung der R600 der des G80 nicht ueberlegen. Eher unterlegen.

reunion
2007-05-15, 19:44:47
Dass die ROPs einen Bug haben, scheint aus verschiedensten Gründen offensichtlich. Man kann nur hoffen, dass dieser beim Refresh (und hoffentlich auch schon bei RV630/RV610) behoben wurde. So ist die Karte eine Krücke, da man damit die Stärken faktisch determiniert (die hohe Bandbreite speziell für MSAA nützt nichts, stattdessen muss man dafür auch noch Shaderleistung opfern). Wobei ich das überhaupt nicht verstehe, da die ROPs im vergleich zu Xenos ja kaum verändert wurden AFAIK. R600 ist IMHO ein fortschrittliches, aber verbuggtes Grundgerüst (vgl. R200), und lässt auf einen guten Nachfolger (R300 ;)) hoffen.

Ausserdem ist die gemessene Shaderleistung der R600 der des G80 nicht ueberlegen. Eher unterlegen.

Auch hier scheint noch einiges im Busch zu liegen, denn auch hier fällt die Karte tw. hinter einem R580 zurück. Tw. explodiert sie dafür regelrecht.

horn 12
2007-05-15, 19:46:15
Was sagt den ATI zu den Problemen, oder sickert da nichts durch.
Müssen sich ja mal zu Wort gemedlet haben bei den ganzen Vorwürfen,- hoffentlich nur wegen dem Treiber, ansonsten sieht es richtig düster für ATI/AMD aus.

Sterem
2007-05-15, 19:46:32
Dass die ROPs einen Bug haben, scheint aus verschiedensten Gründen offensichtlich. Man kann nur hoffen, dass dieser beim Refresh (und hoffentlich auch schon bei RV630/RV610) behoben wurde. So ist die Karte eine Krücke, da man damit die Stärken faktisch determiniert (die hohe Bandbreite speziell für MSAA nützt nichts, stattdessen muss man dafür auch noch Shaderleistung opfern). Wobei ich das überhaupt nicht verstehe, da die ROPs im vergleich zu Xenos ja kaum verändert wurden AFAIK. R600 ist IMHO ein fortschrittliches, aber verbuggtes Grundgerüst (vgl. R200), und lässt auf einen guten Nachfolger (R300 ;)) hoffen.

Schön jetzt soll man auf denn nachfolger warten?;( :P

Schöne Theorie.........

reunion
2007-05-15, 19:48:14
Schön jetzt soll man auf denn nachfolger warten?;( :P


Das habe ich weder verlangt, noch andeuten wollen.

Gast
2007-05-15, 19:49:00
Auf die zweite "Revision" der neuen Architektur zu warten, ist generell immer ne gute Idee...

65nm sind hier das Stichwort. Weder ATI noch NVIDIA haben sich mit Ruhm bekleckert. 8800-Serie frisst einfach zuviel Saft im idle und die XT braucht noch Feintimung beim Verbrauch und dem Treiber...

Odal
2007-05-15, 19:50:40
nur eins versteh ich nicht...wenn die ROPs wirklich einen hardwarebug haben dann ist doch die ganze megabandbreite für die katz...

ATI muss doch schon gewusst haben das sie von der bandbreite eh kaum gebrauch machen können da die ROPs im sack sind...warum um gottes namen haben sie dann nicht einfach ein anderes 256Bit PCB nachgeschoben um das ding billiger abstossen zu können....dann würde das eben nur das X1950pro pendant werden und für 250€ verkauft und in einem refresh dann der hardwarebug gefixt

so ist doch das ganze aufwendigfe pcb und die vielen ramchips dadrauf für die katz

Vertigo
2007-05-15, 19:50:54
Was sagt den ATI zu den Problemen, oder sickert da nichts durch.
Müssen sich ja mal zu Wort gemedlet haben bei den ganzen Vorwürfen,- hoffentlich nur wegen dem Treiber, ansonsten sieht es richtig düster für ATI/AMD aus.
AMD muss zu gar nichts Stellung beziehen. Vorwürfe? Das Produkt ist nunmal wie es ist - wofür soll man sich da rechtfertigen? Dass nVidias Lösung aktuell besser dasteht? Das kann es ja wohl nicht sein.

sulak
2007-05-15, 19:56:09
Auf die zweite "Revision" der neuen Architektur zu warten, ist generell immer ne gute Idee...

65nm sind hier das Stichwort. Weder ATI noch NVIDIA haben sich mit Ruhm bekleckert. 8800-Serie frisst einfach zuviel Saft im idle und die XT braucht noch Feintimung beim Verbrauch und dem Treiber...

Vergiss es, Highend Grakas die Stromsparen? Bei bald 1Mrd. Transistoren die auch noch sau eng gepackt sind, da hüpfen die Elektronen doch wohin sie wollen ;D Sprich Leckströme ahoi, und das zeigt sich ja bei der 80nm und 700Mio Transi schweren R600 ja mehr als beim 90nm G80.
Ok die "Spanne" zwischen Idle und Peak sind beim R600 größer als beim G80, aber das ist jetzt sparsam/effektiver...?

Mal schaun was da kommt, aber 50/50 das es Weihnachten wird.

Gast
2007-05-15, 19:56:58
Auch hier scheint noch einiges im Busch zu liegen, denn auch hier fällt die Karte tw. hinter einem R580 zurück. Tw. explodiert sie dafür regelrecht.

In welchen nicht von AMD stammenden Tests explodiere sie förmlich?

Ailuros
2007-05-15, 19:57:22
Stimmt. Ich vermute, dass die Vermutung der fehlerhaften ROPs sich bis jetzt noch nicht bestätigt hat. ;)

Ich brauch keine weiteren Bestaetigungen ;)

Das ist jetzt ne Vermutung von dir. Ich halte die TDU Performance dagegen. Da ist die Texelfüllrate fast wurscht, eben wegen limitierender Shaderperformance. Und wohin uns die Zukunft bringen wird, zeigt ja diese Folie ganz gut:

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=30876&stc=1&d=1179221839

Ich sagte Fuellraten und dabei war das "n" mit Absicht fettgedruckt. Es gibt nicht nur eine Fuellrate auf einem chip und im Fall von R600 ist die noAA Z Fuellrate - welche doch wichtig ist fuer Zeug wie shadow maps - eher unterirdisch. Einer G80 ist es schnuppe ob man hier AA oder nicht anwendet.

Marketing-Gerummel-Folien gegen Echtzeit-Messungen:

http://www.beyond3d.com/images/reviews/r600-arch/bench-filter-4x4-point.png

http://www.beyond3d.com/images/reviews/r600-arch/bench-rop.png

http://www.beyond3d.com/content/reviews/16/13

Und zum Trumph der Sache will ich jetzt auch noch Deine Ansicht ueber jegliche Form von nutzlosem Supersampling und wie unwichtig hier die Fuellraten auch noch sind....

Godmode
2007-05-15, 20:13:16
Du vermutest eher dass es eine Vermutung ist; und ein dickes fettes NEIN zum zweiten. Dass was R600 in zukuenftigen Spielen durch ihre Vorteile erringen koennte, verliert sie schnell wieder durch mangelde Fuellraten.

Wie siehst du das mit dem Hardwarebug? Viele Leute hier halten auf deine Meinung recht viel. Weist du da mehr, oder kannst du auch nur das wiedergeben was bei B3D bereits diskutiert wird?

Marc-
2007-05-15, 20:20:14
Ich bringe die Karte dann wieder zum Händler (denke irgendwas aus... zum Beispiel 24xAA ;D fehlt) Und mache weiter mit GX2.

Das das ne ziemlich miese nummer ist, weisst du vermutlich selbst. Aber nach dem du dich von tombman und konsorten dermassen gestärkt fühlst, glaubst du vermutlich sogar du befändest dich im recht.

Traurige und sehr armselige nummer.

Liszca
2007-05-15, 20:21:26
Also wie PP berichtet das bei ihm auch 3dmark05 nicht läuft sind das alles ganz sicher allein ATI's Probleme. :P

So nun FarCry mit dem neueren Treiber getestet. Die Grafikfehler sind noch da, die Performance mit dem höchsten AA modus unterirdisch und ich habe einen guten Screen wie ich finde =)


nochmal Directx installieren?

edit hat sich wohl doch erledigt

eXodia
2007-05-15, 20:22:07
Das das ne ziemlich miese nummer ist, weisst du vermutlich selbst. Aber nach dem du dich von tombman und konsorten dermassen gestärkt fühlst, glaubst du vermutlich sogar du befändest dich im recht.

Traurige und sehr armselige nummer.

Er ist doch im Recht, 14 Tage Umtausch Garantie und so ...

Regards

Gast
2007-05-15, 20:24:53
Er ist doch im Recht, 14 Tage Umtausch Garantie und so ...

Regards
14 Tage gilt nur beim Bestelen, so wie sich sein das liest hat er sie aus nem laden abgeholt.
Zur garantie warum garantie die läuft doch (wen auch nicht so wie gedacht/erhoft) also ists nix über garantie.

Gast
2007-05-15, 20:25:58
Zur garantie warum garantie die läuft doch (wen auch nicht so wie gedacht/erhoft) also ists nix über garantie.

Solange die Karte mit diesen Eigenschaften angeboten wurde, ist es kein Garantiefall.

Gast
2007-05-15, 20:28:45
Solange die Karte mit diesen Eigenschaften angeboten wurde, ist es kein Garantiefall.
Habe ich doch gesgat


also ists nix über garantie

Oder wie verstehst du das

Ailuros
2007-05-15, 20:30:41
Wie siehst du das mit dem Hardwarebug? Viele Leute hier halten auf deine Meinung recht viel. Weist du da mehr, oder kannst du auch nur das wiedergeben was bei B3D bereits diskutiert wird?

Ich hab das Zeug schon so lange vorher im Spekulations-forum erwaehnt, dass es gar nichts mit B3D zu tun haben kann. Die Debatte bei B3D hab ich nichtmal verfolgt nur deren Artikel schnell mal gelesen.

Es soll keineswegs jemand davon abhalten eine 2900 zu kaufen falls er weiss dass es das richtige Produkt fuer ihn ist. AMD wird dafuer sorgen dass jegliche Schwaechen durch die Treiber abgedeckt werden; nur erwartet um Himmels Willen nicht dass eine 2900XT eine 8800GTX across the board ueberfahren wird. Bei dem $399 MSRP sollte man es auch nicht erwarten.

Es gab zwei Bugs im letzten Jahr durch die Entwicklung von R600; einer war dafuer schuld dass man nicht ueber ~400MHz steigen konnte und der andere war in den ROPs. Die dev-samples die im letzten Jahr bei grossen ISVs antanzten waren etwas unter 400MHz getaktet und der Stromverbrauch war damals so hoch fuer die Frequenz dass es fast obszoen war. Seither wurde ordentlich das meiste aufgeraeumt und der Stromverbrauch um ein sehr hohes Prozentual reduziert.

Marc-
2007-05-15, 20:31:34
Er ist doch im Recht, 14 Tage Umtausch Garantie und so ...

Regards
Soviel ich erkennen konnte kann er nicht das FAG in anspruch nehmen. Sonst würde er sich ja auch keine "ausreden" einfallen lassen müssne
Zudem: auch das FAG ist nicht dazu gedacht, um early adopters vor (vorhersehbaren) treiberprobs in den ersten wochen zu schützen. Der eigentliche sinn des FAgs liegt daran den kunden vor übereilten und unbedachten und/oder eigentlich nicht gewollten haustürgeschäften und onlinegeschäften ohne die vorherige informationsmöglichkeit zu bewahren. (das war wenigstens die grundintention). Derartiges liegt hier wohl nicht vor.
Jeder weiss, was er tut wenn er nunmal der erste in einem forum wie hier sein will, der eben eine brandneue hardware haben will, sich dann hinzustellen und den händler für die eigene gier und aufmerksamkeitsgeilheit bluten zu lassen find ich mal derbst daneben.

Denn eins sollte allen beteiligten hier mal klar sein: damit trefft ihr in keinster weise die hersteller (die aber letzten endes dafür verantwortlich sind) sondern einzig und allein den kleinen (oder auch grossen) händler... wobei es ersterem sicher mehr weh tun wird.
Darüber werdet euch einfach mal klar bevor ihr euch ständig so moralisch im recht seht.

Sterem
2007-05-15, 20:33:42
Gouvernator teste mall bitte denn neuen Treiber.

http://www.computerbase.de/downloads/treiber/grafikkarten/ati/ati_catalyst_beta/

Vielleicht hilft der Treiber.

horn 12
2007-05-15, 20:35:47
Der aktuellste und neueste 8.38 Treiber :eek: :biggrin: soll nun bereitstehen und hoffe der bringt das Erwartete bei AA/AF und der BQ noch.:biggrin: ;D
Hier der Link:

http://www.computerbase.de/downloads/treiber/grafikkarten/ati/ati_catalyst_beta/

Bitte teste mal die AA/AF Modi (Blureffekt) und vor allem die Performance.
Dank Dir!

Gast
2007-05-15, 20:36:45
Habe ich doch gesgat
Oder wie verstehst du das

Das war Sarkasmus und sollte nur sagen: Wenn die Fehler angekündigt wären (z.B Verpackung), dann wäre dies kein Garantiefall.

Exxtreme
2007-05-15, 20:43:46
nur eins versteh ich nicht...wenn die ROPs wirklich einen hardwarebug haben dann ist doch die ganze megabandbreite für die katz...

Richtig. Und das ist eine Sache, die mir nicht in den Kopf geht. Wieso verbaut man ein sehr teurer 512-Bit-Interface, wenn man weiss, daß man es nicht ausnutzen kann? Da hätt's ein 256-Bit-Interface genauso getan.

Mr. Lolman
2007-05-15, 20:45:29
Dass die ROPs einen Bug haben, scheint aus verschiedensten Gründen offensichtlich.

Ich seh nur, dass momentan die AA Performance unter aller Sau ist.

Ich brauch keine weiteren Bestaetigungen ;)

Ich schon. Nicht immer ist der 1. Eindruck der Richtige.



Ich sagte Fuellraten und dabei war das "n" mit Absicht fettgedruckt. Es gibt nicht nur eine Fuellrate auf einem chip und im Fall von R600 ist die noAA Z Fuellrate - welche doch wichtig ist fuer Zeug wie shadow maps - eher unterirdisch. Einer G80 ist es schnuppe ob man hier AA oder nicht anwendet.

Die Z-Füllrate war bei ATi nie besonders gut. Und trotzdem konnten sie in D³ schön aufschliessen. Das b2f-HSR ist bei ATi ~5x höher als bei NV: http://www.3dcenter.org/images/radeon_hd_2900_xt/benchmark_d3drightmark_hsr.png


Marketing-Gerummel-Folien gegen Echtzeit-Messungen:

http://www.beyond3d.com/images/reviews/r600-arch/bench-filter-4x4-point.png

http://www.beyond3d.com/images/reviews/r600-arch/bench-rop.png

http://www.beyond3d.com/content/reviews/16/13

Dass die Texelfüllrate des R600 der des G80 unterlegen ist, ist ja nix Neues. Die Texelfüllrate einer 9700p war nur ~8% höher als die einer TI4800 und 40% geringer als die einer FX5800 Ultra. Was daraus geworden ist, wissen wir ja.


Und zum Trumph der Sache will ich jetzt auch noch Deine Ansicht ueber jegliche Form von nutzlosem Supersampling und wie unwichtig hier die Fuellraten auch noch sind....

Hö? Texelfüllraten sind bei Supersampling afaik wurscht (bzw. erhöht sich die Last nur geringfügig) und in der Pixelfüllrate ist die 2900XT ggü der 8800GTX nur minimal unterlegen. Außerdem: Was hat Supersampling damit zu tun? Denkst du etwa dass der R600 statt MSAA SSAA macht?


Es gab zwei Bugs im letzten Jahr durch die Entwicklung von R600; einer war dafuer schuld dass man nicht ueber ~400MHz steigen konnte und der andere war in den ROPs. Die dev-samples die im letzten Jahr bei grossen ISVs antanzten waren etwas unter 400MHz getaktet und der Stromverbrauch war damals so hoch fuer die Frequenz dass es fast obszoen war. Seither wurde ordentlich das meiste aufgeraeumt und der Stromverbrauch um ein sehr hohes Prozentual reduziert.

Ich knie nieder vor deinen Insiderinfos :massa: (woher erfährt man das alles?)

dr_mordio
2007-05-15, 20:49:31
ich glaube das problem beim Gouvernator liegt wo ganz anders!

denn bei ihm sinds mehr fehler und weniger performace als bei vielen anderen.

um das vermutete problem zu erklären, muß ich zeitlich etwas zurück abschweifen....

vor ca. einem halben jahr machte mein X1800XT-512 plötzlich nur noch im scnitt 50-75% der normalen FPS und noch weniger!
das viel mir sofort auf, da ich in einem clan bin und regelmäfig DOD:Source zocke und wenn man statt über 100 FPS plötzlich stellenweie sogar auf bis nur noch 25 fps einbricht, dann merkt man das wirklich.

dazu muß gesagt werden, das zu dem zeitpunkt gerade kein neuer treiber und auch kein DOD:S update installiert wurde!

na ,weiß jemand was bei mir los war?
achja, die karte werkelt heut noch in meinem PC!
sie ist also nicht defekt oder so. aber sie läuft jetzt wieder mit ihren über 100fps!:biggrin:

erklärung:
ich hatte die karte an einem thermaltake 680watt truepower netzteil. doch an dem NT hat sich irgendwas verabschiedet, so das die spannung zwar noch da war, aber nicht mehr ausreichend.
(die karte ließ sich nix anmerken - kein blinken beim boot und auch die roten LEDs haben nicht geleuchtet --dafür hats noch gereicht)

daher hats etwas gedauert,bis ich das rausgefunden hab....

ich hab mir dann ein 450 watt NT von der firma geliehen und dieses nur an die Graka angeschlossen. den rest des rechners ließ ich weiter über das 680er laufen.
und siehe da, die FPS fingen an zu steigen!
mittlerweile hab ich ein be quiet! dark power pro 750 watt und die karte rennt wieder, wie neu.....

Fazit:
ich denke Gouvernators NT ist einfach mit der Graka übervordert....
es mag zwar von den aufgedruckten werten her vielleicht gerade passen. aber dazu kommt noch der wirkungsgrad und das alter des NTs...

Wär zumindest eine erkärung!

MfG
Alex

Coda
2007-05-15, 20:50:37
Die Z-Füllrate war bei ATi nie besonders gut. Und trotzdem konnten sie in D³ schön aufschliessen. Das b2f-HSR ist bei ATi ~5x höher als bei NV:
Die Ergebnisse sind aber reichlich seltsam. Wieso wird die ATi bei f2b nicht schneller als bei b2f? Das ist mir unerklärlich :|

robbitop
2007-05-15, 20:50:55
FP16 Texturen + Framebuffer ;)
Mit dem R600 hat man die Zukunft wohl nicht ganz richtig antizipiert.

Coda
2007-05-15, 20:51:59
War das eine Antwort auf meine Frage? Ne oder?

Mr. Lolman
2007-05-15, 20:52:24
Die Ergebnisse sind aber reichlich seltsam. Wieso wird die ATi bei b2f nicht schneller als bei f2b? Das ist mir unerklärlich :|

Jetzt wo dus sagst fällts mir auch auf. V.a. die aufs Frame gleichen ergebnisse machen mich stutzig.

Gast
2007-05-15, 20:52:24
Die Z-Füllrate war bei ATi nie besonders gut. Und trotzdem konnten sie in D³ schön aufschliessen.

Cheats ahoi. Das ist kein gutes Beispiel, um irgendwas zu belegen. (Eine wie die andere Richtung)


Das b2f-HSR ist bei ATi ~5x höher als bei NV: http://www.3dcenter.org/images/radeon_hd_2900_xt/benchmark_d3drightmark_hsr.png

Und? Bringt es irgendeinen Vorteil, der sich in der Wirklichkeit bemerkbar macht?

Dass die Texelfüllrate des R600 der des G80 unterlegen ist, ist ja nix Neues. Die Texelfüllrate einer 9700p war nur ~8% höher als die einer TI4800 und 40% geringer als die einer FX5800 Ultra. Was daraus geworden ist, wissen wir ja.

Es gibt doch schon einen Unterschied zwischen 400 und 40%, oder?


Hö? Texelfüllraten sind bei Supersampling wurscht (bzw. erhöht sich die Last nur geringfügig) und in der Pixelfüllrate ist die 2900XT ggü der 8800GTX nur minimal unterlegen.

Seit wann? Wobei, wenn denn die Texelfüllrate bei Supersampling "wurscht" wäre, wieso gewinnt die 2900XT beim Einsatz von EATM soviel Leistung?

AnarchX
2007-05-15, 20:52:43
Das b2f-HSR ist bei ATi ~5x höher als bei NV: http://www.3dcenter.org/images/radeon_hd_2900_xt/benchmark_d3drightmark_hsr.png


Warum ist bei CB G80 im HSR deutlich schneller? :|
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/11/#abschnitt_theoretische_benchmarks

robbitop
2007-05-15, 20:53:02
Das b2f-HSR ist bei ATi ~5x höher als bei NV:
In einem Synthie macht sich ein Hir-Z Buffer gut ;)
In der Praxis gibts wenn dann nur leichte Vorteile.

Raff
2007-05-15, 20:53:32
Cheats ahoi. Das ist kein gutes Beispiel, um irgendwas zu belegen. (Eine wie die andere Richtung)

Ja? Also ich mag unsichtbare "Cheats". Sobald man den Mist aber sieht, und sei es nur minimal, sollte es konsequent Haue geben.

MfG,
Raff

dargo
2007-05-15, 20:53:52
ich denke Gouvernators NT ist einfach mit der Graka übervordert....
es mag zwar von den aufgedruckten werten her vielleicht gerade passen. aber dazu kommt noch der wirkungsgrad und das alter des NTs...

Der Wirkungsgrad eines NTs hat absolut nichts mit der abgegebenen Leistung an die Komponenten zu tun.

robbitop
2007-05-15, 20:53:56
Warum ist bei CB G80 im HSR deutlich schneller? :|
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/11/#abschnitt_theoretische_benchmarks
Gibt verschiedene HSR Tests in D3D Rightmark.

Coda
2007-05-15, 20:54:40
In einem Synthie macht sich ein Hir-Z Buffer gut ;)
In der Praxis gibts wenn dann nur leichte Vorteile.
GENAU das ist ja das Problem. Mit Hier-Z sollte f2b DEUTLICH scheller sein als b2f (bei b2f greift er gar nicht).

Da stimmt doch was nicht. Vor allem das die Werte bei allen drei Tests exakt gleich sein sollen. Ja ne, is klar. Das sieht ja fast danach aus als wären Z-Tests und Writes komplett ausgeschaltet gewesen.

AnarchX
2007-05-15, 20:55:55
Gibt verschiedene HSR Tests in D3D Rightmark.

Und ihr habt also die HSR-Tests ausgewählt wo ATi deutlich schneller ist oder wie?

Gouvernator
2007-05-15, 21:00:09
Den Treiber werde ich mal jetzt ziehen.

Wegen zurückbringen... Ich habe die Verpackung sehr ordentlich behandelt die Graka umso mehr und wenn das alles gut aussieht habe ich absolut keine Probleme die offiziell beim Händler in 5 tagen abzugeben.

Powerstrip geht doch mit der Karte. Die gute Nachricht zuerst es ist möglich 3840x2400 einzustellen die schlechte - ATI hat minderwertigen RAMDAC Chip verbaut deshalb ist bei 450mhz Schlüss. Sprich es wird mir nur gelingen 2560x1920@65Hz zu fahren.

Coda
2007-05-15, 21:01:20
450Mhz RAMDAC, dürfte für die restliche Welt auch genug sein :rolleyes:

Mr. Lolman
2007-05-15, 21:04:36
Cheats ahoi. Das ist kein gutes Beispiel, um irgendwas zu belegen. (Eine wie die andere Richtung)

Cheats? Du kennst anscheinend die Geschichte drumherum nicht. Irgendein ATi Mitarbeiter hat die Demo geleakt, und deswegen bekam ATi keine Vorabversionen mehr von id. NV hatte lange genug Zeit, die treiberseitig die Shader anzupassen. Und das taten sie auch, denn mit ner geänderten Interaction.vfp war bei denen die Performance plötzlich auch unter aller Sau. (Den Ambientlighting-Bug erwähn ich jetzt mal garnichtmal weiter, außer dass das vll. ein Grund war, warum D³ sovielen so arschdunkel vorkam)


Und? Bringt es irgendeinen Vorteil, der sich in der Wirklichkeit bemerkbar macht?

Kann schon sein. Ein Spiel besteht nicht nur aus einzelnen Tests. Bei hohem Overdraw hat Ati auf jedenfall Vorteile. (vlll. sollt ich echt mal mein UT-Benchmarklevel fertig basteln. Mittlerweile würd ich ihnen damit sogar einen großen Gefallen machen ;))


Es gibt doch schon einen Unterschied zwischen 400 und 40%, oder?

Bei 400% weniger wären die fps negativ X-D


Seit wann? Wobei, wenn denn die Texelfüllrate bei Supersampling "wurscht" wäre, wieso gewinnt die 2900XT beim Einsatz von EATM soviel Leistung?

Wegen der gewonnen Pixelfüllrate?

Gouvernator
2007-05-15, 21:04:39
450Mhz RAMDAC, dürfte für die restliche Welt auch genug sein :rolleyes:

Für mich aber nicht genug. Ich hatte grosse Pläne... 3600x2700

StefanV
2007-05-15, 21:06:23
Absolut. Wenn man noch die CPU-Sparte von AMD und die letzten beiden Quartalsergebnisse sieht, kann einem schon Angst und Bange werden. Hoffentlich werden die Karten (v.a. Mainstream) dennoch komerziell erfolgreich.
Siehe P3D News, TMSC soll volle Bücher haben, THX to AMD ^_^

Die x2600 und 2400 scheinen äußerst interessant zu sein, besonders weil sie nicht soo viel brauchen wie die in 80nm gefertigten nV Konkurenten...

Raff
2007-05-15, 21:06:45
Cheats? Du kennst anscheinend die Geschichte drumherum nicht. Irgendein ATi Mitarbeiter hat die Demo geleakt, und deswegen bekam ATi keine Vorabversionen mehr von id. NV hatte lange genug Zeit, die treiberseitig die Shader anzupassen. Und das taten sie auch, denn mit ner geänderten Interaction.vfp war bei denen die Performance plötzlich auch unter aller Sau. (Den Ambientlighting-Bug erwähn ich jetzt mal garnichtmal weiter, außer dass das vll. ein Grund war, warum D³ sovielen so arschdunkel vorkam)

Doom 3 ist arschdunkel, auch auf einer Radeon. :D Wäre es hell, würde es noch weniger Spaß machen als ohnehin.

MfG,
Raff

PCGH_Carsten
2007-05-15, 21:07:19
Was Gothic3 mit der Rechenleistung so anstellt, hab ihn nie ganz verstanden.
Bei den Obliviontoren ist jedoch pure Shaderpower gefragt: http://www.3dcenter.org/images/radeon_hd_2900_xt/benchmark_oblivion_sg2.png
Ist denn der Catalyst-Bug, bei dem mit aktiviertem AA die Tore fehlerhaft dargestellt wurden behoben?

Da ist die Texelfüllrate fast wurscht, eben wegen limitierender Shaderperformance. Und wohin uns die Zukunft bringen wird, zeigt ja diese Folie ganz gut:

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=30876&stc=1&d=1179221839
Das sind lediglich die Shader-Instruktionen. Interessanter wäre ein Vergleich, wieviel Prozent Rechen-/Latenzzeit eines Frames ALU und Texturen ausmachen - besonders bei hohen Filterstufen.

StefanV
2007-05-15, 21:07:40
450Mhz RAMDAC, dürfte für die restliche Welt auch genug sein :rolleyes:
Eben!
Und vorallendingen: Welches analoge Endgerät kann diese Auflösung fahren?!

Das braucht man höchstens wenn man 'nen Matrox Adapter zwischenklemmt, sonst nicht.

IBMs T221 wird ja bekanntlich per DVI angeschlossen...

Blaire
2007-05-15, 21:09:39
Doom 3 ist arschdunkel, auch auf einer Radeon. :D Wäre es hell, würde es noch weniger Spaß machen als ohnehin.


Sogar dunkler als auf NV Karten ;) http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2192649&postcount=228

Gouvernator
2007-05-15, 21:10:08
Erstens da sieht man deutlich wie man bei ATI gespart hat.. an allen Ecken und Enden. Die X1900XTX konnte noch 580mhz mitmachen und das Ende war nicht in Sicht. Und zweitens ich kann kleinere Auflösungen mit meinen 141khz nicht voll ausfahren.

Mr. Lolman
2007-05-15, 21:10:17
Doom 3 ist arschdunkel, auch auf einer Radeon. :D Wäre es hell, würde es noch weniger Spaß machen als ohnehin.

MfG,
Raff

Ja, aber NV Karten hatten lange Zeit das Ambientlighting garnicht angezeigt.

Gast
2007-05-15, 21:10:31
Cheats? Du kennst anscheinend die Geschichte drumherum nicht. Irgendein ATi Mitarbeiter hat die Demo geleakt, und deswegen bekam ATi keine Vorabversionen mehr von id. NV hatte lange genug Zeit, die treiberseitig die Shader anzupassen. Und das taten sie auch, denn mit ner geänderten Interaction.vfp war bei denen die Performance plötzlich auch unter aller Sau. (Den Ambientlighting-Bug erwähn ich jetzt mal garnichtmal weiter, außer dass das vll. ein Grund war, warum D³ sovielen so arschdunkel vorkam)

So, konnten sie also nun mithalten, weil sie das Spiel angepasst haben oder weil die Z-Füllrate nicht von so großer Bedeutung ist?


Kann schon sein. Ein Spiel besteht nicht nur aus einzelnen Tests. Bei hohem Overdraw hat Ati auf jedenfall Vorteile. (vlll. sollt ich echt mal mein UT-Benchmarklevel fertig basteln. Mittlerweile würd ich ihnen damit sogar einen großen Gefallen machen ;))

Mach ruhig. Wäre interessant, da Oblivion zeigt, dass die G80 Karten hier excelent arbeiten.

Bei 400% weniger wären die fps negativ X-D

Ich dachte, es ginge um den Texelfüllratenvorteil. Der beträgt hier nicht 40% sondern 400% (ausgehen von der 2900XT)...


Wegen der gewonnen Pixelfüllrate?

Warum liegen dann die r580 Karten um den Faktor 2x hinter der GTS und dem Faktor 3x hinter der GTX, wenn die Pixelfüllrate auschlaggebend wäre?

Coda
2007-05-15, 21:10:44
Cheats? Du kennst anscheinend die Geschichte drumherum nicht. Irgendein ATi Mitarbeiter hat die Demo geleakt, und deswegen bekam ATi keine Vorabversionen mehr von id. NV hatte lange genug Zeit, die treiberseitig die Shader anzupassen. Und das taten sie auch, denn mit ner geänderten Interaction.vfp war bei denen die Performance plötzlich auch unter aller Sau. (Den Ambientlighting-Bug erwähn ich jetzt mal garnichtmal weiter, außer dass das vll. ein Grund war, warum D³ sovielen so arschdunkel vorkam)
DooM³ benützt in den Maps, die dabei sind kein Ambient, deshalb könnte es der Shadercompiler ohnehin wegoptimieren. Ich denke nVIDIA "vergaß" das bei ihrem Shader-Replacement einfach ;)

Mr. Lolman
2007-05-15, 21:12:06
DooM³ benützt in den Maps die dabei sind kein Ambient.

Doch. Die Diskussion hatten wir schonmal. Bei Bedarf such ich den Link raus.

Liszca
2007-05-15, 21:13:34
Und was macht AMD's Treiberteam seit einem Jahr? So mancher AMD PR-Affe fuetterte die Presse indirekt mit Mist wie "miserabel" die G80-Treiber waeren; dafuer haette ich mit einer 6-monatigen Verspaetigung einen um einiges "reiferen" Treiber erwartet.

Ja Bugs kann man erfolgreich abdecken; das dumme ist aber dass man dann das Rennen gegen die Konkurrenz so oder so verloren hat, denn die "Abdeckung" kostet auch wertvolle Resourcen bzw. Leistung.

verspätung hin oder her, so misserabel darf das echt nicht sein, aber zum glück hat die 8800 so ein schickes af *eg*

Blaire
2007-05-15, 21:13:55
Ja, aber NV Karten hatten lange Zeit das Ambientlighting garnicht angezeigt.

Wenn 2 Wochen für dich ne lange Zeit sind...Problem trat mit dem 78.03 auf und war mit dem 78.05 behoben. Das war übrigens zum 7800GTX Launch ;)

Coda
2007-05-15, 21:14:49
Doch. Die Diskussion hatten wir schonmal. Bei Bedarf such ich den Link raus.
Mach mal.

Liszca
2007-05-15, 21:16:15
Stimmt. Ich vermute, dass die Vermutung der fehlerhaften ROPs sich bis jetzt noch nicht bestätigt hat. ;)



Das ist jetzt ne Vermutung von dir. Ich halte die TDU Performance dagegen. Da ist die Texelfüllrate fast wurscht, eben wegen limitierender Shaderperformance. Und wohin uns die Zukunft bringen wird, zeigt ja diese Folie ganz gut:

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=30876&stc=1&d=1179221839


und die schäder rühren die texturen in keinster weise an? bzw texelfüllrate wird nicht wirklich mehr benötigt?

Coda
2007-05-15, 21:17:17
Das Diagram halte ich für ziemlich übertrieben, aber ja der Arithetikanteil in den Shadern steigt.

Liszca
2007-05-15, 21:19:11
nur eins versteh ich nicht...wenn die ROPs wirklich einen hardwarebug haben dann ist doch die ganze megabandbreite für die katz...

ATI muss doch schon gewusst haben das sie von der bandbreite eh kaum gebrauch machen können da die ROPs im sack sind...warum um gottes namen haben sie dann nicht einfach ein anderes 256Bit PCB nachgeschoben um das ding billiger abstossen zu können....dann würde das eben nur das X1950pro pendant werden und für 250€ verkauft und in einem refresh dann der hardwarebug gefixt

so ist doch das ganze aufwendigfe pcb und die vielen ramchips dadrauf für die katz


das mit den 256 bit habe ich auch schon gedacht, vielleicht sind es nur bei "besonderer rechnerei" 512 bit?

robbitop
2007-05-15, 21:21:11
War das eine Antwort auf meine Frage? Ne oder?
Ne. Eine Antwort auf die Frage nach dem 512 bit SI.
Ich habe mich btw genauso ueber die Ergebnisse gewundert.

Mr. Lolman
2007-05-15, 21:22:19
So, konnten sie also nun mithalten, weil sie das Spiel angepasst haben oder weil die Z-Füllrate nicht von so großer Bedeutung ist?

So wohl, als auch. (Was nicht ganz richtig ist, da bei D³ die Z-Füllrate doch von großer Bedeutung ist. Keine Ahnung in welcher Form ATi da die Performance genau erhöht hat)


Mach ruhig. Wäre interessant, da Oblivion zeigt, dass die G80 Karten hier excelent arbeiten.

Gerne. Ich muss nur meinen inneren Schweinehund dazu überwinden. X-D


Ich dachte, es ginge um den Texelfüllratenvorteil. Der beträgt hier nicht 40% sondern 400% (ausgehen von der 2900XT)...

Auch das stimmt nicht. Weder die 40% bei 9700p vs 5800 Ultra, noch die 400% bei 2900XT vs 8800GTX


Warum liegen dann die r580 Karten um den Faktor 2x hinter der GTS und dem Faktor 3x hinter der GTX, wenn die Pixelfüllrate auschlaggebend wäre?

Weil der R600 momentan (?) ein generelles Problem mit AA zu haben scheint?

Wenn 2 Wochen für dich ne lange Zeit sind...Problem trat mit dem 78.03 auf und war mit dem 78.05 behoben. Das war übrigens zum 7800GTX Launch ;)

Auch der NV40 hatte das Problem. (afaik)

Mach mal.

Moment...

robbitop
2007-05-15, 21:24:09
Und ihr habt also die HSR-Tests ausgewählt wo ATi deutlich schneller ist oder wie?
Nein. Ich habe die IMO komplexesten ausgewaehlt.
Ist schon lustig, dass wir staendig als Biased bezichtigt werden (auch wenn du es hier nur andeutest). Komischerweise in jedenm Artikelrythmus von der jeweils anderen Fanboybelegschaft. ;)

AnarchX
2007-05-15, 21:27:04
Nein. Ich habe die IMO komplexesten ausgewaehlt.


Na dann ist es in Ordnung, war nur etwas seltsam dass hier zwei völlig gegensätzliche Bilder gegenüberstehen. ;)

Gast
2007-05-15, 21:28:28
Auch das stimmt nicht. Weder die 40% bei 9700p vs 5800 Ultra, noch die 400% bei 2900XT vs 8800GTX

Der r600 hat 16 TMUs, die in einem Takt INT8 oder FP16 texturen filtern. Die 8800GTX hat 64 FU, die in einem Takt INT8 Texturen oder in 2 Takten FP16 Texturen Filtern. Unabhängig von der Taktrate hat die 8800GTX im besten Fall die vierfache MTexelFüllrate (INT8 Texturen mit trilinearer Filterung).
Ergo 100% - 400%.


Weil der R600 momentan (?) ein generelles Problem mit AA zu haben scheint?


Und das beeinflusst die Ergebnisse des r580?

Ailuros
2007-05-15, 21:29:10
Ich schon. Nicht immer ist der 1. Eindruck der Richtige.

Der "Eindruck" ist hier wohl ein Produkt dass eine Ewigkeit unter Entwicklung lag, ganze 6 Monate spaeter als der direkte Konkurrent ankam, wir in der Zwischenzeit eine aeusserst idiotische AMD-PR-Erklaerung ins Gesicht geschmiert bekamen ueber einen angeblichen "Familien-Launch" von dem ich momentan nur Bilder von RV630/610 sehen kann und Treibern die angeblich zu wuenschen lassen. Wo genau ist der tolle Eindruck und wo hat durch diese geraume Zeit das Treiberteam herumgefurzt dass wir doch nichts allzu besonderes heutzutage sehen koennen?

Die Z-Füllrate war bei ATi nie besonders gut. Und trotzdem konnten sie in D³ schön aufschliessen. Das b2f-HSR ist bei ATi ~5x höher als bei NV:

Tja das back to front erinnert stark an einen TBDR; nur eben hat R600 momentan genauso merkwuerdige und stellenweise unerwartete Leistung wie ein DR aber bitte stets ohne AA. Wo ist denn der "Eindruck" der Vergangenheit dass die uebermaessige Bandbreite auf dem Ding nicht eher dekorativ ist?


Dass die Texelfüllrate des R600 der des G80 unterlegen ist, ist ja nix Neues. Die Texelfüllrate einer 9700p war nur ~8% höher als die einer TI4800 und 40% geringer als die einer FX5800 Ultra. Was daraus geworden ist, wissen wir ja.

Fuellraten plural bitte, deutet auf NICHT nur Texel-Fuellrate und hier zaehlt die Pixel-Fuellrate und jegliche andere Fuellrate auch mit.


Hö? Texelfüllraten sind bei Supersampling afaik wurscht (bzw. erhöht sich die Last nur geringfügig) und in der Pixelfüllrate ist die 2900XT ggü der 8800GTX nur minimal unterlegen. Außerdem: Was hat Supersampling damit zu tun? Denkst du etwa dass der R600 statt MSAA SSAA macht?

Nein nur eben dass es das Ding mit der Pixelfuellrate extrem schwer haben wird sich mit echtem Transparenz-AA gegen ihren Gegner zu behaupten. Von FS_SSAA sollte bei R600 sowieso nicht die Rede sein; nicht nur weil es AMD wohl nie auf single-GPUs freischalten wird aber auch weil es auch nicht mithalten kann.

Ich knie nieder vor deinen Insiderinfos :massa: (woher erfährt man das alles?)

Den Sarkasmus kannst Du Dir sparen. Von den gleichen Quellen die mir ein Blockdiagramm vom originalen R400 spendierten :P

Blaire
2007-05-15, 21:30:45
Auch der NV40 hatte das Problem. (afaik)

Möglich.
Es war jedenfalls ein Treiberbug zum 7800GTX Launch (78.01 oder 03 weiss nicht mehr genau, mit dem 78.05 war der Bug behoben). Ich frage mich warum du dich an solchen Kleinigkeiten hochziehst?

Gast
2007-05-15, 21:38:44
Die Z-Füllrate war bei ATi nie besonders gut. Und trotzdem konnten sie in D³ schön aufschliessen. Das b2f-HSR ist bei ATi ~5x höher als bei NV: http://www.3dcenter.org/images/radeon_hd_2900_xt/benchmark_d3drightmark_hsr.png



Offensichlich ein fehlerhaftes Diagramm, denn warum sollte b2f (wo ja keinerlei HSR wirken kann) genauso schnell sein wie f2b oder auch unsortiert?

horn 12
2007-05-15, 21:39:16
@Gouvernator

Schon den neuesten Treiber 8.38-er PROBIERT?
Kann vielleicht gar schon was bringen,:confused:
austesten würde ich den sicher noch, auch wenn du das "Teil HD 2900 XT" abgeben/ zurückgeben willst.
Nur wenn der Treiber "enormes" bringen würde und das Teil schon weg ist, dann tätest DU dir wohl gewaltig in den Ar... beissen.:smile:

reunion
2007-05-15, 21:46:00
Die x2600 und 2400 scheinen äußerst interessant zu sein, besonders weil sie nicht soo viel brauchen wie die in 80nm gefertigten nV Konkurenten...

Interessant sind sie nur, wenn dort der ROP-Bug gefixt wurde. Wirklich interessant ist allerdings in der Tat der wohl sehr geringe Stromverbrauch. Immerhin gibt Ati für einen HD 2900XT 215W (240W mit Overdrive) an, und für eine HD 2600XT nur 45W.

Mr. Lolman
2007-05-15, 21:51:57
Moment...

OK. Die Diskussion find ich jetzt nicht mehr. Aber die Screenshots aus dem Post sind von Alpha Labs 2: http://forum.beyond3d.com/showthread.php?p=557470#post557470

Und das beeinflusst die Ergebnisse des r580?

Wer sagt denn, dass der auch EATM machen durfte. (ich hab in deinem vorigen Post fälschlicherweise statt R580 R600 gelesen)

Möglich.
Es war jedenfalls ein Treiberbug zum 7800GTX Launch (78.01 oder 03 weiss nicht mehr genau, mit dem 78.05 war der Bug behoben). Ich frage mich warum du dich an solchen Kleinigkeiten hochziehst?

Nö. Garantiert. Steht im obigen Link. Die Kleinigkeit war auch ne 'Optimierung'. Eine die das Ergebnis sichtbar vershlechterte. Wenn man schon von D³ Cheats redet, dann sollte man diesen Punkt nicht ignorieren.

Der "Eindruck" ist hier wohl ein Produkt dass eine Ewigkeit unter Entwicklung lag, ganze 6 Monate spaeter als der direkte Konkurrent ankam, wir in der Zwischenzeit eine aeusserst idiotische AMD-PR-Erklaerung ins Gesicht geschmiert bekamen ueber einen angeblichen "Familien-Launch" von dem ich momentan nur Bilder von RV630/610 sehen kann und Treibern die angeblich zu wuenschen lassen. Wo genau ist der tolle Eindruck und wo hat durch diese geraume Zeit das Treiberteam herumgefurzt dass wir doch nichts allzu besonderes heutzutage sehen koennen?

ATis Treiber Team ist nunmal sehr gut im Furzen. Oder schöner ausgedrückt: Gut Ding will Weile haben. Wielang gabs denn schon die 64MB 9500, bis ATi endlich die Speicherverwaltung in Griff bekommen hat?


Tja das back to front erinnert stark an einen TBDR; nur eben hat R600 momentan genauso merkwuerdige und stellenweise unerwartete Leistung wie ein DR aber bitte stets ohne AA. Wo ist denn der "Eindruck" der Vergangenheit dass die uebermaessige Bandbreite auf dem Ding nicht eher dekorativ ist?

Beim R520 gabs auch erst nach einiger Zeit nen Treiber, der die AA-Performance ordentlich angehoben hat (40% in OpenGL, iirc)


Fuellraten plural bitte, deutet auf NICHT nur Texel-Fuellrate und hier zaehlt die Pixel-Fuellrate und jegliche andere Fuellrate auch mit.

Die Benchmarks die du gepostet hast, bezogen sich nur auf die Texelfüllraten ;)


Nein nur eben dass es das Ding mit der Pixelfuellrate extrem schwer haben wird sich mit echtem Transparenz-AA gegen ihren Gegner zu behaupten. Von FS_SSAA sollte bei R600 sowieso nicht die Rede sein; nicht nur weil es AMD wohl nie auf single-GPUs freischalten wird aber auch weil es auch nicht mithalten kann.

"Echtes" Transparenz-AA in Form von Supersampling ist imo eh ne Sackgasse. Zu hoch ist der Einbruch bei plötzlichem AT-Load (und das generell). Es kann doch nicht der Weisheit letzter Schluss sein, pro AT gleich die 4x Rechenlast zu verursachen nur damit das Ding nicht flimmert.


Den Sarkasmus kannst Du Dir sparen. Von den gleichen Quellen die mir ein Blockdiagramm vom originalen R400 spendierten :P

Hoppla. Das war garnicht sarkastisch gemeint. Tatsächlich find ich deine Insiderinfos äußerst beeindruckend. :up:

Gast
2007-05-15, 21:52:00
Interessant sind sie nur, wenn dort der ROP-Bug gefixt wurde. Wirklich interessant ist allerdings in der Tat der wohl sehr geringe Stromverbrauch. Immerhin gibt Ati für einen HD 2900XT 215W (240W mit Overdrive) an, und für eine HD 2600XT nur 45W.
Vielleicht ein Grund für die Verspätung? Die Probleme mit der 65 nm Fertigung könnten nur vorgeschoben sein. Nichtsdestotrotz kann sich Amd auch bei seinen treusten Fans mit so einer Aktion den Ruf total versauen, falls sich die Problematik mit dem R600 bewahrheiten soll.

Mr. Lolman
2007-05-15, 21:53:03
Offensichlich ein fehlerhaftes Diagramm, denn warum sollte b2f (wo ja keinerlei HSR wirken kann) genauso schnell sein wie f2b oder auch unsortiert?

Das hat Coda schon vor 2 Seiten entdeckt ;)

Die Ergebnisse sind aber reichlich seltsam. Wieso wird die ATi bei f2b nicht schneller als bei b2f? Das ist mir unerklärlich :|

robbitop
2007-05-15, 21:56:32
Offensichlich ein fehlerhaftes Diagramm, denn warum sollte b2f (wo ja keinerlei HSR wirken kann) genauso schnell sein wie f2b oder auch unsortiert?
Das Diagramm gibt die Messwerte wieder. Sieht mir eher nach einem Bug aus.

Gouvernator
2007-05-15, 22:06:10
Der Treiber von CB mit 133mb funzt net mit 2900. Da sind nur die kleinere Karten eingetragen.

laser114
2007-05-15, 22:08:39
Der Treiber von CB mit 133mb funzt net mit 2900. Da sind nur die kleinere Karten eingetragen.

Welche kleineren Karten...? Bis X1950?

horn 12
2007-05-15, 22:09:10
habe dies auch nun gelesen, aber meinst dies ist auch genau so.
Probieren würde ich den dochmal, ob er vielleicht dennoch zu installieren geht; Aber ist wie gesagt deine Sache.:smile:
PS: Dann gibts diese Tage die HD 2900 XT zurück, und holst dir ne GST/X?:confused:

Nein 2300 -2600 XT, aber eben kein X2900 gelistet.

Ailuros
2007-05-15, 22:15:49
ATis Treiber Team ist nunmal sehr gut im Furzen. Oder schöner ausgedrückt: Gut Ding will Weile haben. Wielang gabs denn schon die 64MB 9500, bis ATi endlich die Speicherverwaltung in Griff bekommen hat?

Mir erklaerst Du aber immer noch nicht warum das Ding nicht im Februar auf Ladentische landete da es sich damals um genau die gleiche HW-Revision wie heute handelte und man schon alle fuer den Launch eingeladen hatte. Der wahre Grund waren die Treiber, ergo war deren damaliger Zustand noch miserabler, was mir aber nichts anderes sagt dass die Hoffnung fuer phaenomenale Aenderungen in der Zukunft eher geringer aussieht.

Um den Brei reden kannst Du mir lange, aber ich suche nach anstaendigen Antworten zu durchaus logischen Fragen, wenn Du schon einen besseren "Eindruck" hasst.

Beim R520 gabs auch erst nach einiger Zeit nen Treiber, der die AA-Performance ordentlich angehoben hat (40% in OpenGL, iirc)

Siehe erster Paragraph.

Die Benchmarks die du gepostet hast, bezogen sich nur auf die Texelfüllraten ;)

Entweder Du willst Dich mit Absicht bloed hinstellen oder Du kannst die ROP-throughput Tabelle nicht entziffern. Wohl eher der erste Fall.

"Echtes" Transparenz-AA in Form von Supersampling ist imo eh ne Sackgasse. Zu hoch ist der Einbruch bei plötzlichem AT-Load (und dass generell). Es kann doch nicht der Weisheit letzter Schluss sein, pro AT gleich die 4x Rechenlast zu verursachen nur damit das Ding nicht flimmert.

Uhmmm wie soll ich das jetzt verstehen von jemand den ich als quasi SSAA-Verteidiger ansehe?

christoph
2007-05-15, 22:18:14
ich hab jetzt nicht den ganzen fred gelesen aber die teilweise realisierung des antialiasing über die shader kann die diskrepanz der paper specs mit der realen performance bei weitem nicht erklären.....

Coda
2007-05-15, 22:20:04
ich hab jetzt nicht den ganzen fred gelesen aber die teilweise realisierung des antialiasing über die shader kann die diskrepanz der paper specs mit der realen performance bei weitem nicht erklären.....
Das habe ich mir auch schon gedacht. Als ob ein Downfiltering im Shader so ewig dauernd würde.

Eigentlich könnte man das mal auf G8x nachstellen mit D3D10. Also manuelles Downfiltering vs. Chip-Downfiltering. Hab nur grad keine Zeit dafür.

Mr. Lolman
2007-05-15, 22:24:15
Mir erklaerst Du aber immer noch nicht warum das Ding nicht im Februar auf Ladentische landete da es sich damals um genau die gleiche HW-Revision wie heute handelte und man schon alle fuer den Launch eingeladen hatte. Der wahre Grund waren die Treiber, ergo war deren damaliger Zustand noch miserabler, was mir aber nichts anderes sagt dass die Hoffnung fuer phaenomenale Aenderungen in der Zukunft eher geringer aussieht.

Um den Brei reden kannst Du mir lange, aber ich suche nach anstaendigen Antworten zu durchaus logischen Fragen, wenn Du schon einen besseren "Eindruck" hasst.

Siehe erster Paragraph.

hast oder hasst? Wenn die Treiber schon damals der Grund waren, ists doch sehr wahrscheinlich dass sie immernoch Probleme machen, oder?


Entweder Du willst Dich mit Absicht bloed hinstellen oder Du kannst die ROP-throughput Tabelle nicht entziffern. Wohl eher der erste Fall.

In der ROP-Tabelle ist aber kein Vergleichswert zu NV zu sehen. Da erkennt man nur, dass AA Probleme macht und Z nichts weiter kostet wenn man auch Farbsamples hat.


Uhmmm wie soll ich das jetzt verstehen von jemand den ich als quasi SSAA-Verteidiger ansehe?

SGSSAA war zu Voodoozeiten genial, aber hauptsächlich deswegen, weil man damit die fehlenden Features bei der Texturfilterung wunderbar ausgleichen konnte (bilineares Filterung und negatives LOD = trilineare Filterung mit AF-Schärfe), kein 32bit-Rendering brauchte, ein schönes, vollständig geglättetes Bild bekam und dabei noch die (leider nur theoretische) Möglichkeit zu div. T-Buffereffekten hatte. Bei der heutigen Chipkomplexität und der dabei verschossenen Füllrate ist SSAA heutzutage eher eine üble Verschwendung (ca. so wie sich ein SLI-System in den Rechner zu stecken, damit man mit 8xS die gleiche Performance wie mit Single-GPU-4xAA bekommt)

san.salvador
2007-05-15, 22:25:48
Ich würde gerne mehr über das Threadthema lesen und weniger OT-Krempel. :)

Exxtreme
2007-05-15, 22:25:53
ATis Treiber Team ist nunmal sehr gut im Furzen. Oder schöner ausgedrückt: Gut Ding will Weile haben. Wielang gabs denn schon die 64MB 9500, bis ATi endlich die Speicherverwaltung in Griff bekommen hat?


Wenn der R600 Potential hätte dann wären die Grafikkarten nicht so billig. Speziell bei einem 512-Bit-Interface nicht. Es gibt nämlich keinen Grund etwas zu billig zu verkaufen.

Folglich sehe selbst ich nicht wirklich viele Chancen, daß AMD da noch was großartig dreht. 30% sind evtl. noch durchaus drin. Aber die Treiber müssten stellenweise 100%++ rausholen damit man den Chip als "gefixt" ansehen kann.

christoph
2007-05-15, 22:27:53
Das habe ich mir auch schon gedacht. Als ob ein Downfiltering im Shader so ewig dauernd würde.

das hat xmas auf b3d geschrieben:
even if the AA resolve were done entirely through shaders, reading samples at a rate of 16 samples/clock via the texture units, the 2900XT could resolve 11.87 GSamples/s. That's 8.4% of the texture unit time (much less on the ALUs) spend on downsampling at 1080p, 8xAA, 60 fps
http://forum.beyond3d.com/showthread.php?t=41241&page=12

Mr. Lolman
2007-05-15, 22:28:22
Wenn der R600 Potential hätte dann wären die Grafikkarten nicht so billig. Speziell bei einem 512-Bit-Interface nicht. Es gibt nämlich keinen Grund etwas zu billig zu verkaufen.

Folglich sehe selbst ich nicht wirklich viele Chancen, daß AMD da noch was großartig dreht. 30% sind evtl. noch durchaus drin.

Wer würde für das Ding momentan 500€ und mehr bezahlen? Niemand. Da ists wurscht wie gut der später noch sein wird. Die X1900XTX hat ja auch keine 750€ gekostet, obwohl sie das im Nachhinein Wert gewesen wäre ;)


Aber die Treiber müssten stellenweise 100%++ rausholen damit man den Chip als "gefixt" ansehen kann.

Beim AA, ja....

Gast
2007-05-15, 22:34:01
Sch*** auf GTS.. ebay und GTX und fertig :cool: Für 400€ sollte man eine abstauben können ;)

Aber die GTS für 269€ hat im Moment einfach das deutlich bessere Preis/Leistungsverhältnis, man zahlt jetzt 100€ drauf, als X1900/7900 Besitzer und hat nen Jahr seine Ruhe :)

Obs wirklich lohnt ne GTX zu holen, die GTS ist mit ein wenig Overlocking recht nahe dran und so billig, soviel Leistung, wann gabs das zuletzt?

cl55amg
2007-05-15, 22:39:32
Aber die GTS für 269€ hat im Moment einfach das deutlich bessere Preis/Leistungsverhältnis, man zahlt jetzt 100€ drauf, als X1900/7900 Besitzer und hat nen Jahr seine Ruhe :)

Obs wirklich lohnt ne GTX zu holen, die GTS ist mit ein wenig Overlocking recht nahe dran und so billig, soviel Leistung, wann gabs das zuletzt?

Die 320Mb Version bestimmt nicht, diese hat hat vielen Situationen zu große Frame Drops.

PCGH_Carsten
2007-05-15, 22:40:48
Nein. Ich habe die IMO komplexesten ausgewaehlt.
Ist schon lustig, dass wir staendig als Biased bezichtigt werden (auch wenn du es hier nur andeutest). Komischerweise in jedenm Artikelrythmus von der jeweils anderen Fanboybelegschaft. ;)

edit - Off-Topic (s. Diskussion zum Review). Aber das mit dem biased ist immer so und wird sich nie ändern. Man kann es eben nicht allen recht machen.

Exxtreme
2007-05-15, 22:41:20
Wer würde für das Ding momentan 500€ und mehr bezahlen? Niemand. Da ists wurscht wie gut der später noch sein wird. Die X1900XTX hat ja auch keine 750€ gekostet, obwohl sie das im Nachhinein Wert gewesen wäre ;)
Trotzdem ist das Ding viel zu billig für das Techlevel und den Aufwand. Ich weiss nicht ob da überhaupt Gewinne drinne sind.
Beim AA, ja....
Und das ist neben AF das Einzige was zählt.

Ailuros
2007-05-15, 22:42:04
hast oder hasst? Wenn die Treiber schon damals der Grund waren, ists doch sehr wahrscheinlich dass sie immernoch Probleme machen, oder?

Die Treiber waren damals in einem schlechteren Zustand als heute; in den 4 Monaten bis heute hatte man genug Zeit etwas besseres zu liefern.

Und um es klar zu machen damals waren die Treiber alles andere als stabil.

In der ROP-Tabelle ist aber kein Vergleichswert zu NV zu sehen. Da erkennt man nur, dass AA Probleme macht und Z nichts weiter kostet wenn man auch Farbsamples hat.

Tja dann ist wohl die brennende Frage warum AA Probleme macht.

Uebrigens ganz nebenbei (und das betrifft eher das 3dcenter review team) Fablemark ist eine ziemlich abgelatschte DX7.0 Applikation. Ich haette viel lieber Resultate vom PowerVR D3D9.0 Deferred Shading demo gesehen, um zu sehen wie sich das Ding mit MRTs und einer Unmenge an Lichtern verhaelt.

Gast
2007-05-15, 22:45:47
danke Gouvernator für deine postings, nach vier ATI karten seit der 9800 habe ich mir eben eine GTS bestellt

mapel110
2007-05-15, 22:46:07
Und das ist neben AF das Einzige was zählt.
Und den Einbruch beim AF kann man nicht fixen. ;(
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/8/#abschnitt_aa_und_af_skalierung
auf 45 % bei COD2
auf 69 % bei Gothic3
auf 49 % bei Serious Sam2

Raff
2007-05-15, 22:47:04
Das Ding hat eben zu wenig Füllrate. Da "fixt" höchstens A.I. etwas dran. Aber wehe ... Da muss man in zukünftigen Treibern ganz genau hinsehen.

MfG,
Raff

robbitop
2007-05-15, 22:47:29
Uebrigens ganz nebenbei (und das betrifft eher das 3dcenter review team) Fablemark ist eine ziemlich abgelatschte DX7.0 Applikation. Ich haette viel lieber Resultate vom PowerVR D3D9.0 Deferred Shading demo gesehen, um zu sehen wie sich das Ding mit MRTs und einer Unmenge an Lichtern verhaelt.
Das eine hat zwar mit dem anderen nichts zu tun, ist aber ein guter Vorschlag. :)

Exxtreme
2007-05-15, 22:59:50
Und den Einbruch beim AF kann man nicht fixen. ;(
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/8/#abschnitt_aa_und_af_skalierung
auf 45 % bei COD2
auf 69 % bei Gothic3
auf 49 % bei Serious Sam2
Das Teil hat zuwenig Füllrate.


Wobei ich nicht verstehe warum diese Grafikkarte teilweise hinter den Vorgänger zurückfällt. :usweet: Da ist noch irgendwo anders eine Handbremse.

Gast
2007-05-15, 23:10:42
Die 320Mb Version bestimmt nicht, diese hat hat vielen Situationen zu große Frame Drops.

Ich meinte ja die große GTS!

Coda
2007-05-15, 23:15:20
Ich haette viel lieber Resultate vom PowerVR D3D9.0 Deferred Shading demo gesehen, um zu sehen wie sich das Ding mit MRTs und einer Unmenge an Lichtern verhaelt.
Stalker.

Ailuros
2007-05-15, 23:15:45
Das eine hat zwar mit dem anderen nichts zu tun, ist aber ein guter Vorschlag. :)

FableMark zielte damals als Stencil-Bench eher auf das kommende Doom3 und Deferred Shading demo dann eher auf STALKER. Selbstverstaendlich ist im zweiten kein MSAA moeglich ;)

Ailuros
2007-05-15, 23:18:53
Das Ding hat eben zu wenig Füllrate. Da "fixt" höchstens A.I. etwas dran. Aber wehe ... Da muss man in zukünftigen Treibern ganz genau hinsehen.

MfG,
Raff

Lass mich sehen und NV kommt beim G9x dann wieder mit beschissenerem AF an waehrend R700 mit besserem AF protzt und das ganze wieder von Anfang an mit G2xx und R8x0....(soll natuerlich nur ein Witz sein).

Gouvernator
2007-05-15, 23:45:22
Hier ein image mit normal 8xAA.

http://img518.imageshack.us/img518/395/unbenannt1qy5.th.jpg (http://img518.imageshack.us/my.php?image=unbenannt1qy5.jpg)

Sterem
2007-05-16, 00:14:03
Hier ein image mit normal 8xAA.

nt1qy5.th.jpg[/URL][/URL]

Es war klar das du die Karte behälst.Spitze Gouvernator,ich werde mir bestimmt auch bald eine X2900 XT kaufen.:)

Gast
2007-05-16, 00:47:14
Es war klar das du die Karte behälst.Spitze Gouvernator,ich werde mir bestimmt auch bald eine X2900 XT kaufen.:)

Wo genau hat er das gesagt?
Was ist "im Moment" so "spitze" an der Karte...?
So wie ich es mitbekommen habe, ärgert er sich nur über das "Prachtstück"....

mfg...

Sterem
2007-05-16, 00:50:23
Wo genau hat er das gesagt?
Was ist "im Moment" so "spitze" an der Karte...?
So wie ich es mitbekommen habe, ärgert er sich nur über das "Prachtstück"....

mfg...

Ich bin mir sicher das Gouvernator die karte behalten wird.Arni war schon immer schwach wenn es um Ati Grafikkarten geht......:biggrin:

Er Favorisiert halt Ati Karten,so muss das auch sein bei der jetzigen lage.:(

Coda
2007-05-16, 01:26:23
Er Favorisiert halt Ati Karten,so muss das auch sein bei der jetzigen lage.:(
Ich werde diese fast religiöse Anbetung kapitalistischer Aktiengesellschaften wohl nie nachvollziehen können...

Gouvernator
2007-05-16, 02:07:53
Das ganze hat einfach was. FarCry ist zusammen mit Quality AAA + 8xAA (box) vollkommen flimmerfrei.

http://666kb.com/i/aodk2knvky3kqb4mv.jpg


http://666kb.com/i/aodk44mh6uuzesc3b.jpg

Daredevil
2007-05-16, 06:13:29
8 fps ;D
Das geht mir echt nich in den Kopf das die SO kacke is, werd mich wohl morgen selbst überzeugen müssen davon :D

horn 12
2007-05-16, 07:11:04
Gouvernator

Das Farcry Bild scheint am Hügel hinten,und die hinteren Bäume recht verschwommen, angemalen aus. Kein AF greift hier kommt mir vor
--> Treiberbug, oder ist echt das (16x)AF so schlecht.
Wie gut findest du das AF beim R600? Besser als jenes des R520/580, aber schlechter als bei einer GF 8800 GTS/X ?
Oder ist da Besserung in Sicht?

seahawk
2007-05-16, 07:26:13
Kombatant bewertet die Situation sehr gut :


http://forum.beyond3d.com/showthread.php?p=1005344#post1005344

Gast
2007-05-16, 07:29:59
Kombatant bewertet die Situation sehr gut :
http://forum.beyond3d.com/showthread.php?p=1005344#post1005344

Ja, ein PR Mann von AMD, der die User wochenlang gehypt hat, versucht die Lage zu retten. Na, wird für AMD nicht wirklich besser, jetzt schon die Userbasis direkt zu verarschen.

captainsangria
2007-05-16, 07:33:11
Kombatant bewertet die Situation sehr gut :


http://forum.beyond3d.com/showthread.php?p=1005344#post1005344als 'PR guy' muss er das :usad:

horn 12
2007-05-16, 07:35:54
@Gouvernator

Bitte wenn es DIR möglich ist, teste mal bitte aktuelle Games in der Auflösung 1280x1024
mit 8xAA und 16AF durch, da man so eine fps erhält, (auch auf unseren schwachen Singlecore CPU´s) und später mit C2D/ Dual Core vergleichen kann.
Herzlichen Dank dafür!

Lawmachine79
2007-05-16, 08:22:27
Kombatant bewertet die Situation sehr gut :


http://forum.beyond3d.com/showthread.php?p=1005344#post1005344

Kombatant hat schlechten Shit geraucht. Was 12x10/16x10/16x12 OHNE Eyecandy angeht, hat er Recht. Eben die Settings, in den früher NV schneller war.
Aber sieh Dir an, wie stark ATI mit BQ-verbessernden Maßnahmen verliert (früher ATIs Steckenpferd)
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/8/#abschnitt_aa_und_af_skalierung
Und jetzt sieh Dir das Performancerating bei guter BQ mal an:

Ich gehe von folgenden Dingen aus:
90% der Nutzer spielen in 1280x1024 (TFTs und CRTs bis 19"), 1600x1200 (CRT, eigentlich alle zwischen 19" und 21") oder in einer WS-Auflösung bis 1680x1050 (alle WS-TFT Nutzer bis einschl. 22"). Soviel zur Auflösung. Und nochmal: wer 400€ für eine Graka ausgibt, spielt nicht ohne Kantenglättung und spielt immer mit Max BQ (Filterung z.B.). Und in diesen Settings ist die 88GTS schneller, 5-10%.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet
Und CB hat soviele Spiele gebencht, daß es sehr aussagekräftig ist.
Ich verstehe absolut nicht, wieso es da noch Diskussionen über das "Ob" gibt, vielmehr sollte es jetzt für den Interessierten um das "Warum" (ist die 29XT langsamer als die 88GTS) gehen. Das kann man halt nicht mehr schönreden!
Also: in der durch diese Karten adressierten Zielgruppe stellt die 88GTS die bessere Wahl dar weil:
- Sie bei guter BQ schneller ist und nur bei schlechter BQ langsamer
- Sie günstiger ist
- Sie das bessere Featureset bietet (Supersampling & Hybridmodi)
- Sie insgesamt die bessere BQ bietet (nur beim MSAA kann man darüber streiten --> mir wurscht, ich habe ja Hybridmodi :D)
- Sie leiser ist
- Sie sparsamer ist

Dunkeltier
2007-05-16, 08:39:26
warmachine79, lass stecken. Manche sind für logische Argumente einfach nicht empfänglich. Sollen diese Leute ihre eigenen Erfahrungen machen. Man kann kann dies bis in die Unendlichkeit und noch weit darüber hinaus ausdiskutieren, aber bezogen auf das hier und jetzt (und nicht was in einer Millionen Jahren sein könnte) hat AMD/ATi mit Ihren neuen Produkt schlichtweg versagt. Punkt.

Raff
2007-05-16, 08:42:07
Das ganze hat einfach was. FarCry ist zusammen mit Quality AAA + 8xAA (box) vollkommen flimmerfrei.

http://666kb.com/i/aodk2knvky3kqb4mv.jpg


http://666kb.com/i/aodk44mh6uuzesc3b.jpg

Sorry das zu sagen, aber das wäre es mit 16xS auf einer GeForce 8 auch ... flüssig.

MfG,
Raff

Dunkeltier
2007-05-16, 08:44:13
Sorry das zu sagen, aber das wäre es mit 16xS auf einer GeForce 8 auch ... flüssig.

MfG,
Raff

Habe mir gerade die Links angesehen, 8 und 35FPS. Das ist :ulol:, für mich als VSync on Liebhaber und Tearing-Hasser absolut nicht spielbar. Ich glaube, da kann man aber auch den G80 in die Tonne treten.

Gast
2007-05-16, 08:49:40
Habe mir gerade die Links angesehen, 8 und 35FPS. Das ist :ulol:, für mich als VSync on Liebhaber und Tearing-Hasser absolut nicht spielbar. Ich glaube, da kann man aber auch den G80 in die Tonne treten.

Da nVidia unter XP immer Tripple-Buffering forciert, habe ich auch kein Problem mit 35, 36, 40 oder sonstigen Frames.

James Ryan
2007-05-16, 08:55:02
Gouvernator, hast du jetzt den neuesten Treiber schon getestet?
Laut Usern im Hwluxx gibt es Besserungen, aber nicht viel!

@tombman
Hast du noch mehr Links für günstiges GTXs? ;)

MfG :cool:

Lawmachine79
2007-05-16, 08:59:03
Habe mir gerade die Links angesehen, 8 und 35FPS. Das ist :ulol:, für mich als VSync on Liebhaber und Tearing-Hasser absolut nicht spielbar. Ich glaube, da kann man aber auch den G80 in die Tonne treten.
Triple Buffering sollte das Problem lösen. Tut es auch. Zumindest bei mir. Ich zocke sogar BF2 in 16xS@1680x1050.
Aber Far Cry dürfte auch das einzige Spiel aus dem Jahr 2003 sein, was man nicht mit 32xS/4x4 flüssig spielen kann.

Dunkeltier
2007-05-16, 09:05:27
Triple Buffering sollte das Problem lösen. Tut es auch. Zumindest bei mir. Ich zocke sogar BF2 in 16xS@1680x1050.
Aber Far Cry dürfte auch das einzige Spiel aus dem Jahr 2003 sein, was man nicht mit 32xS/4x4 flüssig spielen kann.

Triple-Buffering löst das Problem des Tearings nicht. Ich seh es dann immer noch mehr als deutlich und bemerke zudem Mikroruckler (ja, wenn man ganz genau drauf achtet...). Außerdem hängt mit aktivierten Triple-Buffer spürbar der Mauszeiger hinterher. Deswegen spiele ich mit VSync on und Triple-Buffer off @75Hz mit 75FPS. Habe kein Tearing, keinen nachziehenden Mauszeiger und auch keine Geschwindigkeitsprobleme. Sollte die Leistung mal nicht reichen, drehe ich zuerst die Kantenglättung runter, danach die Details und erst ganz zum Schluß den AF.

Wie man sieht, ich bin auf höchstmöglich erreichbare BQ aus.

Gast
2007-05-16, 09:20:10
Ich bin jetzt nicht so der Checker.

Aber ich meine mal gelesen zu haben, dass ATI-Karten deutlich mehr CPU-Last erzeugen. Könnte es sein das der unoptimierte Treiber mit der generell
höheren CPU-Last eine CPU-Limitierung auslöst?

Lawmachine79
2007-05-16, 09:35:10
Triple-Buffering löst das Problem des Tearings nicht. Ich seh es dann immer noch mehr als deutlich und bemerke zudem Mikroruckler (ja, wenn man ganz genau drauf achtet...). Außerdem hängt mit aktivierten Triple-Buffer spürbar der Mauszeiger hinterher. Deswegen spiele ich mit VSync on und Triple-Buffer off @75Hz mit 75FPS. Habe kein Tearing, keinen nachziehenden Mauszeiger und auch keine Geschwindigkeitsprobleme. Sollte die Leistung mal nicht reichen, drehe ich zuerst die Kantenglättung runter, danach die Details und erst ganz zum Schluß den AF.

Wie man sieht, ich bin auf höchstmöglich erreichbare BQ aus.
Hmm - entweder hast Du irgendwas anderes "vergriesgraddelt" oder Du hast empfindlichere Augen - keine Ahnung. Ohne VSync fällt mir Tearing auch auf (auch wenn es mich nicht besonders stört, ich will es perfekt haben) --> Ich mache VSync an ---> Framerate droppt (manchmal) zu stark ---> TB ---> Dann habe ich nichts mehr auszusetzen. Kantenglättung mache ich maximal bis 4x runter, wenns dann immer noch nicht flüssig läuft (wobei es im Moment kein Spiel gibt, wo das mit einer 88GTS@16x10 der Fall ist) experimentiere ich eher mit Licht & Schattendetails, bevor ich das AA anrühre. Was dann nicht flüssig läuft, kriegt man (zumindest beim G80) auch mit deaktiveren von AF nicht mehr weg, weil der G80 AF ja beinahe gratis bekommt.

Piffan
2007-05-16, 10:00:32
Im Netz gibts mehr als genug Reviews, da sollte jeder selbst sehen, dass die Angelegenheit momentan noch stark im Wandel ist, wenn nicht dauerhaft was im Argen liegt. Der Powergamer, der jetzt trotzdem das Flaggschiff kauft so nach dem Motto, wenn sie nicht rennt, gebe ich sie wieder zurück, der ist a) dumm und b) ein Schmarotzer weil er Händler und Kunden bescheißt...

Gast
2007-05-16, 10:11:36
Ich werde diese fast religiöse Anbetung kapitalistischer Aktiengesellschaften wohl nie nachvollziehen können...

Was bitteschön tust Du dann die ganze Zeit (einfach vom anderen Ende)?

Gouvernator
2007-05-16, 10:30:50
Im Netz gibts mehr als genug Reviews, da sollte jeder selbst sehen, dass die Angelegenheit momentan noch stark im Wandel ist, wenn nicht dauerhaft was im Argen liegt. Der Powergamer, der jetzt trotzdem das Flaggschiff kauft so nach dem Motto, wenn sie nicht rennt, gebe ich sie wieder zurück, der ist a) dumm und b) ein Schmarotzer weil er Händler und Kunden bescheißt...

Wenn du mich meinst ich habe am Anfang massivste Probleme mit ihr gehabt. :smile:

So von der Performance könnte das gehen. Habe eben FEAR gespielt ohne AA und soft Shadows ist die Karte eindeutig viel schneller als X1900XTX. Man kann einfach 2048x1536 einstellen und spielen. Noch höhere Aufösungen gehen auch ich konnte bis einschlißlich 2560x1920 problemlos zocken.

James Ryan
2007-05-16, 10:42:15
Wenn du mich meinst ich habe am Anfang massivste Probleme mit ihr gehabt. :smile:

So von der Performance könnte das gehen. Habe eben FEAR gespielt ohne AA und soft Shadows ist die Karte eindeutig viel schneller als X1900XTX. Man kann einfach 2048x1536 einstellen und spielen. Noch höhere Aufösungen gehen auch ich konnte bis einschlißlich 2560x1920 problemlos zocken.

Und wie siehts mit FSAA aus? :redface:

MfG :cool:

Gouvernator
2007-05-16, 10:52:42
Und wie siehts mit FSAA aus? :redface:

MfG :cool:

Schlecht. 1600x1200 plus inGAme 4xAA gerade noch so. Also fast immer 30fps. Bei 2048x1536 ohne AA 50-60 fps.

Dunkeltier
2007-05-16, 10:56:09
Wenn du mich meinst ich habe am Anfang massivste Probleme mit ihr gehabt. :smile:

So von der Performance könnte das gehen. Habe eben FEAR gespielt ohne AA und soft Shadows ist die Karte eindeutig viel schneller als X1900XTX. Man kann einfach 2048x1536 einstellen und spielen. Noch höhere Aufösungen gehen auch ich konnte bis einschlißlich 2560x1920 problemlos zocken.


Und wie siehts mit FSAA aus? :redface:

MfG :cool:


Sorry, ich kaufe mir keine High-End Karte für richtig viel Asche, nur um dann mit "reduzierter" Bildqualität zu spielen. Das ist für mich genauso sinnfrei, wie irgendwelche Benchmarks in realitätsfremden 640x480 oder ohne AA/AF.

James Ryan
2007-05-16, 10:59:54
Schlecht. 1600x1200 plus inGAme 4xAA gerade noch so. Also fast immer 30fps. Bei 2048x1536 ohne AA 50-60 fps.

Danke für die Auskunft!
FEAR ist ja nun auch nicht mehr neu, da erwarte ich eigentlich von einer High-End Karte aus dem Jahre 2007 mit FSAA und AF gute Perfomance!
Aber wie du schon gesagt hast, die HD 2900 XT ist mit FSAA keine Next-Gen-High-End Karte mehr, sondern eher auf dem Niveau einer X1900 XT. :frown:

MfG :cool:

DrumDub
2007-05-16, 11:29:41
Die OT-Diskussion zu FAG/Rückggaberecht wurde von mir rausgesplittet: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=362705

Gandharva
2007-05-16, 11:49:38
Danke DrumDub!

@Topic

Gouvernator, ein paar Tests mit 1280x1024 4xAA/16AF wären nett =)

Gouvernator
2007-05-16, 11:51:01
Das kannst du eher vergessen da limitiert womöglich die CPU.

James Ryan
2007-05-16, 11:54:18
Gouvernator, hast du CS:S? Wenn ja, poste mal bitte Screens von den Bildfehlern ala Nebelbug!
Danke sehr!

MfG :cool:

Gouvernator
2007-05-16, 12:13:54
http://img176.imageshack.us/img176/1570/hl22kh8.th.jpg (http://img176.imageshack.us/my.php?image=hl22kh8.jpg)

http://img176.imageshack.us/img176/8866/hl220iv4.th.jpg (http://img176.imageshack.us/my.php?image=hl220iv4.jpg)

captainsangria
2007-05-16, 12:20:19
[/URL]http://img176.imageshack.us/img176/1570/hl22kh8.th.jpg (http://img176.imageshack.us/my.php?image=hl22kh8.jpg)

[URL]http://img176.imageshack.us/img176/8866/hl220iv4.th.jpgwahrscheinlich reproduzierbar, oder? :ugly2:

Gouvernator
2007-05-16, 12:24:33
Ichhabe extra ein screenshot mit und und anderer ohne AA gemacht um zu sehen das es nicht am AA liegt. Der grosse ist mit 8xAA.

Gast
2007-05-16, 12:36:27
Das ist der Fog-Bug, den auch die 8800 Karten am Anfang hatten. Erstaunlich nur, dass es bei AMD ebenfalls auftritt - eigentlich hätten die wissen müssen, woran es liegt, da nVidia das Problem ja gelöst hat...

James Ryan
2007-05-16, 12:50:19
Danke Gouvernator! :up:
Jetzt bin ich wirklich mehr als sprachlos... der R600 scheint der größte Bughaufen überhaupt zu sein, selbst die Radeon 8500 war nicht so dermaßen unbrauchbar!

MfG :cool:

PP
2007-05-16, 13:15:10
Also: in der durch diese Karten adressierten Zielgruppe stellt die 88GTS die bessere Wahl dar weil:
- Sie bei guter BQ schneller ist und nur bei schlechter BQ langsamer
- Sie günstiger ist
- Sie das bessere Featureset bietet (Supersampling & Hybridmodi)
- Sie insgesamt die bessere BQ bietet (nur beim MSAA kann man darüber streiten --> mir wurscht, ich habe ja Hybridmodi :D)
- Sie leiser ist
- Sie sparsamer ist
:up: So sieht es aus, die 2900XT ist, so wie Sie jetzt ist, nicht zu empfehlen.

Gast
2007-05-16, 13:18:24
Ichhabe extra ein screenshot mit und und anderer ohne AA gemacht um zu sehen das es nicht am AA liegt. Der grosse ist mit 8xAA.
Hi, sach mal, kannst Du mir mal please das Bios der Karte geben geben?
http://www.techpowerup.com/downloads/437/Winflash_1.14.html

Tectrex
2007-05-16, 13:19:00
Hi, sach mal, kannst Du mir mal please das Bios der Karte geben geben?
http://www.techpowerup.com/downloads/437/Winflash_1.14.html
Vergessen einzuloggen^^:redface:

DrumDub
2007-05-16, 13:44:25
Jetzt bin ich wirklich mehr als sprachlos... der R600 scheint der größte Bughaufen überhaupt zu sein, selbst die Radeon 8500 war nicht so dermaßen unbrauchbar!
ich glaub du meinst den treiber, denn dieser fehler liegt ganz sicher nicht an der hardware... ;)

Gast
2007-05-16, 13:51:17
Danke Gouvernator! :up:
Jetzt bin ich wirklich mehr als sprachlos... der R600 scheint der größte Bughaufen überhaupt zu sein, selbst die Radeon 8500 war nicht so dermaßen unbrauchbar!

MfG :cool:


rofl, wie die Zeit die Erinnerungen verklärt. Der 8500 konnte anfangs sogar garkein AA ;D

DrumDub
2007-05-16, 13:56:49
rofl, wie die Zeit die Erinnerungen verklärt. Der 8500 konnte anfangs sogar garkein AA ;D ja, und ordentlich gecheatet auf kosten der bildqualität wurde auch: http://www.golem.de/0110/16567.html

Gast
2007-05-16, 14:12:40
Triple-Buffering löst das Problem des Tearings nicht. Ich seh es dann immer noch mehr als deutlich und bemerke zudem Mikroruckler (ja, wenn man ganz genau drauf achtet...). Außerdem hängt mit aktivierten Triple-Buffer spürbar der Mauszeiger hinterher. Deswegen spiele ich mit VSync on und Triple-Buffer off @75Hz mit 75FPS. Habe kein Tearing, keinen nachziehenden Mauszeiger und auch keine Geschwindigkeitsprobleme. Sollte die Leistung mal nicht reichen, drehe ich zuerst die Kantenglättung runter, danach die Details und erst ganz zum Schluß den AF.

Wie man sieht, ich bin auf höchstmöglich erreichbare BQ aus.
Jo stimmt, und ich (TFT-User 60Hz u. 75Hz) kann sogar 60 HZ@60FPS zocken, aber bei Oblivion geht meiner X1950 die Puste aus, so dass ich meistens 75Hz@37FPS spiele, was ich aber immer noch flüssig empfinde.
Trotzdem habe ich natürlich slowdowns, :-(

Gouvernator
2007-05-16, 14:39:51
Hier hab ich schon mal Unterlegscheibe gebaut :D

ATI hat es diesmal schwerer gemacht. Der Chip liegt niedriger als die Umrandung und dann auch nochmal um 45° gedreht was dann zu kleinerer Auflagefläche resultiert der Chip passt quasi nicht zum Kühler.

http://666kb.com/i/aoe2ytcw32r65qfh4.jpg

Nazar
2007-05-16, 14:41:38
ja, und ordentlich gecheatet auf kosten der bildqualität wurde auch: http://www.golem.de/0110/16567.html

Für einen MOD ein ganz schwaches Bild.
Du sollst deine Meinung haben und sie auch vertreten aber das ist tiefste Gosse und reiner Flame.
So etwas passt nicht zu einem Mod.

Das Niveau nimmt in diesem Forum immer mehr ab.. schade.

Gast
2007-05-16, 14:46:25
Für einen MOD ein ganz schwaches Bild.
Du sollst deine Meinung haben und sie auch vertreten aber das ist tiefste Gosse und reiner Flame.
So etwas passt nicht zu einem Mod.

Das Niveau nimmt in diesem Forum immer mehr ab.. schade.

Link nicht gelesen? Eher ein Indiz gegen eine mögliche Bevorzugung einer bestimmten Farbe...

DrumDub
2007-05-16, 15:03:13
Link nicht gelesen? Eher ein Indiz gegen eine mögliche Bevorzugung einer bestimmten Farbe... ich geb mir zumindest mühe... ;) auch wenn ich eher pro-ati bin, denn eine nv-karte hat ich noch nie in einem meiner rechner.

@nazar
die nennung von fakten ist also ein flame? :| ati hat bei q3 damals gecheatet und es ist dank 3dcenter aufgeflogen...

das msaa ist bei der 8500 kaputt, wenn auch nicht völlig: Nach einigem Mailkontakt mit ATi ist der Grund für das FSAA-Problem bekannt. Es ist nicht wie vermutet ein Treiberbug, sondern eine Hardwarelimitierung, welche in zukünftigen GPU's behoben werden soll. Sobald ein Programm Fog verwendet (egal ob Vertex oder Table Fog) schaltet FSAA auf ein festes Muster um - OGSS - somit ist es bei 2xFSAA nicht möglich, vertikale Kanten zu glätten. Dies kann mit Max Payne wunderbar getestet werden, aber auch mit jedem der DX8.1 SDK Programme..

Unter OpenGL funktioniert es, jedoch immer (egal ob 2x oder 4x) mit geringer vertikaler Glättung bei nahen Kanten. Jedoch ist hier der vertikale Glättungsgrad von der Entfernung des Polygons zum Betrachter abhängig. Ist die vertikale Polygonkante weit weg, wird sie geglättet. Dies kann man mit MOHAA, Deus Ex oder Serious Sam 2 (OpenGL-Mode) ausprobieren. http://www.tommti-systems.de/go.html?http://www.tommti-systems.com/main-Dateien/reviews/radeon8500fsaa/radeon8500fsaa.html

Gast
2007-05-16, 15:12:14
ich geb mir zumindest mühe... ;) [/url]

Ich weiss das, nicht ohne Grund halte ich von dir nach wie vor sehr viel, aber genug des OTs von mir...

Exxtreme
2007-05-16, 17:15:17
Das ist der Fog-Bug, den auch die 8800 Karten am Anfang hatten. Erstaunlich nur, dass es bei AMD ebenfalls auftritt - eigentlich hätten die wissen müssen, woran es liegt, da nVidia das Problem ja gelöst hat...
Kann sein, daß der Bug im Spiel ist und Nvidia ihn per Treiber egalisiert.

DrumDub
2007-05-16, 17:23:48
Kann sein, daß der Bug im Spiel ist und Nvidia ihn per Treiber egalisiert. ja, das hat coda schon bestätigt, da der fehler auch mit dem refrast auftritt.

Gast
2007-05-16, 18:02:16
ja, das hat coda schon bestätigt, da der fehler auch mit dem refrast auftritt.


Warum dann ja?

Coda
2007-05-16, 18:04:38
Das ist eher ein Problem was Valve lösen müsste und nicht darauf warten sollte dass es die IHVs über eine App-Detection selber im Treiber machen müssen.

ATI hatte wohl schon genug mit dem Treiber zu tun als um sich um solchen Unfug zu kümmern.

A.Wesker
2007-05-16, 18:05:28
hätte mal jemand den 42er Treiber für mich?

Gouvernator
2007-05-16, 18:24:07
Jetzt mit Waserkühlung drauf und gut übertaktet ... JETZT ist sie eine HighEnd Karte :D

Fear läuft unter 1600x1200+2xAA ohne SS superflüssig!

PS.

Temps
idle 50°C
load 76°C

Also die Wakü ist nur für sie! Mit TrippleRadi und zwei 120mm Lüftern.

Coda
2007-05-16, 18:27:17
Wie war das nochmal mit "auf jeden Fall" 1Ghz GPU Gouvernator? ;)

Gast
2007-05-16, 18:28:01
Gouvernator, kannst du etwas zum 3d bzw idle Verbrauch mit dem höheren Takt sagen?
Wie sind denn die Temperaturen mit der Wasserkühlung und sind die anderen Komponenten in deinem System da auch dran angeschlossen oder Graka only?

dildo4u
2007-05-16, 18:29:28
Jetzt mit Waserkühlung drauf und gut übertaktet ... JETZT ist sie eine HighEnd Karte :D

Fear läuft unter 1600x1200+2xAA ohne SS superflüssig!

Wow ein Spiel von 2005 läuft mit 2XAA und ohne alle Details flüssig ja das echtes High-End.

reunion
2007-05-16, 18:30:44
FEAR läuft auch kacke auf R600-Karten. Schlechtes Beispiel.

sulak
2007-05-16, 18:33:05
Ich würd Gouvernator ja gerne hierhin verweisen : http://www.forum-3dcenter.org/vbulletin/showthread.php?t=362672

Aber der Treiber scheint immer noch Buggy bei Lost Planet zu sein, kannst aber die Demo trotzdem dir runterladen und bei jedem Treiberrelease mal reinschaun obs Bugfrei ist ;)

dildo4u
2007-05-16, 18:34:32
Soll ich lachen muss man sich jetzt die Spiele raussuchen die gut laufen welche wären das denn mit 4XAA?Ist doch klar das ich mit einer "High-End" Karte auch Spiele spielen will die technisch mal zumindest das DX9 SM2.0/3.0 Shadermodell ausnutzen.

reunion
2007-05-16, 18:36:38
Soll ich lachen muss man sich jetzt die Spiele raussuchen die gut laufen welche wären das denn mit 4XAA?Ist doch klar das ich mit einer "High-End" Karte auch Spiele spielen will die technisch mal zumindest das DX9 SM2.0/3.0 Shadermodell ausnutzen.

Was willst du von mir? Ich würde mir die Karte auch nicht kaufen.

Gouvernator
2007-05-16, 18:46:22
Das mit FEAR schlecht laufen würde ich nicht sagen :cool:

Es läuft smooth. Wenn ich durchgehend auf ~60fps verzichten kann dann kann ich auch 2048x1536 +4xAA anstellen. Bei 2560x1920+2xAA läuft es auch einigermassen.


Ämh, Lost Planet interessiert mich gar net, weil ich es schon durchgespielt hab.

Odal
2007-05-16, 18:46:35
Wie war das nochmal mit "auf jeden Fall" 1Ghz GPU Gouvernator? ;)


http://www.nordichardware.com/Reviews/?page=10&skrivelse=510

:cool:

Superheld
2007-05-16, 18:49:36
Jetzt mit Waserkühlung drauf und gut übertaktet ... JETZT ist sie eine HighEnd Karte :D

Fear läuft unter 1600x1200+2xAA ohne SS superflüssig!

PS.

Temps
idle 50°C
load 76°C

Also die Wakü ist nur für sie! Mit TrippleRadi und zwei 120mm Lüftern.

schöne Stromrechnung würst du haben;(

A.Wesker
2007-05-16, 18:52:32
Jetzt mit Waserkühlung drauf und gut übertaktet ... JETZT ist sie eine HighEnd Karte :D

Fear läuft unter 1600x1200+2xAA ohne SS superflüssig!

PS.

Temps
idle 50°C
load 76°C

Also die Wakü ist nur für sie! Mit TrippleRadi und zwei 120mm Lüftern.

wie hast du den Kühler abgemacht? komme an die "Erdungsschraube" gar net ran ;/

Gouvernator
2007-05-16, 18:54:34
wie hast du den Kühler abgemacht? komme an die "Erdungsschraube" gar net ran ;/

Wie meinst du denn das ? Ich habe einfach alle Schrauben unten und dann zwei am vorderen Blech bei den VGA Anschlüssen abgeschraubt :confused:


Man kann villeicht noch einbisschen mit Vcore Erhöhung rausholen. Die Tools sind ja nicht für uns Normalstrebliche da.

Gast
2007-05-16, 18:55:07
schöne Stromrechnung würst du haben;(

"wirst" kommt von werden, nicht von Wurst oder Würstchen. Bist du seine Mutter oder warum zerbrichst du dir seinen Kopf über seine Stromrechnung? Vielleicht hat ja sein Niedrigernergiehaus eine Wärmepumpenanlage und Solarkollektoren und sein Smart verbraucht auch nur ein Drittel deines PKWs?

A.Wesker
2007-05-16, 19:29:04
Wie meinst du denn das ? Ich habe einfach alle Schrauben unten und dann zwei am vorderen Blech bei den VGA Anschlüssen abgeschraubt :confused:


Man kann villeicht noch einbisschen mit Vcore Erhöhung rausholen. Die Tools sind ja nicht für uns Normalstrebliche da.

ah hat sich geklärt. Womit liest du die temps aus? das Overdrive Menü gibts bei mir net ;(

Gouvernator
2007-05-16, 19:35:06
Das geht mit AMDGPUClock Tool.

A.Wesker
2007-05-16, 20:28:46
Das geht mit AMDGPUClock Tool.

welcher Sensor ist der der GPU?

Gouvernator
2007-05-16, 20:31:28
Ich würd sagen der heißeste ^^

horn 12
2007-05-16, 20:56:16
Reizt dann ein A64 3800+ (also unsere alte liebe CPU) die HD 2900 XT besser aus als eine X1950 XT/X oder gar 8800 GTS/X.
Möchte gerne Benchmarks sehen (wenn es die Treiber mal zulassen würden mit 8xAA / 16AF und dann mit einem Dual Core 4800+ oder einem C2D 6600 vergleichen.

up¦²
2007-05-16, 20:59:15
Na also: sieht doch schon besser aus :smile:
R600: ATI Radeon HD 2900 XT
Review bei
http://www.bit-tech.net/hardware/2007/05/16/r600_ati_radeon_hd_2900_xt/14

Gmax
2007-05-16, 21:03:09
Na also: sieht doch schon besser aus :smile:
R600: ATI Radeon HD 2900 XT
Review bei
http://www.bit-tech.net/hardware/2007/05/16/r600_ati_radeon_hd_2900_xt/14

Neuer Treiber?

dildo4u
2007-05-16, 21:05:02
Neuer Treiber?
Ich glaub nicht bei Call of Duty 2 immer noch hinter der 1950XTX.

http://www.bit-tech.net/hardware/2007/05/16/r600_ati_radeon_hd_2900_xt/18

mapel110
2007-05-16, 21:05:14
Na also: sieht doch schon besser aus :smile:
R600: ATI Radeon HD 2900 XT
Review bei
http://www.bit-tech.net/hardware/2007/05/16/r600_ati_radeon_hd_2900_xt/14
Und was soll an den Zahlen besser sein?!
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/17/#abschnitt_company_of_heroes
sieht hier genauso aus. :|

Superheld
2007-05-16, 21:07:29
Na also: sieht doch schon besser aus :smile:
R600: ATI Radeon HD 2900 XT
Review bei
http://www.bit-tech.net/hardware/2007/05/16/r600_ati_radeon_hd_2900_xt/14

sieht so aus wie vorher:confused:

Gast
2007-05-16, 21:39:42
Na also: sieht doch schon besser aus :smile:
R600: ATI Radeon HD 2900 XT
Review bei
http://www.bit-tech.net/hardware/2007/05/16/r600_ati_radeon_hd_2900_xt/14

Was sieht dort besser aus? Die Minimumframes sind niedriger als bei der 8800GTS - ist das besser?!

A.Wesker
2007-05-16, 21:41:54
Ich würd sagen der heißeste ^^
der heiße ist bei mir nach 1.5h zocken @ 870 MHz Coretakt 57 °C, der andere 44 °C.

4711
2007-05-16, 21:49:49
Bei 2560x1920+2xAA läuft es auch einigermassen......<>ich würde das gerne mal mit einer GTS sehen......vieleicht macht mal einer den Versuch?
Oder eine GTX..ich hab FEAR leider nicht mehr..

Gast
2007-05-16, 21:56:56
mehr benches please.
CS:Source Bench
Oblivion
usw

Gouvernator
2007-05-16, 21:59:18
der heiße ist bei mir nach 1.5h zocken @ 870 MHz Coretakt 57 °C, der andere 44 °C.

Was hast du für Wasserkühlung? Ich nehme an es ist so ein Chiller :smile:

A.Wesker
2007-05-16, 22:10:39
Was hast du für Wasserkühlung? Ich nehme an es ist so ein Chiller :smile:

BlackICE Triple Radiator, Aquatuning 400 Station und ein Swiftech MCW60 ohne chiller.

Gast
2007-05-16, 22:33:32
Aber mit Blick auf die Konkurrenz, der G80 hatte bisher nie Performanceprobleme mit AA und CSAA.Erzähl das mal warmachine79, CSAA ist manchmal sogar langsamer als die in der Bildqualität erheblich überlegenen Hybriden.

Gast
2007-05-16, 22:37:36
Erzähl das mal warmachine79, CSAA ist manchmal sogar langsamer als die in der Bildqualität erheblich überlegenen Hybriden.

16xQ ist langsamer, weil die ROPs Achterbahn fahren. Daran erkennt man sehr schön, dass höhrere reine MSAA als 8x kaum eine zukünftige Relevanz darstellen, da die Leistung nur erbärmlich zum optischen Gewinn ist. Das ist aber kein AA Problem, mit höhrerer Bandbreite (so 300GB/s) wäre der Modus dann auch schnell genug.
Das der 16xS Modus genauso schnell ist, liegt an der hohen Texturleistung, die nicht zum limitierenden Faktor wird.

Gmax
2007-05-16, 22:44:40
Wie war das nochmal mit "auf jeden Fall" 1Ghz GPU Gouvernator? ;)

Och, mit der richtigen Kühlung, kein Problem^^

At 1211MHz which is the highest frequency we have proof of, the Radeon HD 2900XT performs an unbelievable 777GFlops (470GFlops at standard frequencies)

http://www.nordichardware.com/news,6331.html

reunion
2007-05-16, 22:48:53
Besonders wenn man zugriff zu diesem AMD-Tool hat, mit den man die Spannung verändern kann.

Gouvernator
2007-05-16, 22:56:33
der heiße ist bei mir nach 1.5h zocken @ 870 MHz Coretakt 57 °C, der andere 44 °C.

Und ich hab im Idle
Asic = 49°
LM64 = 55°

Beim zocken geht das bis 76° und 64°

Sterem
2007-05-16, 23:06:18
Gouvernator:Was hälst du nach anfangsschwierigkeiten jetzt von der Karte?Wirst du die Karte jetzt doch behalten?Läuft jetzt doch alles zufriedenstellend?

danke.

Gast
2007-05-16, 23:25:13
16xQ ist langsamer, weil die ROPs Achterbahn fahren.Ich glaube eher, da laufen chipinterne Speicher voll und die ROPs langweilen sich, bis da mal wieder Platz drin ist.
Daran erkennt man sehr schön, dass höhrere reine MSAA als 8x kaum eine zukünftige Relevanz darstellen, da die Leistung nur erbärmlich zum optischen Gewinn ist. Das ist aber kein AA Problem, mit höhrerer Bandbreite (so 300GB/s) wäre der Modus dann auch schnell genug. 300GB/s? :ulol: Sorry, aber nur für CSAA die Speicherbandbreite mal eben zu verdreifachen halte ich so ziemlich für die beknackteste Idee, die mir in den letzten Jahren untergekommen ist.
Das der 16xS Modus genauso schnell ist, liegt an der hohen Texturleistung, die nicht zum limitierenden Faktor wird.Auch. Aber da muss noch was anderes gewaltig schieflaufen mit CSAA.

@Gouvernator:
Da du R600 und ne GX2 hast wäre es sehr nett, falls du mal ein paar Vergleichsscreenshots zwischen den unterschiedlichen CFAA-Modi und Quincunx/4x9tap in diesen (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=362358) Thread posten könntest. Würde mich sehr interessieren, wie ähnlich oder unterschiedlich die Resultate ausfallen.

A.Wesker
2007-05-16, 23:42:10
Und ich hab im Idle
Asic = 49°
LM64 = 55°

Beim zocken geht das bis 76° und 64°

hm sitzt der Kühler 100%tig? meiner sitzt direkt auf dem Core, vorher saß er net richtig und da hatte ich +85°C im idle.

Sk_Antilles
2007-05-16, 23:58:47
Ich glaube eher, da laufen chipinterne Speicher voll und die ROPs langweilen sich, bis da mal wieder Platz drin ist.
300GB/s? :ulol: Sorry, aber nur für CSAA die Speicherbandbreite mal eben zu verdreifachen halte ich so ziemlich für die beknackteste Idee, die mir in den letzten Jahren untergekommen ist.

oooch. Da bräuchte man doch nur 2350 (reale) Mhz mit einem 512bit SI. :ulol:

up¦²
2007-05-17, 00:00:01
Ist schon was bekannt über die BIOS-Versionen der R600?
Wie kann man das am einfachsten auslesen, welche Tools geben bei der Karte beste Info?

Gouvernator
2007-05-17, 00:08:40
hm sitzt der Kühler 100%tig? meiner sitzt direkt auf dem Core, vorher saß er net richtig und da hatte ich +85°C im idle.

Das sitzt natürlich nicht richtig...

Ich musste doch erst den heatspreader zurechtpfeilen und dazwischen legen ;D

Aber das ist doch so ein Peltier Wasserkühler was du hast. Kein Wunder das der besser kühlt!



Also Leute die Vergleichshots mit GX2 könnt ihr vergessen. Ich habe schon Wasserkühlung drin. Aber eins kann ich sagen. Ich habe die Karte schon eingepackt gehabt um dann mal schnell noch mit der GX2 ne Runde GTA SA zu zocken, also es ist SCHRECKLICH wie da aussieht, grisseln überalll ;D
Man kann es nicht vergleichen. =)


Ich habe jetzt neue Windows SP1 Installation

Nature2003
860mhz/1000mhz

1600x1200 4xAA,16xAF = 84fps; 8xAA = 65fps
2048x1536 8xAA,16xAF = 47 fps

sun-man
2007-05-17, 00:33:43
Also Leute die Vergleichshots mit GX2 könnt ihr vergessen. Ich habe schon Wasserkühlung drin. Aber eins kann ich sagen. Ich habe die Karte schon eingepackt gehabt um dann mal schnell noch mit der GX2 ne Runde GTA SA zu zocken, also es ist SCHRECKLICH wie da aussieht, grisseln überalll
Man kann es nicht vergleichen.

ich habs mir jetzt 4mal durchgelesen und raff nicht was Du uns sagen willst :redface: :biggrin: wer grisselt?

A.Wesker
2007-05-17, 00:34:16
Das sitzt natürlich nicht richtig...

Ich musste doch erst den heatspreader zurechtpfeilen und dazwischen legen ;D

Aber das ist doch so ein Peltier Wasserkühler was du hast. Kein Wunder das der besser kühlt!



ist der normale mcw60 ohne Peltier, hat ohne zusätzlichen heatspreader gepasst, daher evtl der Temperaturunterschied.

Raff
2007-05-17, 00:36:00
ich habs mir jetzt 4mal durchgelesen und raff nicht was Du uns sagen willst :redface: :biggrin: wer grisselt?

G7x "grisselt" (was sagt der Duden dazu?), die Radeons nicht. Das haben wir im Forum mehrfach breitgetreten. ;)

MfG,
Raff

up¦²
2007-05-17, 00:46:45
Ziemlich unübersichtlich was wann wo eventuell schon irgendwo hier bekannt ist, aber:
lieber zweimal als keinmal: 1GB version GDDR4 aber nicht die XTX sondern XT (CCC) :smile:
http://img206.imageshack.us/img206/2462/2900xtx102406az4.png
http://www.fx57.net/?p=660
Ist BIOS-Info bei euch anders?

mapel110
2007-05-17, 01:04:22
G7x "grisselt" (was sagt der Duden dazu?), die Radeons nicht. Das haben wir im Forum mehrfach breitgetreten. ;)

MfG,
Raff
Dann solltet ihr endlich mal den entsprechenden Artikel updaten, dass er das immernoch tut. Laut dem letzten Nachtrag ist das nämlich nicht mehr der Fall.

sun-man
2007-05-17, 01:39:36
G7x "grisselt" (was sagt der Duden dazu?), die Radeons nicht. Das haben wir im Forum mehrfach breitgetreten. ;)

MfG,
Raff

Schon klar. Nur lies doch bitte nochmal das Posting oben....irgendwas eingepackt mit WaKü drinne (wo??) und dann doch noch mit irgendwas gezockt. Für MICH ist/war nicht ganz klar wer wo Grießbrei macht ;)

BTT nun aber ;)

Coda
2007-05-17, 02:14:04
http://www.nordichardware.com/Reviews/?page=10&skrivelse=510

:cool:
Ich glaube er meinte das damals mit Luftkühlung.

Gast
2007-05-17, 08:36:05
2048x1536 8xAA,16xAF = 47 fps>ich frag nochmal getraut sich keiner das mit ner GTS mal nachzuvollziehen...oder haben wir Angst ein "GTS Heul Tread" dann aufzumachen?

Daredevil
2007-05-17, 08:51:46
1600x1200 4xAA,16xAF = 84fps
2048x1536 8xAA,16xAF = 47 fps
x800gto @ 580/580

1600x1200 4xAA,16xAF = 36.8fps
2048x1536 6xAA,16xAF = 5.3 fps

Die Werte sind schon niedrig in 1600x1200 :( ( Beim andern limitiert mein VRam... ;D )

HolyMoses
2007-05-17, 08:56:58
warum ist Gouvernator aufeinmal gesperrt?
:|

Gast
2007-05-17, 09:23:03
Hat ein Ebay Link im Marktplatz gepostet.

4711
2007-05-17, 09:34:30
x800gto @ 580/580

1600x1200 4xAA,16xAF = 36.8fps
2048x1536 6xAA,16xAF = 5.3 fps

Die Werte sind schon niedrig in 1600x1200 :( ( Beim andern limitiert mein VRam... ;D )


Dann weiß ich schon wie das mit einer GTS aus sieht....kein Wunder das sich keiner traut :D

Gast
2007-05-17, 10:58:20
Hab 3DMark03 Nature mal bei mir laufen lassen.
Allerdings in 1680x1050 4x AA 16x AF VSync

X1900XT ( 265MB ), Core2Duo@ 3,2Ghz, 2GB

Ergebnis: 66,8Fps

Vieleicht hilfts ja weiter ... die angegebenen Auflösungen kann ich leider nicht testen.

Hannes

dr_mordio
2007-05-17, 14:13:16
ich habs mir jetzt 4mal durchgelesen und raff nicht was Du uns sagen willst :redface: :biggrin: wer grisselt?

*g* wer den tread aufmerksam verfolgt hat, der sollte verstehen was gemeint war:smile:

los gehts:
Also Leute die Vergleichshots mit GX2 könnt ihr vergessen. Ich habe schon Wasserkühlung drin.
die wakü ist auf der 2900xt, daher wird sie nicht mehr ausgebaut.

Aber eins kann ich sagen. Ich habe die Karte schon eingepackt gehabt um dann mal schnell noch mit der GX2 ne Runde GTA SA zu zocken, also es ist SCHRECKLICH wie da aussieht, grisseln überalll
Man kann es nicht vergleichen.
er hatte die 2900XT damals (vor der wakü) wieder ausgebeut und wollte sie zurückbringen. zum frust killen, hat er die alte GX2 wieder eingebaut und wollte damit zocken. allerdings sah es mit der GX2 viel schlimmer aus und grieselte auch noch, so das er sich entschieden hat die 2900xt doch zu behalten.

das bestätigt was forscher lange wissen: an etwas besseres gewöhnt man sich schnell (fahr golf 3 und wechsel auf einen 600ter daimler. du merkst es ist besser, aber auch nur ein bischen)
wen man es dann nicht mehr hatt und wieder auf das schlechtere wechselt, dann merkt man es extrem (nach ner woche nimmt man die den 600erter wieder weg und der golf3 wartet - es ist horror) :biggrin:

MfG
Alex

PS:
mußtet ihr gouvernator gerad jetzt bannen?
hätte man das nicht in frieden regeln können?
von ihm kamen wenigstens viele infos

no6ody
2007-05-17, 14:36:15
war doch damals, als tombman hier den ersten conroe hatte genauso... ;(

Gast
2007-05-17, 15:54:29
Wieso wurde Gouvernator gesperrt?

Dunkeltier
2007-05-17, 16:14:38
Wieso wurde Gouvernator gesperrt?

warum ist Gouvernator aufeinmal gesperrt?
:|

Hat ein Ebay Link im Marktplatz gepostet.

...

Matrix316
2007-05-17, 16:34:14
Wegen Ebay Link sperren...Sache gibts.

Aber egal: Interessant finde ich, dass Crossfire quasi 100% schneller läuft, während bei der alten X1950XTX das nicht der Fall ist (und auch nicht bei der 8800GTS) http://www.bit-tech.net/hardware/2007/05/16/r600_ati_radeon_hd_2900_xt/16

Sonyfreak
2007-05-17, 16:35:33
Nature2003
860mhz/1000mhz

1600x1200 4xAA,16xAF = 84fps; 8xAA = 65fps
2048x1536 8xAA,16xAF = 47 fps8800GTS 640MB @ 540/865Mhz

1680x1050 4xTSSAA, 16xAF = 86,7fps
1680x1050 4xTMSAA, 16xAF = 100,2fps
1680x1050 8xTSSAA, 16xAF = 61,7fps
1680x1050 8xTMSAA, 16xAF = 79.1fps

Höhere Auflösungen kann ich wegen dem TFT leider nicht testen.

mfg.

Sonyfreak

no6ody
2007-05-17, 18:11:10
Wegen Ebay Link sperren...Sache gibts.

Aber egal: Interessant finde ich, dass Crossfire quasi 100% schneller läuft, während bei der alten X1950XTX das nicht der Fall ist (und auch nicht bei der 8800GTS) http://www.bit-tech.net/hardware/2007/05/16/r600_ati_radeon_hd_2900_xt/16

offenbar aber nur, wenn AA aus ist :|

lubri
2007-05-17, 21:40:17
ist schon bekannt ob nen xtx bios sich auf die xt flashen lässt bzw unterscheiden die sich nur im takt voneinader?

=Floi=
2007-05-17, 21:45:48
ja das funktioniert einwandfrei und nebenbei schaltest du auch noch die restlichen 512mb vram frei und der GDDR3 ram läuft als GDDR4 ram


edit
es gibt natürlich noch keine XTX und diese wird definitiv nicht "kompatibel" sein

tombman
2007-05-18, 04:11:55
offenbar aber nur, wenn AA aus ist :|
er sollte mal lieber nachrechnen, 100%+ gibts da nirgends, auch ned annähernd.

Daredevil
2007-05-18, 13:56:06
So nun meine is jetzt auch da.
Allerdings betreibe ich die immoment nur mit einem Kabel statt zwei weil bei der GeCube selber keine dabei waren :(
Ich weiß jetzt nicht ob sich somit automatisch was deaktiviert und mir fehlen auch die ( funktionierenden ) Tools um das zu checken aber von den reinen Spiele/Benchmarks läuft sie sehr grottig, unter Gouvernators Nivaeu, da wird sich wohl was Automatisch kastrieren wenn nur ein Stromstecker dran is.
Bin ich froh das sie überhaupt läuft, näheres kann ich also jetzt noch nicht sagen, ausser das ich die GeCube meiden würde wenn man Kabel brauch :(

Mfg Daredevil

Gast
2007-05-18, 13:56:44
Hat dein Netzteil nur einen 6Pin Anschluss?

Daredevil
2007-05-18, 13:59:11
Nein mein Netzteil hat garkeinen 6Pin, halt per Adapter realisiert :(
Ist ein älteres BeQuiet 420er, in diesem Vertextest wo Tomb 500m hatte mit einer GTX und Gouvernator 700 mit seiner 2900xt bekomm ich 410, also auf den zweiten Adapter warten bis man ernsthaft testen will.
Aber eins kann ich sagen, schneller als meine alte x800gto ist sie ! :D

Gast
2007-05-18, 14:01:42
Ui, schonmal über eine Neuanschaffung nachgedacht? Ich denke, das es knapp werden könnte...

Daredevil
2007-05-18, 14:07:12
Naja wird man sehen obs lüppt, hatte nicht vor mir ein neues zu kaufen.
Bin da recht Optimistisch.

plainvanilla
2007-05-18, 14:08:25
meine is jetzt auch da, welche treiber sollte man benutzen, bzw wo kriegt man sie, danke

Gast
2007-05-18, 14:08:39
Bin da recht Optimistisch.

Na, die 2900XT zieht nochmal ein ganzes Stückchen mehr als die GTX - mein Enermax Liberty 400W war da überfordert...
Wünsch dir viel Glück!

A.Wesker
2007-05-18, 14:11:04
Na, die 2900XT zieht nochmal ein ganzes Stückchen mehr als die GTX - mein Enermax Liberty 400W war da überfordert...
Wünsch dir viel Glück!
kann ich mir schlecht vorstellen, mein Liberty 500W macht keine Probleme bei 4xSCSI U320, 2xWD200, QX6700 @ 4 GHz+ @ 1.56V, 2900XT @ 890/1000.