PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : HD 2900 XT - Wer hat schon eine abbekommen? Wie ist sie?


Seiten : 1 2 [3] 4

Daredevil
2007-05-18, 14:13:45
meine is jetzt auch da, welche treiber sollte man benutzen, bzw wo kriegt man sie, danke
Hab die Offiziellen genommen, machen in Spielen bisjetzt noch keine Probleme.
http://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&questionID=27535

@Gast
Laut ATI und ihrer PSU Liste war das unterste Modell was eine SingleCard versorgen konnte ein Liberty 400w und die gehen bestimmt auch noch ein wenig von Tolleranz aus, hmmm ja ich sag dann bescheid, weiß ja nich wielang der Ebay Typ braucht.
Wenn ich nur wüsste wieso die Karte mit einem Stromstecker so lahm is, also Takt isses nich, naja egal.

Gast
2007-05-18, 14:20:34
kann ich mir schlecht vorstellen, mein Liberty 500W macht keine Probleme bei 4xSCSI U320, 2xWD200, QX6700 @ 4 GHz+ @ 1.56V, 2900XT @ 890/1000.

Leider war es so. Das Netzteil war einfach überfordert, der PC ging bei hoher Belastung von CPU und GPU einfach aus. Neues Netzteil rein und keine Probleme mehr.

AnarchX
2007-05-18, 14:21:10
Wenn ich nur wüsste wieso die Karte mit einem Stromstecker so lahm is, also Takt isses nich, naja egal.

Es wurde doch mal berichtet, dass mit einem 6 Pin nur die 2D-Takraten gefahren werden.

plainvanilla
2007-05-18, 14:27:03
Hab die Offiziellen genommen, machen in Spielen bisjetzt noch keine Probleme.
http://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&questionID=27535

ok danke

Onlinejunky
2007-05-18, 14:31:38
Hallo,

ich habe auch vor mir in nächster Zeit einen neuen Rechner zu holen aber weiß noch nicht welche Karte. Wie sieht denn jetzt der Stand aus mit der R600? Hat sie immer noch diese FPS Drops mit AA und AF und tut das wirklich so zur Sache, dass sie bei diesen Vertex Shader Benches so abgeht?

Wovon hat man im Allgemeinen mehr Spielespaß?

2900 XT odet 8800 GTX??


Mfg

Daredevil
2007-05-18, 14:34:02
Es wurde doch mal berichtet, dass mit einem 6 Pin nur die 2D-Takraten gefahren werden.
Wurde es das?
Wieder mal was dazugelernt, Dankö.
Jo statt 750/830 sinds dann wohl 506/513 ( Laut AMD TOOL was die Taktraten nicht aufzeichnen kann -.- ), das sind ja fast 50% mehr, das erklärts dann :)
Das Teil zu übertakten lasse ich glaub auch mal lieber...

san.salvador
2007-05-18, 14:34:13
Also für den Spielspaß sind immer noch die Gamedesigner zuständig. ;)

Onlinejunky
2007-05-18, 14:47:12
Also für den Spielspaß sind immer noch die Gamedesigner zuständig. ;)

Ja da hast du Recht aber so war das nicht gemeint. Ich wollte nur wissen welche Karte das bessere Gesamtpacket hat? Also ich will keine Karte die bei einzelnen Benchen voll abgeht und dann wieder total abkackt wenn man AA und AF hinzuschaltet.

Da ist die GTX besser oder?


Thx

James Ryan
2007-05-18, 14:51:22
GTX ist auf jeden Fall im Moment die bessere Karte!

MfG :cool:

Daredevil
2007-05-18, 14:53:31
Natürlich die GTX, die 2900xt spielt in einer ganz anderen Liga, die 2900xt hat ihre Stärken und schwächen, die GTX ist immoment aber einfach Konstant Gut ( und natürlich auch teurer ).
Wie sich die 2900xt entwickelt wird dir wohl keiner so genaus sagen können, man kann nur vermuten und hoffen.

no6ody
2007-05-18, 15:21:08
er sollte mal lieber nachrechnen, 100%+ gibts da nirgends, auch ned annähernd.

http://www.directupload.com/thumbs/z5n2q5nnyutitqmtot1c.png (http://www.directupload.com/files/z5n2q5nnyutitqmtot1c.png)

doch, auf 2560x1600 0xAA 16xAF, Maximum Quality hat eine Karte durchschnittlich 24 fps und im crossfire 46fps.

bei 2560x1600 2xAA 16xAF, Maximum Quality hat eine 16 und zwei 31fps. Das kommt schon ganz gut hin, mit den 100%, aber scheinbar nur bei extrem hohen Aufloesungen und ohne AA. :/

3d
2007-05-18, 15:27:16
die 2900 frisst einfach viel zu viel leistung.
für mich hat ATI einen pentium 4 rausgebracht, der nicht mehr zeitgemäß ist.
und 180W kann man mit luft nicht vernünftig kühlen.

die GTS ist die duetlich bessere karte.
die GTX natürlich noch ein stück besser.

mapel110
2007-05-18, 15:30:52
die 2900 frisst einfach viel zu viel leistung.
für mich hat ATI einen pentium 4 rausgebracht, der nicht mehr zeitgemäß ist.
und 180W kann man mit luft nicht vernünftig kühlen.

die GTS ist die duetlich bessere karte.
die GTX natürlich noch ein stück besser.
Aber das lustige an deiner Aussage ist, dass bis zum Erscheinen des R600 der G80 der P4 war. Zu hohe Leistungsaufnahme. ^^

3d
2007-05-18, 15:35:59
naja,
die aufnahme der gtx ist mir auch viel zu hoch.
aber die 2900 schießt den vogel richtig ab.

mir kommen solche karten nicht mehr in den rechner.
kein bock mehr auf den scheiß. (hab ein anderes hobby gefunden :biggrin: )
100W ist meine grenze.
die GTS würde ich noch akzeptieren, wenn sie nicht im idle so viel fressen würde.

Gast
2007-05-18, 15:51:53
bis zum Erscheinen des R600 der G80 der P4 war. Zu hohe Leistungsaufnahme. ^^
Allerdings von leistung, features und qualität her konkurrenzlos und gleichzeitig leise zu kühlen, seinerzeit konnte man vom Prescott/Smithfield keines dieser dinge behaupten ;)

no6ody
2007-05-18, 15:55:49
euch ist schon klar, dass ihr euch um eine Differenz von 20W streitet (im 3d-betrieb)? IMHO ist keine der beiden Karten wirklich stromsparen, einzig der Kuehler der 2900 schein schlechter zu sein. :cool:

san.salvador
2007-05-18, 16:00:08
euch ist schon klar, dass ihr euch um eine Differenz von 20W streitet (im 3d-betrieb)? IMHO ist keine der beiden Karten wirklich stromsparen, einzig der Kuehler der 2900 schein schlechter zu sein. :cool:
20W zur GTX oder zur GTS?

[dzp]Viper
2007-05-18, 16:01:07
20W zur GTX oder zur GTS?

20-30watt gegenüber der GTX und 0 gegenüber der GTX Ultra

Gast
2007-05-18, 16:03:29
zur GTX

san.salvador
2007-05-18, 16:03:40
Viper;5505330']20-30watt gegenüber der GTX und 0 gegenüber der GTX Ultra
Danke.

Dann kann man aber sehr wohl streiten. 20W mehr als die GTX, die den R600 durchgehend versägt?
Sagt der Golffahrer zum Porschefahrer: "Meine Karre braucht eh nur zwei Liter mehr als deine..."

Gast
2007-05-18, 16:16:59
Also wenn ich http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/35/#abschnitt_stromverbrauch zu Grunde lege sind es aber eher 20-30W mehr als die 8800 Ultra und etwa 50W mehr als die GTX und etwa 90W mehr als die GTS. Selbst um 2D Betrieb sind es etwa 25W mehr als die 8800GTS. Das sind mal locker 30% oder mehr im Vergleich zur GTS. Oder 10% mehr im Vergleich zur Ultra, die dafür aber ein deutliches Leistungsplus von (je nach Einstellung) 20-60%, im Bereich der hohen AA und AFs tendenziell eher 50%+, (und Geldplus sowieso, aber das ist ein anderes Thema) für sich verbuchen kann.

reunion
2007-05-18, 16:18:55
Also wenn ich http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/35/#abschnitt_stromverbrauch zu Grunde lege sind es aber eher 20-30W mehr als die 8800 Ultra und etwa 50W mehr als die GTX und etwa 90W mehr als die GTS. Selbst um 2D Betrieb sind es etwa 25W mehr als die 8800GTS. Das sind mal locker 30% oder mehr im Vergleich zur GTS. Oder 10% mehr im Vergleich zur Ultra, die dafür aber ein deutliches Leistungsplus von (je nach Einstellung) 20-60%, im Bereich der hohen AA und AFs tendenziell eher 50%+, (und Geldplus sowieso, aber das ist ein anderes Thema) für sich verbuchen kann.

Rosinen picken kann jeder:
http://anandtech.com/video/showdoc.aspx?i=2988&p=30

Bei Hardwareluxx ist der Stromverbrauch sogar unter Last bis auf eine Hand voll Watt ident mit der GTX. Einzig bei CB ist der Unterschied derart groß.

Nakai
2007-05-18, 16:20:45
Der CB-Test ist eh einer der wenig guten Tests.
Wieso schauen immer soviel auf diesen?

mfg Nakai

LovesuckZ
2007-05-18, 16:23:12
Der CB-Test ist eh einer der wenig guten Tests.
Wieso schauen immer soviel auf diesen?
mfg Nakai

Weil sie sich das nicht dauernd einreden... :rolleyes:
Es gibt genug Reviews im Netz, und CB.de hat viele Spiele getestet - auch wenn sie es mit TSAA bzw. AAA getan haben.
Und der Stromverbrauch bei ihnen kann hinhauen, wenn sie sich die richtige Einstellung dafür ausgesucht haben.

Coda
2007-05-18, 16:23:15
http://www.xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_power.gif

Danach geh ich auch davon aus, dass die Ultra schon ihre 10-20W mehr braucht als die GTX und damit klingen 20W doch ganz vernünftig. Aber Stromverbrauch ist eh irrelevant ;)

Übrigens bin ich der Meinung, dass alle anderen Strommessungen außer Xbit komplett für den Popo sind, weil die anderen hinterm Netzteil messen, das ganz unterschiedliche Wirkungsgrade für die verschiedenen Spannungen haben kann etc.

AnarchX
2007-05-18, 16:23:29
Wieso schauen immer soviel auf diesen?


Nunja, CB bietet auf jedenfall eine sehr gute Präsentation, einen reichhaltigen Parkour und eine große Auswahl an Karten.
Wobei es in einigen Bereichen sicherlich nötig wäre zu verbessern.

Squall2010
2007-05-18, 16:29:11
naja,
die aufnahme der gtx ist mir auch viel zu hoch.
aber die 2900 schießt den vogel richtig ab.

mir kommen solche karten nicht mehr in den rechner.
kein bock mehr auf den scheiß. (hab ein anderes hobby gefunden :biggrin: )
100W ist meine grenze.
die GTS würde ich noch akzeptieren, wenn sie nicht im idle so viel fressen würde.


Jemand der 500€uro für ne Graka bezahlt, dem machen auch 150Watt unter Last nichts.

Gut der R600 verbraucht da schon etwas mehr, aber man Spielt ja nicht 24 Stunden am Tag.

Ich habe nen Deckenfluter, der verbraucht 300Watt. Also mehr als mein Rechner unter Last.

Wenn einem solche Hardware zu viel verbraucht, dann sollte man sie einfach nicht kaufen. Und sich nicht über den verbraucht beschweren.

Ob ihr euch beschwert, oder nicht, das interessiert den Hersteller reichlich wenig. Und die Karte verbraucht dann auch nicht wie von Zauberhand 40Watt weniger.

3d
2007-05-18, 16:32:04
im vergleich zu GTX sind das vielleicht nur 20-30W.
aber die 2900XT tritt eigentlich gegen die GTS an, und da sind es eben locker 60-70W.

reunion
2007-05-18, 16:34:33
aber die 2900XT tritt eigentlich gegen die GTS an, und da sind es eben locker 60-70W.

55.4W unter Last und 13.6W unter idle.
http://www.xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_power.gif

Gast
2007-05-18, 16:35:11
Der CB-Test ist eh einer der wenig guten Tests.
Wieso schauen immer soviel auf diesen?

mfg Nakai
Ich schätze mal weil er so ausführlich ist und die große Menge an Zahlen mit ein paar Balken recht einfach veranschaulicht.

Aber auch beim AnandTech Test (wo leider eine Ultra fehlt) sind es 20W mehr als GTX und 60W mehr als GTS. Wenn man jetzt fies ist kann man ja http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet (ja, wieder CB, tut mir leid, aber die Graphen sind halt einfach praktisch) bei 1280x1024 4xAA 16xAF heranziehen (und das nehme ich jetzt einfach mal frech als Standardsetting für Grafikkarten in dieser Preisklasse, denn ohne AA und AF will man ja eh nicht spielen) und sagen: 20W (oder 23% laut http://www.xbitlabs.com/articles/video/display/r600-architecture_14.html) mehr Strom bei 32% weniger Leistung, oder 60W (52%) mehr Strom bei 8% weniger Leistung. Energieeffizient ist was anderes (was im übrigen nicht heisst, dass der G80 hier Vorbild wäre ;)

So und jetzt dürft ihr mich wegen der zu konkreten Zahlen rupfen :)

3d
2007-05-18, 16:42:09
ok, dann sind es eben 50-60W.

Wenn einem solche Hardware zu viel verbraucht, dann sollte man sie einfach nicht kaufen. Und sich nicht über den verbraucht beschweren.

man kann auch beides machen. :smile:

wie das den hersteller interessiert hat man an intel gesehen.
etwas kritische stimmen, etwas geweinnrückgang und schwupp di wupp gibts plötzlich eine effiziente und perfomante architektur. :smile:

ich war immer ATI fan und habe bis jetzt nur ATI karten gekauft.
aber genug ist genug. man muss die sache einfach nüchtern betrachten.

Sagt der Golffahrer zum Porschefahrer: "Meine Karre braucht eh nur zwei Liter mehr als deine..."
der ist gut :biggrin:
genauso siehts aus.

Undertaker
2007-05-18, 17:13:53
55.4W unter Last und 13.6W unter idle.
http://www.xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_power.gif

hat dein netzteil 100% effizienz? ;)

reunion
2007-05-18, 17:19:20
hat dein netzteil 100% effizienz? ;)

Nein, aber es hat mit 70% Auslastung eine höhere Effizienz als mit 50% Auslastung, also noch weniger als 55.4W. ;)

sun-man
2007-05-18, 17:39:32
Wie lange hat man den den Gouvernator wegen dieser abscheulich schrecklichen und wiederwärtige Tat gesperrt?

AnarchX
2007-05-18, 17:45:55
hat dein netzteil 100% effizienz? ;)

Warum Netzteil? X-Bit Labs misst doch direkt an den Versorgungsleitungen die zur Karte gehen?

Mumins
2007-05-18, 17:48:52
Wie lange hat man den den Gouvernator wegen dieser abscheulich schrecklichen und wiederwärtige Tat gesperrt?

2 Tage.

3d
2007-05-18, 18:14:11
Warum Netzteil? X-Bit Labs misst doch direkt an den Versorgungsleitungen die zur Karte gehen?

weil reunion meinte, es wären nur 55W.
netto mag das auch stimmen, aber netto bekommen wir in diesem fall nicht.
zu diesen 55W kommt dann noch etwa +20% vom wirkungsgrad des netzteils.
die kommen aber überall drauf, also tut sich da nicht viel. es sind einfach ~60W mehr.

ist auch egal ob das jetzt 50,60 oder 70W sind.
es ist duetlich mehr.
nvidia hat von der 5800 flowfx gelernt, das wird auch bestimmt ati tun.
(hoffe ich)

im moment sehe ich jedenfalls keinen grund 60W zusätzlich wegzukühlen und zu bezahlen.
diese 60W werden nicht in frames umgesetzt, sondern in lärm und hitze.

horn 12
2007-05-18, 19:28:14
Wer hat denn die HD 2900 XT auch mal mit einem Nicht C2D oder X2 verbaut, sprich nur mit einem 3800 bis 4800 Singlecore CPU vom AMD?
Würde mich über Benchmarks in 1280x1024 8xAA/16 AF recht freuen.
Dank!

Gast
2007-05-18, 19:35:34
Wer hat denn die HD 2900 XT auch mal mit einem Nicht C2D oder X2 verbaut, sprich nur mit einem 3800 bis 4800 Singlecore CPU vom AMD?
Würde mich über Benchmarks in 1280x1024 8xAA/16 AF recht freuen.
Dank!
Selbst mit einem SC 4000+ dürfte bei diesen Settings sehr oft die 2900XT der limitierende Faktor sein, sprich die Ergebnisse werden sich nur marginal von einem C2D unterscheiden. (CPU lastige Games wie Supreme Commander, GTR 2, FSX usw. oder andere stark CPU lastige Stellen in Games mal ausgenommen).

Gast
2007-05-18, 19:38:12
2 Tage.

Quatsch mit Soße! 1 Woche!

raffa
2007-05-18, 19:45:22
Selbst mit einem SC 4000+ dürfte bei diesen Settings sehr oft die 2900XT der limitierende Faktor sein, sprich die Ergebnisse werden sich nur marginal von einem C2D unterscheiden. (CPU lastige Games wie Supreme Commander, GTR 2, FSX usw. oder andere stark CPU lastige Stellen in Games mal ausgenommen).

Da dürfte der Gast ziemlich recht haben. (y)

=Floi=
2007-05-18, 20:15:59
tut mir leid aber das stimmt definitiv nicht
ein 4000+ hat gerade mal 2,4ghz und das teil dürfte so ziemlich in 80% der spiele limitieren

AnarchX
2007-05-18, 20:22:03
tut mir leid aber das stimmt definitiv nicht
ein 4000+ hat gerade mal 2,4ghz und das teil dürfte so ziemlich in 80% der spiele limitieren

Naja, ist eben ganz abhängig von den Spielen. In Shootern sollte er weniger Probleme machen, während die Leistung in RPGs und anderen simulationslastigen Spielen schon kritisch sein wird.

Od@l
2007-05-18, 20:26:36
das kommt ganz auf die settings an...

bei neueren spielen limitiert bei mir fast immer meine x1900XT @750/900

bei meinem A64 @2,5Ghz

einstellungen sind 1280x1024 16xHQAF und je nachdem 4-6x AAA und/bzw. EATM

Undertaker
2007-05-19, 01:51:17
weil reunion meinte, es wären nur 55W.
netto mag das auch stimmen, aber netto bekommen wir in diesem fall nicht.
zu diesen 55W kommt dann noch etwa +20% vom wirkungsgrad des netzteils.
die kommen aber überall drauf, also tut sich da nicht viel. es sind einfach ~60W mehr.



genau so war das gemeint

=Floi=
2007-05-19, 04:46:21
in den low fps bereichen limitiert bei mir definitiv der A64 @ 2,5ghz (egal ob 0XAA oder 4XAA)
zB in Q3, Q4 und Far Cry
nun gehen wir von einer nochmaligen verdopplung der leistung aus und dann stehst du noch öfter an
das einzige was zählt sind die low FPS denn die möchte man ja mit der neuen graka "wegbekommen" nur sind sie immer noch da weil der prozessor eben hier limitiert

bei neueren spielen sieht es ja noch schlimmer aus für den singlecore A64...

horn 12
2007-05-19, 10:10:35
Würdest IHR mir von einem HD 2900 XT Kauf abraten wenn ich nun noch knapp ein ganzes halbes Jahr mit dem A64 3800+ Singlecore und dieser Karte "auskommen muss".
Habe derzeit wie schon gesagt MSI 1950 PRO 512 MB und zocke immer in
1280x1024 4xAA/16. Mit neuerer Karte dann wohl mit 8xAA/16 AF.
Werde ich da einen gewaltigen / großen / kleinen Unterschied merken, bis mein neues System mal kommt?
Möchte nicht dass die MINIMAL fps zu stark in den Keller gehen!

Daredevil
2007-05-19, 10:32:30
Kaufen > Testen > Behalten/Zurückschicken

Marc-
2007-05-19, 10:49:53
Kaufen > Testen > Behalten/Zurückschicken


Genau das ist eine der lamesten und asozialsten einstellungen die hier im forum propagiert wird.
Das traurige dabei ist, das jeder einzelne von uns die schmarotzerei einiger weniger durch höhere preise mitbezahlen muss.

Daredevil
2007-05-19, 10:56:49
1. Is das mir egal
2. Is das Offtopic
3. Hab ich die Karte und werde sie behalten und hab mir die möglichkeit sie zurückzuschicken nur als Hintertor offen gelassen

Nun ich bin ja schon ziemlich assozial wenn ich eine Grafikkarte kaufe, Sorry Alternate!
Ansonsten hätte ich sie zurückgeschickt und mit dort eine GTS geholt, auch schon eine schweinerei von mir :(

Superheld
2007-05-19, 10:58:23
Würdest IHR mir von einem HD 2900 XT Kauf abraten wenn ich nun noch knapp ein ganzes halbes Jahr mit dem A64 3800+ Singlecore und dieser Karte "auskommen muss".
Habe derzeit wie schon gesagt MSI 1950 PRO 512 MB und zocke immer in
1280x1024 4xAA/16. Mit neuerer Karte dann wohl mit 8xAA/16 AF.
Werde ich da einen gewaltigen / großen / kleinen Unterschied merken, bis mein neues System mal kommt?
Möchte nicht dass die MINIMAL fps zu stark in den Keller gehen!

behalte deine jetzige oder hol dir lieber eine GTS:tongue:

A.Wesker
2007-05-19, 11:02:33
behalte deine jetzige oder hol dir lieber eine GTS:tongue:
warum sollte man sich eine langsamere Karte kaufen? würde mir nur in den Sinn kommen, wenn man die 50 € Aufpreis sparen möchte :>

Daredevil
2007-05-19, 11:03:30
@ Horn
Da du eh pro ATI bist ( Sonst würdest du kaum soviel fragen stellen in verschiedenen Foren :) ) will ich dir folgendes sagen.
Kauf dir eine GTS und du bist auf der Sicheren Seite, rumum ist die GTS das bessere Paket, sie ist konstant schnell, leiser und verbraucht weniger, für einen Kritiker wie dich das beste!

Kauf dir eine 2900xt wenn DU glaubst das die Karte noch schneller wird
und eine GTS verkloppen kann, der einzige Vorteil der XT ist die Leistung, wenn sie besser wird ist alles gut, wenn es aber eben kein Treiberproblem ist wirstu schnell den Fehlkauf bereuen.
a.Wesker hat sich ja auch erst selber davon überzeugt statt auf die Tests zu hören und er ist begeistert, ich bin es noch nicht da sie immoment noch auf 2D Taktraten läuft mangels zweiten PowerConnector.

Gast
2007-05-19, 11:04:28
warum sollte man sich eine langsamere Karte kaufen? würde mir nur in den Sinn kommen, wenn man die 50 € Aufpreis sparen möchte :>

Nicht jeder heizt seine 2900XT mit einer Wakü/Kompressorkühlung ein. :rolleyes:

Superheld
2007-05-19, 11:08:21
wenns nur um die Spieleleistung geht würde ich auch die XT holen;)

@horn
dein 3800+ reicht erst mal

Radeonator
2007-05-19, 11:20:06
Gibt es eigentlich Benchmarks, die so direkt nur die Graka ansprechen, wie man es oftmals unter Linux antrifft (Compiz, Beryl Oberfläche z.B. spricht fast zu 95% nur die GPU an) ?

Daredevil
2007-05-19, 11:25:12
Naja je höher die Last der Grafikkarte desto niedriger die Last der CPU, also massiv Auflösung und Bildverbesserungsoptionen lassen eine CPU denke ich nicht limitieren

horn 12
2007-05-19, 12:04:46
Werde mir die HD XT kaufen, da ich generell viel Shooter/ Rennspiele / Actionsspiele zocke und so gut wie keine Strategie/ Online/ Rollenspiele (Ausser Stalker,- wenn man es dazuzählen möchte.)
Bei ersteren Games ist wohl die Graka mehr gefordert als die CPU, auch bei "nur" 1280x1024 8xAA/16AF

Gast
2007-05-19, 12:14:05
Würdest IHR mir von einem HD 2900 XT Kauf abraten wenn ich nun noch knapp ein ganzes halbes Jahr mit dem A64 3800+ Singlecore und dieser Karte "auskommen muss".
Habe derzeit wie schon gesagt MSI 1950 PRO 512 MB und zocke immer in
1280x1024 4xAA/16. Mit neuerer Karte dann wohl mit 8xAA/16 AF.
Werde ich da einen gewaltigen / großen / kleinen Unterschied merken, bis mein neues System mal kommt?
Möchte nicht dass die MINIMAL fps zu stark in den Keller gehen!

Behalte die X1950pro. Die ist mehr als ausreichend, wobei Du mit deiner CPU selbst die oft nicht auslasten kannst. Hier nun ne HD 2900XT reinzuknallen wäre nun wirklich für rein gar nix.

Gast
2007-05-19, 12:14:59
Werde mir die HD XT kaufen, da ich generell viel Shooter/ Rennspiele / Actionsspiele zocke und so gut wie keine Strategie/ Online/ Rollenspiele (Ausser Stalker,- wenn man es dazuzählen möchte.)
Bei ersteren Games ist wohl die Graka mehr gefordert als die CPU, auch bei "nur" 1280x1024 8xAA/16AF

Gerade bei Renngames zählt fast nur die CPU.

Gast
2007-05-19, 12:55:02
wenns nur um die Spieleleistung geht würde ich auch die XT holen;)

@horn
dein 3800+ reicht erst mal

Rofl......aber nicht wenn er mit AF/AA zocken will, da ja die 2900XT nicht so seine Stärken hat............

Die GTS ist kühler, leiser, verbraucht viel weniger Strom ist günstiger.

Zwar ist die insgesamt langsamer, aber mit ausgereifteren! Treibern ist sie der R2900XT vorzuziehen.

Dr.Dirt
2007-05-19, 13:34:54
Ich würde mir jetzt auch noch keine 2900 XT kaufen, jedenfalls nicht so lange, wie das FSAA Problem geklärt ist (also zumindest noch 1-3 Treiber abwarten).

Mir reicht meine X1900 XT derzeit noch, ich denke mal, ich warte noch ab, bis mehr DX10 Spiele erschienen sind.

A.Wesker
2007-05-19, 13:54:18
Rofl......aber nicht wenn er mit AF/AA zocken will, da ja die 2900XT nicht so seine Stärken hat............

Die GTS ist kühler, leiser, verbraucht viel weniger Strom ist günstiger.

Zwar ist die insgesamt langsamer, aber mit ausgereifteren! Treibern ist sie der R2900XT vorzuziehen.
Die Karte hat nur Probleme mit AAA, keinesfalls mit AA. Weiterhin hat sie zb. in COD 2 Probleme mit AF. Und "kühler" ist sie auch nicht, eher ungefähr auf einem Niveau (habe eine 8800 GTX,GTS und 2900XT mit gleicher Wakü getestet).

Blaze
2007-05-19, 13:57:42
Du musst aber von Stockcooling ausgehen und nicht von deiner Wakü... ;)

A.Wesker
2007-05-19, 14:02:07
Du musst aber von Stockcooling ausgehen und nicht von deiner Wakü... ;)
da verfälscht der unterschiedliche Kühler ja das Ergebnis.

Blaze
2007-05-19, 14:03:57
Richtig, aber es zeigt sich dann welches das bessere Kühlkonzept ist ;)

=Floi=
2007-05-19, 21:31:47
ich bleibe bei der meinung die X1950pro zu behalten und erst einmal das restliche system upzugraden

in einem halben jahr könnte es auch schon die 65nm version geben, darauf würde ich eher sparen...

d2kx
2007-05-19, 22:00:22
Die X2900 XT habe ich heute schon für unter 350€ lieferbar gesehen. Wenn sie in zukünftigen Spielen besser abschneidet, als zumindest die 8800 GTS... warum nicht?

=Floi=
2007-05-19, 22:08:44
weil sie im vergleich teuer ist für den zustand den man bekommt
und OB sie besser wird steht auch noch in den sternen
(nv hat hier auch nicht gerade mit rohleistung gegeitzt!)
am horizont ist auch schon die 65nm version

LovesuckZ
2007-05-19, 23:55:32
Die Karte hat nur Probleme mit AAA, keinesfalls mit AA.

Ich glaube nicht, dass jeder Tester mit AAA testet.

Und "kühler" ist sie auch nicht, eher ungefähr auf einem Niveau (habe eine 8800 GTX,GTS und 2900XT mit gleicher Wakü getestet).

Wenn man die Kühlergeschwindigkeit der GTS auf 100% stellt, dann wird sie deutlich kühler - wahrscheinlich sogar kühler als eine 2900XT.
Es ist also immer eine Frage der Laustärke.

plainvanilla
2007-05-20, 01:31:16
bei mir läßt sich das CCC unter vista 32 nicht öffnen.
3D06 startet ebenfalls nicht, hat da jemand eine lösung?

hab kurz DOD angezockt, ab 15m alles im nebel, extremst.
hat das wer anders auch probiert?
danke

=Floi=
2007-05-20, 01:38:30
-nosysteminfo in einer verknüpfung hinten dran hängen beim 3d mark

der nebel ist scheinbar ein bug
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=362844

sulak
2007-05-20, 01:54:24
weil sie im vergleich teuer ist für den zustand den man bekommt
und OB sie besser wird steht auch noch in den sternen
(nv hat hier auch nicht gerade mit rohleistung gegeitzt!)
am horizont ist auch schon die 65nm version

Wo hast denn die Info her? R650 kommt 2 Jahreshälfte 07, das kann auch Weihnachten werden. Von AMD sind wir ja auch schon "when its done" gewohnt :biggrin:
Also im Speku Thread war nichts von einem Releasetermin zu lesen, erstmal kommt wohl der RV670 und dann schau mer mal was aus der XTX geworden ist.

=Floi=
2007-05-20, 02:44:04
das design steht und läuft ja, jetzt braucht man ja nur noch den 65nm shrink und da sind 4-5 monate schon ausreichend (3-5monate sind für mich der horizont ;) )

auch muß geld reinkommen und das geht eben auch nur mit kleineren DICE
nebenbei könnte ich mir vorstellen dass ATI hier mehr tempo als sonst macht damit man nv wieder einholt UND noch das weihnachtsgeschäft mitnimmt

san.salvador
2007-05-20, 02:48:45
Du hast vergessen, dass die Leute bei Nvidia auch nicht den ganzen Tag schlafen. :rolleyes:

AnarchX
2007-05-20, 22:51:35
Neues Treiberfutter - 7.5 RC2 bzw. 8.38:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5511674&postcount=15

Vielleicht kann jemand berichten, ob sich die AA Performance verbessert hat.

Onlinejunky
2007-05-20, 22:56:14
Würde mich auch interessieren!

Mfg

robbitop
2007-05-20, 23:00:00
Der 8.38 ist nur eine Parallelentwicklung fuer OEMs. Der ist laut ATI dem 8.3742 unterlegen.

reunion
2007-05-20, 23:04:48
Dennoch - der 8.38 Treiber wird offensichtlich der Cat 7.5, also der erste offizielle Treiber, der R600 unterstützen wird.

AnarchX
2007-05-20, 23:05:00
Der 8.38 ist nur eine Parallelentwicklung fuer OEMs. Der ist laut ATI dem 8.3742 unterlegen.

Wohl kein EATM statt SS-AAA? X-D

Wenn ich mir die Ergebnisse bei HKEPC mit dem 8.38 ansehe, sieht das jedenfalls nicht so schlecht aus.

Gast
2007-05-20, 23:05:59
Wenn ich mir die Ergebnisse bei HKEPC mit dem 8.38 ansehe, sieht das jedenfalls nicht so schlecht aus.

Link?

AnarchX
2007-05-20, 23:07:14
Link?
http://www.hkepc.com/bbs/hwdb.php?tid=790821&tp=AMD-R600-HIS&rid=790821

robbitop
2007-05-20, 23:14:10
Die Aussage ist von ATI selbst. Der 8.38 soll aelter sein, was auch wegen der zeitintensiven WHQL Zertifizierung hinkommt.

Gast
2007-05-20, 23:17:56
http://www.hkepc.com/bbs/hwdb.php?tid=790821&tp=AMD-R600-HIS&rid=790821

Noe, immer noch das gleiche Problem mit dem AA, auch keine Besserung zu sehen.

A.Wesker
2007-05-20, 23:32:32
Noe, immer noch das gleiche Problem mit dem AA, auch keine Besserung zu sehen.

das "AA-Problem" besteht nicht bei allen Spielen, eher gesagt bei den wenigsten.

Bei Flatout 2, Test Drive Unlimited, Battlefield 2, Doom 3 und Oblivion verliert die Karte durch das Hinzuschalten von 4xAA recht wenig an Performance.

FEAR läuft mit 4AA/16AF ~ auf GTS Niveau, Stalker supported kein AA.

Call of Duty 2 verliert durch AA ebenso wenig Performance, jedoch bricht sie durch 16xAF bis zu 60 %!! ein.

Deutlich schlechter als die GTS performt die 2900XT nur in Half Life 2, CSS, Half Life 2 Lost Coast und Far Cry.

Sir Integral Wingate Hellsing
2007-05-21, 01:09:21
OT:
*gg* ATi bzw AMD hat nen cooles Flash als Werbung für die HD 2900/2600/2400 gemacht - grad auf THG entdeckt mit spacigem Sound und Gewinnspiel :)

laser114
2007-05-21, 01:39:30
*gg* ATi bzw AMD hat nen cooles Flash als Werbung für die HD 2900/2600/2400 gemacht - grad auf THG entdeckt mit spacigem Sound und Gewinnspiel :)

AMD macht mal wieder Marketing? :wink:

Mr.Soapdown
2007-05-21, 05:45:07
Moin,

hat jemand Tests mit 4xAA und 8xAF? Ich würde durchaus mit 8xAF auskommen. Sind da die Einbrüche evtl. nicht so groß?

Wobei mir die 512MB VRAM und der noch höhere Stromverbrauch auch nicht so gefallen.

Gast
2007-05-21, 06:44:38
Bei Flatout 2, Test Drive Unlimited, Battlefield 2, Doom 3 und Oblivion verliert die Karte durch das Hinzuschalten von 4xAA recht wenig an Performance.

Hast du dazu Werte? Liegt die Karte dort immernoch auf GTS Niveau?


FEAR läuft mit 4AA/16AF ~ auf GTS Niveau, Stalker supported kein AA.


Eine Karte mit ca. 60% mehr Bandbreite sollte beim Einsatz von AA nicht auf GTS Niveau herumkrebsen. Man kann sich das zwar mit dem Preis einreden, dass dieses Niveau ausreiche, aber schließt das AA Problem eben nicht.

Spasstiger
2007-05-21, 08:33:56
Eine Karte mit ca. 60% mehr Bandbreite sollte beim Einsatz von AA nicht auf GTS Niveau herumkrebsen.
An der Bandbreite hängts auch sicher nicht.
Eine GeForce FX 5900 Ultra hatte z.B. eine um 25% höhere Speicherbandbreite als eine 9800 Pro und war auch preislich über dieser platziert. Dennoch konnte sich die 5900 Ultra selbst beim Einsatz von AA nicht von der 9800 Pro absetzen, manchmal war sogar das genaue Gegenteil (http://www.behardware.com/articles/663-10/agp-graphic-cards-in-2007.html) der Fall.

Gast
2007-05-21, 08:58:35
An der Bandbreite hängts auch sicher nicht.
Eine GeForce FX 5900 Ultra hatte z.B. eine um 25% höhere Speicherbandbreite als eine 9800 Pro und war auch preislich über dieser platziert. Dennoch konnte sich die 5900 Ultra selbst beim Einsatz von AA nicht von der 9800 Pro absetzen, manchmal war sogar das genaue Gegenteil (http://www.behardware.com/articles/663-10/agp-graphic-cards-in-2007.html) der Fall.

Trotzdem - teilweise ist selbst ein R580 beim Einsatz von AA schneller.

Skinner
2007-05-21, 09:29:28
Gabs da nicht die Aussage von AMD/ATI, das man unter DX9 gar nicht schneller sein als eine 8800'er Geforce? Am besten erstmal DX10 Spiele (Lost Planet Final und nicht Demo, da Nvidia da mit rumgefuscht hat) abwarten, und dann erst eine DX10 Karte kaufen =) So mache ich das jedenfalls bei meinen System.

Skinner
2007-05-21, 09:31:49
Ich habe nen Deckenfluter, der verbraucht 300Watt. Also mehr als mein Rechner unter Last.


Spielekonsole (XBOX360 o. PS3) und eine Plasma/LCD TV ist aber nicht ohne ;D

sun-man
2007-05-21, 09:37:03
2 Tage.

Das sind nun aber schon zwei Marstage oder so, oder täusche ich mich da?

James Ryan
2007-05-21, 09:46:23
Gabs da nicht die Aussage von AMD/ATI, das man unter DX9 gar nicht schneller sein als eine 8800'er Geforce? Am besten erstmal DX10 Spiele (Lost Planet Final und nicht Demo, da Nvidia da mit rumgefuscht hat) abwarten, und dann erst eine DX10 Karte kaufen =) So mache ich das jedenfalls bei meinen System.

Lächerliche Ausrede von A/A! :rolleyes:
Warum sollte bitte schön eine Karte, die unter DX9 nichts reißt, plötzlich unter DX10 der Überhammer werden?
Außerdem, bis es richtige DX10 Spiele gibt, ist die Radeon HD 2900 XT längst vergessen!
Man kauft eine R600/G80 für heutige Spiele, nicht für "die Zukunft".
A/A weiß ganz genau dass der R600 Murks ist, darum wird auch fieberhaft am Nachfolger gearbeitet!
Glaubt es oder nicht, aber die Zukunft wird mir Recht geben! ;)

MfG :cool:

BlackBirdSR
2007-05-21, 10:34:59
Nur ganz kurz ein kleiner Kommentar:

Erinnert euch bitte daran, wie sehr NVIDIA und die Medien damals von der NV30 geschwärmt haben...
Damals war für den Hersteller nur eines wichtig: Das Produkt ist der absolute Oberhammer! Egal ob das der Wahrheit entspricht.

Das gilt nun auf für AMD/ATI. Man kann es sich nicht leisten, sich Fehler einzugestehen. Das Produkt ist absolut TOP und daran kann kein Zweifel aufkommen.
Wie AMD/ATI in 2-3 Jahren dazu stehen ist jetzt erstmal egal.
Alle Aussagen von AMD in Richtung R600 sind also immer mit der Anti-Produkt-Adverstising-Brille anzusehen.

So funktioniert der Markt nunmal. Und ich würde mein Produkt auch bis in den Himmel loben, wenn ich dadurch Arbeitsplätze, Fortbestand und Quartalszahlen sichern könnte. Das ist bei AMD nicht anders als bei anderen Firmen.

Und für uns User gilt derweil: Wichtig ist nur, was man persönlich von der Karte/dem Chip hält.

James Ryan
2007-05-21, 10:40:46
Nur ganz kurz ein kleiner Kommentar:

Erinnert euch bitte daran, wie sehr NVIDIA und die Medien damals von der NV30 geschwärmt haben...
Damals war für den Hersteller nur eines wichtig: Das Produkt ist der absolute Oberhammer! Egal ob das der Wahrheit entspricht.

Das gilt nun auf für AMD/ATI. Man kann es sich nicht leisten, sich Fehler einzugestehen. Das Produkt ist absolut TOP und daran kann kein Zweifel aufkommen.
Wie AMD/ATI in 2-3 Jahren dazu stehen ist jetzt erstmal egal.
Alle Aussagen von AMD in Richtung R600 sind also immer mit der Anti-Produkt-Adverstising-Brille anzusehen.

So funktioniert der Markt nunmal. Und ich würde mein Produkt auch bis in den Himmel loben, wenn ich dadurch Arbeitsplätze, Fortbestand und Quartalszahlen sichern könnte. Das ist bei AMD nicht anders als bei anderen Firmen.

Und für uns User gilt derweil: Wichtig ist nur, was man persönlich von der Karte/dem Chip hält.

Full Ack, bis auf den letzen Satz:
Wichtig ist nur, was die Karte in aktuellen Anwendungen wirklich leistet!
btw, es gibt schon Gf 8800 GTS/640er Karten für 289€ lieferbar, die HD 2900 XT ist deutlich teurer und nicht "besser"!

MfG :cool:

[dzp]Viper
2007-05-21, 10:42:24
btw, es gibt schon Gf 8800 GTS/640er Karten für 289€ lieferbar, die HD 2900 XT ist deutlich teurer und nicht "besser"!


Frag mich immer wo ihr die Preise her nehmt... 309€ ist auf geizhals.at/de das günstigste was ich finde...

James Ryan
2007-05-21, 10:43:48
Dann kannst du mit Geizhals.at/de nicht richtig umgehen! ;D
www.alternate.de

MfG :cool:

dildo4u
2007-05-21, 10:45:16
Dann kannst du mit Geizhals.at/de nicht richtig umgehen! ;D
www.alternate.de

MfG :cool:
Wenn man raufklickt sinds 299€ und die Karte steht für den Preis bei geizhals noch nicht drinn. ;)


http://geizhals.at/eu/?o=8&fs=8800+gts&in=&x=0&y=0

Spasstiger
2007-05-21, 10:46:07
Die 8800 GTX ist leider keinen Fatz billiger geworden seit X2900-XT-Release. Verständlich bei dem Vorsprung, den Nvidia immer noch hat.
Aber die 8800 GTS wird immer interessanter, mit 290€ hat die Karte imo sogar das beste Preis-Leistungsverhältnis von allen Grafikkarten.

James Ryan
2007-05-21, 10:46:22
Wenn man raufklickt sinds 299€ und die Karte steht für den Preis bei geizhals noch nicht drinn. ;)

Nein, es sind 289€! Angebot von Alternate.de, wohl nicht allzulange!
*nicht auf Bestellen drücken, muss Küche kaufen... nicht auf Bestellen drücken...* :eek:

MfG :cool:

Spasstiger
2007-05-21, 10:47:55
*nicht auf Bestellen drücken, muss Küche kaufen... nicht auf Bestellen drücken...* :eek:
"Küche muss warten, kann Würstchen auch auf Graka grillen ..." :tongue:

dildo4u
2007-05-21, 10:49:03
Nein, es sind 289€! Angebot von Alternate.de, wohl nicht allzulange!

Wenn ich auf das Banner klicke kommt bei mir das.


http://666kb.com/i/aoiztslqmz2mwecm9.jpg

James Ryan
2007-05-21, 10:58:51
Sorry dildo, deine Grafik wird geblockt (bin auf der Arbeit) ;)
Wenn ich auf das Banner klicke, komme ich zu der Graka lieferbar für 289€!

MfG :cool:

Gast
2007-05-21, 11:01:48
http://666kb.com/i/aoj04nwule7ebgym7.jpg

289€

so wie in dem banner

Botcruscher
2007-05-21, 11:30:50
Welcher Billiganbieter ist den Zotac? Klingt irgendwie nach einem Osteuropäischen Autobauer.:biggrin:

A.Wesker
2007-05-21, 11:45:19
Hast du dazu Werte? Liegt die Karte dort immernoch auf GTS Niveau?



Eine Karte mit ca. 60% mehr Bandbreite sollte beim Einsatz von AA nicht auf GTS Niveau herumkrebsen. Man kann sich das zwar mit dem Preis einreden, dass dieses Niveau ausreiche, aber schließt das AA Problem eben nicht.


Bei 1920x1200 4AA/16AF:


- Call of Duty 2 (~ GTS Niveau)
- Call of Juarez (~ 10 % langsamer als die GTX)
- Far Cry (leicht schneller als die GTS)
- Lost Planet (ca 10 % langsamer als die GTS)
- HL2 Lost Coast (~20 % langsamer als die GTS)
- Stalker (5-10% langsamer als die GTX)
- Test Drive Unlimited (leicht schneller als die GTX)
- Flatout 2 (ca 15 % schneller als die GTX)
- Oblivion ( ~ GTX)
- Battlefield 2 (~ 10 % schneller als die GTX)
- FEAR ( ~GTS)


so da haben wir 11 Spiele:

-> 4x schneller oder gleichschnell wie die GTX (~36 %)
-> 5x schneller oder gleichschnell wie die GTS (~45%)
-> 2x langsamer als die GTS (~18 %)



System:
QX6700 @ 4GHz
8800 GTX @ 786/1075 --> Forceware 97.92 !!!, voltmodded
8800 GTS @ 720/950 --> Forceware 158.22, voltmodded
2900XT @ 890/1000 --> 8.37.42, noch nicht voltmodded


Temperaturen:

Kühlung: Swiftech MCW60

8800 GTX stockv: 47°C Volllast
8800 GTX @ 1.65V: 61 °C Volllast
8800 GTS stockv: 46°C Volllast
8800 GTS @ 1.5V: 51°C Volllast
2900XT stockv: 48°C Volllast



Treibervergleich

Call of Duty 2:

8.37.43
1920x1200 4AA/16AF -> 32 FPS
1920x1200 4AAA/16AF -> 28 FPS

8.37.42
1920x1200 4AA/16AF -> 29 FPS
1920x1200 4AAA/16AF -> 28 FPS


Half Life 2 Lost Coast:

8.37.43
1920x1200 4AA/16AF -> 94 FPS
1920x1200 4AAA/16AF -> 91 FPS

8.37.42
1920x1200 4AA/16AF -> 94 FPS
1920x1200 4AAA/16AF -> 92 FPS


CS:S:

8.37.43
1920x1200 4AA/16AF -> 158 FPS
1920x1200 4AAA/16AF -> 147 FPS

8.37.42
1920x1200 4AA/16AF -> 157 FPS
1920x1200 4AAA/16AF -> 153 FPS


TDU:

8.37.43
1680x1050 4AA/16AF -> 55 FPS
1680x1050 4AAA/16AF -> 37 FPS

8.37.42
1680x1050 4AA/16AF -> 55 FPS
1680x1050 4AAA/16AF -> 53 FPS


Stalker:

8.37.43
1680x1050 /16AF -> 54 FPS

8.37.42
1680x1050 /16AF -> 57 FPS


Battlefield 2:

8.37.43
1920x1200 4AA/16AF -> 69 FPS
1920x1200 4AAA/16AF -> 34 FPS

8.37.42
1920x1200 4AA/16AF -> 74 FPS
1920x1200 4AAA/16AF -> 45 FPS


FEAR:

8.37.43
1920x1440 4AA/16AF -> 71 FPS
1920x1440 4AAA/16AF -> 67 FPS

8.37.42
1920x1440 4AA/16AF -> 67 FPS
1920x1440 4AAA/16AF -> 66 FPS



Benches:

COD 2: Techpowerup Timedemo *D-Day*
HL2 Lost Coast: Stress Test
CSS: Stress Test
TDU: Savegame, siehe Benchthread von TDU
BF2: selbstausgesuchtes Savegame mit Vegetation
Stalker: selbsterstellte Timedemo aus der 1. Map
FEAR: integrierter Performancetest

MartinRiggs
2007-05-21, 12:08:49
Danke Wesker, die HD2900Xt ist gar nicht so schlecht wie sie gemacht wird.
Leider wollen einige Deppen das nicht einsehen bzw. reden die Karte unnötig schlecht.

Gast
2007-05-21, 12:13:16
Danke Wesker, die HD2900Xt ist gar nicht so schlecht wie sie gemacht wird.
Leider wollen einige Deppen das nicht einsehen bzw. reden die Karte unnötig schlecht.Selbst ATI sieht ein, dass der R600 schrottig ist und bescheißt mit EATM anstatt AAA im Treiber. Ich weiß auch nicht, was die Fanatiker am R600 noch schön reden wollen. Die Karte ist einfach crap, eine 8800 ist in jeder Hinsicht überlegen, sei es Bildqualität, Performance oder Treiberqualität.

InsaneDruid
2007-05-21, 12:27:26
Leider für die Tonne der Test, da übertaktete Karten.

Gast
2007-05-21, 12:32:41
Leider für die Tonne der Test, da übertaktete Karten.

Ja, nur das bei den nV-Karten ein voltmod gemacht wurde, und bei R600 noch nicht.

Hauwech
2007-05-21, 12:33:29
Leider für die Tonne der Test, da übertaktete Karten.

Für die Tonne würde ich nicht unbedingt sagen, aber ich kann mir vorstellen, das die GTX mit einem neueren Treiber noch hier und da ein wenig zulegen kann. Das verfälscht das Bild ein bisschen aber trotzdem, selbst mit den Übertaktungen sieht die 88GTS selbst mit neuerem Treiber meist nicht so rosig aus. Dafür ist sie halt günstiger in der Anschaffung.

A.Wesker
2007-05-21, 12:34:10
Leider für die Tonne der Test, da übertaktete Karten.
mich interessieren eben nur die übertakteten Karten, da sich in dem Fall das Bild komplett ändert, da auf Standardtakt oft die Füllrate limitiert. Habe teilweise Geschwindigkeitszuwächse von 70-100 % (3DMark 2003 1920x1200 8AA/16AF) durchs übertakten.

Gast
2007-05-21, 12:36:19
Habe teilweise Geschwindigkeitszuwächse von 70-100 % (3DMark 2003 1920x1200 8AA/16AF) durchs übertakten.Wie soll das funktionieren? Um 70-100 % mehr Leistung zu bekommen, müsstest du die Karte auch um 70-100 % übertakten, was ich für unrealistisch halte.

Daredevil
2007-05-21, 12:44:29
Wenn die Füllrate der limitierende Faktor ist, wieso nicht?
Eine gts 640 kann im gegensatz zur gts 320 auch um ein vielfaches schneller sein, in dem Fall Limitiert aber halt der RAM.
Zudem geht Wesker da schon neutral ran, ich glaub ihm wenn er das sagt.

A.Wesker
2007-05-21, 12:46:21
Wie soll das funktionieren? Um 70-100 % mehr Leistung zu bekommen, müsstest du die Karte auch um 70-100 % übertakten, was ich für unrealistisch halte.
Das kommt zustande, weil zb. in dem Szenario die Füllrate limitiert. Diese steigt mit 890 MHz Coretakt stark an, sodass sie kein "Hindernis" mehr darstellt. Bei CoD 2 hingegen limitiert bei 4AA/16AF der Vram, da kann ich übertakten was ich will.

Edit: Daredevil war schneller :>

Gast
2007-05-21, 12:47:04
Wenn die Füllrate der limitierende Faktor ist, wieso nicht?Auch wenn die Füllrate limitiert, brauchst du für 70 % Mehrleistung [i]mindestens[i] einen 70 % höheren Takt. Anders gehts nicht.

Gast
2007-05-21, 12:57:58
Auch wenn die Füllrate limitiert, brauchst du für 70 % Mehrleistung [i]mindestens[i] einen 70 % höheren Takt. Anders gehts nicht.

Eben. Selsbt wenn du zu 100% die Füllrate limitiert, baruchst du für 70% mehr Leistung mind. 70% mehr Füllrate, und damit 70% mehr Takt. Das lernt man eigentlich in der Grundschule.

Odal
2007-05-21, 12:58:03
Leider für die Tonne der Test, da übertaktete Karten.


sehe ich genau andersherum....wenn ich mir hardware kaufe versuch ich auch gleich das optimum herauszuholen....

und wenn es z.b. ne 7900gs als overclockwunder ist dann interessieren mich ja auch die default werte nicht, da die karte einfach unter ihrer möglichen leistung läuft

wichtig für mich ist was sie kann und nicht was der hersteller damit gemacht hat......

aber leute die nicht übertakten für die sind die tests sicher auch nicht so interessant

eine 8800GTX (mal LE bezeichnet) mit 200/200 takt ist für mich auch um einiges mehr wert als eine 8600GTS

Gast
2007-05-21, 12:59:45
mich interessieren eben nur die übertakteten Karten, da sich in dem Fall das Bild komplett ändert, da auf Standardtakt oft die Füllrate limitiert. Habe teilweise Geschwindigkeitszuwächse von 70-100 % (3DMark 2003 1920x1200 8AA/16AF) durchs übertakten.

Die Leistung skaliert linear mit dem Takt - du kannst keine überproportionale Leistungssteigerung zur Taktfrequenz erreichen.

A.Wesker
2007-05-21, 13:05:32
Die Leistung skaliert linear mit dem Takt - du kannst keine überproportionale Leistungssteigerung zur Taktfrequenz erreichen.
mag bei CPUs so sein, bei Grafikkarten keinesfalls!

InsaneDruid
2007-05-21, 13:06:58
sehe ich genau andersherum....wenn ich mir hardware kaufe versuch ich auch gleich das optimum herauszuholen....

und wenn es z.b. ne 7900gs als overclockwunder ist dann interessieren mich ja auch die default werte nicht, da die karte einfach unter ihrer möglichen leistung läuft

wichtig für mich ist was sie kann und nicht was der hersteller damit gemacht hat......

aber leute die nicht übertakten für die sind die tests sicher auch nicht so interessant

eine 8800GTX (mal LE bezeichnet) mit 200/200 takt ist für mich auch um einiges mehr wert als eine 8600GTS

Wenn man einen solchen Test als Antwort auf die Aussage/Frage/Anmache (zutreffendes ankreuzen) Eine Karte mit ca. 60% mehr Bandbreite sollte beim Einsatz von AA nicht auf GTS Niveau herumkrebsen. Man kann sich das zwar mit dem Preis einreden, dass dieses Niveau ausreiche, aber schließt das AA Problem eben nicht. gibt, dann ist sie für die Tonne.

mag bei CPUs so sein, bei Grafikkarten keinesfalls!

Grafikkarten setzen sich also über Naturgesetze hinweg? Respekt!

Vertigo
2007-05-21, 13:12:51
Grafikkarten setzen sich also über Naturgesetze hinweg? Respekt!
Naturgesetze? Wenn ein Engpass entfernt wird und somit nicht mehr limitieren kann, sind überproportionale Output-Steigerungen sehr wohl möglich. Siehe Vergleich 256MB vs. 512MB VRAM bzw. 320MB vs. 640MB bei 8800GTS. Auch da sind die größeren Modelle im Extremfall mehr als doppelt so schnell. Das Bsp. passt jetzt nicht ganz, okay. Aber eine GPU ist so komplex, dass da sehr wohl nichtlineare Zusammenhänge bestehen.

dildo4u
2007-05-21, 13:15:13
Der Ram Menge vs Takt Vergleich ist so lächerlich das es schon weh tut.

James Ryan
2007-05-21, 13:16:10
Naturgesetze? Wenn ein Engpass entfernt wird und somit nicht mehr limitieren kann, sind überproportionale Output-Steigerungen sehr wohl möglich. Siehe Vergleich 256MB vs. 512MB VRAM bzw. 320MB vs. 640MB bei 8800GTS. Auch da sind die größeren Modelle im Extremfall mehr als doppelt so schnell.

Wenn ein Engpass um 10% erhöht wird, kann also eine Steigerung von 50% auftreten... alles klar! :rolleyes:

MfG :cool:

InsaneDruid
2007-05-21, 13:17:09
Uh, das sind aber mehr als 2Paar Schuhe. Der Unterschied zwischen 320/640er karten geht auf den Unterschied im Speed RAM@Mainboard und Ram@Grafikkarte zurück, und der ist exorbitant, und deutlich größer als der FPS Unterschied.

Durch eine Taktsteiegrung kann eine - wie auch immer geartete - Limitierung ja nur maximal um die Taktsteigerung vermindert werden. 20% mehr Takt lockert dann eine Füllratenlimitierung auch nur um 20%, und niemals um 100%.

Mr. Lolman
2007-05-21, 13:20:39
Eben. Selsbt wenn du zu 100% die Füllrate limitiert, baruchst du für 70% mehr Leistung mind. 70% mehr Füllrate, und damit 70% mehr Takt. Das lernt man eigentlich in der Grundschule.

So ein Blödsinn. Taktänderungen bei komplexen GPUs haben keine lineare Abhängigkeit. Das funktioniert nur bei stetigen Systemen, welche GPUs nunmal nicht sind:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3561756&postcount=1355
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3558952&postcount=1217
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3562299&postcount=1382

tombman
2007-05-21, 13:21:21
Bei 1920x1200 4AA/16AF:


- Call of Duty 2 (~ GTS Niveau)
- Call of Juarez (~ 10 % langsamer als die GTX)
- Far Cry (leicht schneller als die GTS)
- Lost Planet (ca 10 % langsamer als die GTS)
- HL2 Lost Coast (~20 % langsamer als die GTS)
- Stalker (5-10% langsamer als die GTX)
- Test Drive Unlimited (leicht schneller als die GTX)
- Flatout 2 (ca 15 % schneller als die GTX)
- Oblivion ( ~ GTX)
- Battlefield 2 (~ 10 % schneller als die GTX)
- FEAR ( ~GTS)


so da haben wir 11 Spiele:

-> 4x schneller oder gleichschnell wie die GTX (~36 %)
-> 5x schneller oder gleichschnell wie die GTS (~45%)
-> 2x langsamer als die GTS (~18 %)

Ich sehe hier nur 3x leicht "schneller" als die GTX, und das mit overclockten Karten, die die Masse ned interessieren.
Das schlimmste Verbechen ist aber das da:
8800 GTX... Forceware 97.92 !!!
Wenn schon, dann bitte mit dem neuesten Treiber testen und ned mit einem URALT <100er Treiber :rolleyes:

Der R600 ist doch sowieso schon eine Totgeburt zum jetzigen Zeitpunkt. ATI weiß, daß der R600 Probleme hat und wird so schnell wie möglich den R650 raushauen, der es, laut Fuad, ja dann richten wird :)

Zum Experimentieren ist er ja ganz nett, aber die meisten user müssen aufs Geld schauen und auf Investitionssicherheit, und da taugt der R600 nix.

Gast
2007-05-21, 13:58:42
Jup, is wie mit der 1800er damals. Frag mich nur, warum ATI sowas trotzdem produziert, um dann paar Wochen später nen neuen CHIP zu bringen.

[dzp]Viper
2007-05-21, 14:03:10
Jup, is wie mit der 1800er damals. Frag mich nur, warum ATI sowas trotzdem produziert, um dann paar Wochen später nen neuen CHIP zu bringen.

Warum sollten sie das nicht machen? So können sie immerhin noch etwas Geld in die Kassen bekommen als wenn sie garnichts produzieren würden....

mapel110
2007-05-21, 14:04:27
Jup, is wie mit der 1800er damals. Frag mich nur, warum ATI sowas trotzdem produziert, um dann paar Wochen später nen neuen CHIP zu bringen.
Man will doch auch noch Midrange und low range Produkte auf den Markt bringen, und dazu braucht man ein Zugpferd. Wer schaut sich schon Benchmarks an, wo die ersten 3-5 Balken nvidia gehören und kauft dann ATI?!

Gast
2007-05-21, 14:04:53
natürlich sind GPUs so komplex, dass sie nicht linear mit dem takt skalieren. genauer lautet die aussage jedoch, "GPUs sind so komplex, dass sie bestenfalls linear mit dem takt skalieren".
aufgrund von synchronisation (latenzwartezeiten etc.) der einheiten kann es passieren, dass die leistung unregelmässig mitskaliert. aber niemals in solchen ausmassen, wie hier beschrieben.
da könnt ihr jetzt auch mit irgendwelchen dubiosen erklärungen kommen, wo seltsame phänomene nachgewiesen und "wissenschaftlich" erklärt wurden. es bleibt nonsense.

tombman
2007-05-21, 14:12:08
jo, wenn sich die Gesamtleistung eines Systems aus Teilsystemen zusammensetzt, und wenn man dann eines oder meherer Teilsysteme um Faktor X beschleunigt, dann ist es unmöglich, daß sich das gesamte System um mehr als Faktor X beschleunigt.

up¦²
2007-05-21, 14:13:17
Ich sehe hier nur 3x leicht "schneller" als die GTX, und das mit overclockten Karten, die die Masse ned interessieren.
Das schlimmste Verbechen ist aber das da:

Wenn schon, dann bitte mit dem neuesten Treiber testen und ned mit einem URALT <100er Treiber :rolleyes:

Der R600 ist doch sowieso schon eine Totgeburt zum jetzigen Zeitpunkt. ATI weiß, daß der R600 Probleme hat und wird so schnell wie möglich den R650 raushauen, der es, laut Fuad, ja dann richten wird :)

Zum Experimentieren ist er ja ganz nett, aber die meisten user müssen aufs Geld schauen und auf Investitionssicherheit, und da taugt der R600 nix.

Ich würde erst mal den nächsten Treiber abwarten und: den dx10/CoH-patch :wink:
Totgesagte leben manchmal länger...
Falls sich rausstellen sollte, daß weder die r600 noch die g80 zum dx10-eyecandymode taugen, wäre die Pleite allerdings komplett ...

Odal
2007-05-21, 14:19:06
naja auf längere sicht werden auch weder R600 noch G80 für DX10 eyecandy mode taugen sondern frühstens der refresh

da COH ja schon ein 3/4 jahr alt ist wirds da für DX10 eye candy wohl noch reichen....

Coda
2007-05-21, 14:20:24
So ein Blödsinn. Taktänderungen bei komplexen GPUs haben keine lineare Abhängigkeit. Das funktioniert nur bei stetigen Systemen, welche GPUs nunmal nicht sind:
Alle Jahre wieder. Dann müsste jede Generation der Leistungsanstieg bei ungefähr doppelter Rohleistung aber mehr als 100% sein. Ist aber nicht so und wird auch nie so sein.

Kompletter Bullshit. Bestes Beispiel: Die 7800 GTX 512 und die 8800 Ultra. Wo gibt's da in irgend nem Benchmark übermäßige Leistungsteigerungen?

Computerbase 8800 Ultra vs. GTX: 6% mehr Coretakt, 12% mehr Shadertakt und 20% mehr Speichertakt. Ergebnis: 9% mehr Leistung im Durchschnitt. Sehr übermäßig.

A.Wesker
2007-05-21, 14:20:34
Wenn ein Engpass um 10% erhöht wird, kann also eine Steigerung von 50% auftreten... alles klar! :rolleyes:

MfG :cool:

wenn der limitierende Faktor bei + 5 % liegt ja.

Coda
2007-05-21, 14:21:11
wenn der limitierende Faktor bei + 5 % liegt ja.
Bei "+5%"? Was?

tombman
2007-05-21, 14:21:54
wenn der limitierende Faktor bei + 5 % liegt ja.
das erklär mal ...

Wenn ein limitierendes Teilsystem pimpem das Gesamtsystem mehr als linear beschleunigen könnte, dann müßte man nur einen Wagen bauen mit 100 Minimotoren, jeden Motor 10% tunen und hätte ein Auto was 1000% speed hat :ugly:

Coda
2007-05-21, 14:35:53
8800GTS, 8800GTS overclocked, Prozent Steigerung:

Core: 500, 575, 15%
Shader: 1200, 1510, 25%
RAM: 800, 900, 13%

Durchschnittlicher Performancegewinn: 17%

7800GTX, 7800 GTX 512, Prozent Steigerung:

Core: 430, 550, 27%
RAM: 600, 850, 41%

Durchschnittlicher Performancegewinn: 25%

Soll ich auch noch für ATI was raussuchen?

Gast
2007-05-21, 14:37:51
jo, wenn sich die Gesamtleistung eines Systems aus Teilsystemen zusammensetzt, und wenn man dann eines oder meherer Teilsysteme um Faktor X beschleunigt, dann ist es unmöglich, daß sich das gesamte System um mehr als Faktor X beschleunigt.


Das bestreitet ja auch niemand. Das Problem ist, dass manche nicht einsehen wollen, dass keine Leistungssteigerung auftreten kann, die höher ist als die Taktsteigerung.

Coda
2007-05-21, 14:39:52
X1800XL, X1800XT, Prozent Steigerung

Core: 500, 625, 25%
RAM: 500, 750, 50%

Durchschnittlicher Performancegewinn: 24% (maximal 35% in Villagemark)

Gast
2007-05-21, 14:42:02
wenn der limitierende Faktor bei + 5 % liegt ja.

Das Problem, das du nicht verstehen willst, ist, dass du mit einer Taktsteigerung den limitierenden Faktor innerhalb der Garfikkarte nicht verschieben kannst. Du kannst höchstens den Flaschenhals von der GPU-Leistung auf die Speicherbandbreite oder auf die CPU schieben. Duch die höhere Bildrate, die berechnet wird, bleibt der Flaschenhals im selben Maße bestehen.

tombman
2007-05-21, 14:42:24
Das bestreitet ja auch niemand. Das Problem ist, dass manche nicht einsehen wollen, dass keine Leistungssteigerung auftreten kann, die höher ist als die Taktsteigerung.
Ich weiß, aber viele denken sicher: Naja, einige Einheiten warten nur darauf, daß sozusagen ein "Startschuß" kommt, der bei xyz Mhz erfolgt, und DANN fangen sie an zu rennen während sie vorher nix gemacht haben, ergo mehr als linear ;)

Eine Grafikkarte ist aber kein biologisches Schwellensystem ;)

James Ryan
2007-05-21, 14:50:32
Ich weiß, aber viele denken sicher: Naja, einige Einheiten warten nur darauf, daß sozusagen ein "Startschuß" kommt, der bei xyz Mhz erfolgt, und DANN fangen sie an zu rennen während sie vorher nix gemacht haben, ergo mehr als linear ;)

Eine Grafikkarte ist aber kein biologisches Schwellensystem ;)

Hehe, sehr schön auf den Punkt gebracht!

MfG :cool:

AnarchX
2007-05-21, 14:56:15
Wenn ich die GPU und somit den Speicherkontroller um x übertakte und dann auch noch den Speicher um y, könnte es in entsprechenden Szenen doch durchaus zu einer Steigerung von:

s = a*x+b*y mit s > max(x,y)

... kommen.

Wohlmöglich kann dieser Zusammenhang, wenn auch schwer verständlich, auch auf andere Zusammenhänge in der GPU übertragen werden.

Aber natürlich halte ich die 70-100% von A.Wesker auch etwas übertrieben.

A.Wesker
2007-05-21, 15:07:59
Aber natürlich halte ich die 70-100% von A.Wesker auch etwas übertrieben.

jo ein wenig übertrieben war die Leistungssteigerung, gemessen 28.6 FPS und 41.8 FPS. Hatte nur die 2x FPS und die 4x FPS im Kopf, aber hier noml der genaue Vergleich.

Default:

http://img245.imageshack.us/img245/4158/defaultnature2003uh0.th.jpg (http://img245.imageshack.us/my.php?image=defaultnature2003uh0.jpg)

890/975

http://img245.imageshack.us/img245/5923/bertaktetnature2003go2.th.jpg (http://img245.imageshack.us/my.php?image=bertaktetnature2003go2.jpg)





Settings sind übrigens: 1920x1200 16xTAAA Widetent/16AF

Coda
2007-05-21, 15:20:03
Wenn ich die GPU und somit den Speicherkontroller um x übertakte und dann auch noch den Speicher um y, könnte es in entsprechenden Szenen doch durchaus zu einer Steigerung von:

s = a*x+b*y mit s > max(x,y)

... kommen.
Nein. Denkfehler. Wenn die GPU um 20% Takterhöht wird wirft sie potentiell 20% schneller Daten in den Speicher. Wenn dieser bei gleichem Takt bleibt ist die Leistungssteigerung also <20%. Wenn man diesen dann auch um 20% erhöht ist man genau bei 20% im Gesamtsystem.

AnarchX
2007-05-21, 15:32:02
Und wie erklärst du dir dann die zahlreichen Beobachtungen, dass es zu einer Performance-Steigerung kommt, die höher ist als die die höchste Takterhöhung?

LovesuckZ
2007-05-21, 15:41:25
Default:

http://img245.imageshack.us/img245/4158/defaultnature2003uh0.th.jpg (http://img245.imageshack.us/my.php?image=defaultnature2003uh0.jpg)

890/975

http://img245.imageshack.us/img245/5923/bertaktetnature2003go2.th.jpg (http://img245.imageshack.us/my.php?image=bertaktetnature2003go2.jpg)
Settings sind übrigens: 1920x1200 16xTAAA Widetent/16AF

Gleichen Treiber verwendet? Das sieht mir eher nach einem AAA-EATM gegen AAA-SS Vergleich aus.

Gast
2007-05-21, 15:44:10
das kann viele begründungen haben, z.b. taktstufen (ähnlich bei der 7er geforce), treiber-, hardware-, anwender-, konfigurationsfehler. jedenfalls lässt es sich nicht durch eure theorie erklären, weil sie halt einfach gegen die gesetze der logik verstösst.

Daredevil
2007-05-21, 15:47:45
Kann das leider gerade nicht nachvollziehen in der hohen Taktrate, hab aber mal kleinere Tests gemacht in dem gleichen Setting wie Wesker.
Scheis Stromkabel wurd immernoch nicht geliefert :(

Nature 3DMark 2003

648,00/648,00 --- 24,50 FPS

+22% Leistung bei +28% Core und 26% Ramtakt

506,25/513,00 --- 20,01 FPS

+15% Leistung bei +25% Core und 25% Ramtakt

405,00/410,50 --- 17,40 FPS

A.Wesker
2007-05-21, 15:49:34
Gleichen Treiber verwendet? Das sieht mir eher nach einem AAA-EATM gegen AAA-SS Vergleich aus.

jo beide Male den 8.37.42er. Der 42er bietet meines Wissens nach kein AAA-SS an.

Bei Far Cry konnte ich eine 29 %tige Steigerung feststellen (1920x1200 8AAA/16AF), Cod 2 bewegt sich bei 1-2 % (Vram?).
Im Durchschnitt gibt es eine Performancesteigerung von 15-20 %.

LovesuckZ
2007-05-21, 15:51:57
jo beide Male den 8.37.42er. Der 42er bietet meines Wissens nach kein AAA-SS an-

Nun, ich denke, da gab es wohl ein Problem mit den Einstellungen. Den dein Leistungsgewinn steht in keiner Relation und ist von etwas anderen abhängig - von EATM zum Beispiel.

Coda
2007-05-21, 15:53:03
Und wie erklärst du dir dann die zahlreichen Beobachtungen, dass es zu einer Performance-Steigerung kommt, die höher ist als die die höchste Takterhöhung?
Ich hab dir gerade eben von 4 Karten Messwerte gezeigt, wo nirgends irgendwas übermäßig ist.

Und erklären kann ich mir das nicht und ich glaube die Werte auch nicht bevor sie mir einer selber direkt demonstriert und ich dabei bin. Bei meinen Übertaktungsversuchen konnte ich das nie nachvollziehen.

Wie gesagt hätten wir dann expontielles statt lineares Performancewachstum über die GPU-Kartengenerationen hinweg weil jedes Mal Speicher- und GPU-Takt erhöht wird. Ich sehe nichts davon.

reunion
2007-05-21, 17:47:08
Und wie erklärst du dir dann die zahlreichen Beobachtungen, dass es zu einer Performance-Steigerung kommt, die höher ist als die die höchste Takterhöhung?

Ich verstehe nicht, wie man darüber überhaupt immer wieder diskutieren kann. Im R520-Thread habe ich glaube ich mindestens zehn Seiten vollgeschrieben, und noch immer wollten es mache nicht glauben, Grestorn ebenso. Ein Computer kann - wie jedes andere geschlossene System - maximal um so viel schneller werden, um wieviel ein limitierender Faktor schneller wird. Da kann man nichts addieren, multiplizieren, etc. - das ist simpelste Logik.

AnarchX
2007-05-21, 17:57:55
Ich verstehe nicht, wie man darüber überhaupt immer wieder diskutieren kann. Im R520-Thread habe ich glaube ich mindestens zehn Seiten vollgeschrieben, und noch immer wollten es mache nicht glauben, Grestorn ebenso.

Weil eben diese sonderbaren Steigerungen auch bei aktuellen Karten auftreten. ;)

Wie sie nun enstehen ist wohl bei weitem nicht mit simpler Logik und mal kurz darüber nachdenken zu erklären, da hier doch einige komplexe Systeme mit spezifischen Eigenheiten aufeinandertreffen.

Moralelastix
2007-05-21, 18:04:53
Zeig mal genau wo das passieren soll?

Würd ich mal gerne selbst prüfen.

Für den Fall das es nur bei bestimmten Spielen und dort nur in bestimmten Situationen passiert spricht es doch eher für einen Bug, oder?

Möglicherweise gibt es auch mehrere Flaschenhälse in besonderen Situationen.

Was sagt denn dieses NV Analyse Tool(nvperfkit) dazu? Gibts da von ATI was vergleichbares?

reunion
2007-05-21, 18:07:30
Weil eben diese sonderbaren Steigerungen auch bei aktuellen Karten auftretten. ;)


Nein, die treten nicht auf, weil sie gar nicht auftreten können. Warum soetwas trotzdem auftritt, kann viele Gründe haben. Ich zitiere den Gast ein paar Beiträge über mir: "taktstufen (ähnlich bei der 7er geforce), treiber-, hardware-, anwender-, konfigurationsfehler, etc."

Wie sie nun enstehen ist wohl bei weitem nicht mit simpler Logik und mal kurz darüber nachdenken zu erklären, da hier doch einige komplexe Systeme mit spezifischen Eigenheiten aufeinandertreffen.

Die Komplexität des Systems ist irrelevant, da die Leistung immer nur max. soweit skalieren kann, wie dies des Beschleunigung einer Komponente des Systems entspricht - alles andere wäre Zauberei.


Möglicherweise gibt es auch mehrere Flaschenhälse in besonderen Situationen.


Auch das ändert nichts daran. Wenn du 50% von der einen und 50% von der anderen Komponente limitiert bist, dann bringt das beschleunigen der einen Komponente um 10% eben keine 10% Mehrleistung, weil du dann nur noch weiter von der zweiten abhängig bist. Nur wenn du beide Komponenten gleichmäßig um den selben Prozentsatz beschleunigst (und die Leistung von keiner anderen Komponente abhängt) kannst du erwarten, dass die Gesamtleistung um genau den Betrag steigt, um den du die einzelnen Komponenten beschleunigt hast.

Moralelastix
2007-05-21, 18:26:28
Und was ist dann das?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3562299&postcount=1382

Gibts dazu auch aktuelle Beispiele?

Coda
2007-05-21, 18:28:37
Bei so niedrigen FPS ist die Messungenauigkeit viel zu hoch.

Das mit dem Speichercontroller mag zwar sein, hat aber wenn man beide Takte gleichmäßig erhöht keine Auswirkungen.

Moralelastix
2007-05-21, 18:34:09
Zitat von Crushinator
Du sagst es: "bei stetigen Systemen"
Da wir nicht wissen, ob durch die Takterhöhungen auf einmal ganz viele Wartezyklen überflüssig werden oder gar eine angenommene Sprungvorhersage besser zuschlägt, können wir nicht davon ausgehen daß es so stetig ist.

reunion
2007-05-21, 18:42:43
Zitat von Crushinator
Du sagst es: "bei stetigen Systemen"
Da wir nicht wissen, ob durch die Takterhöhungen auf einmal ganz viele Wartezyklen überflüssig werden oder gar eine angenommene Sprungvorhersage besser zuschlägt, können wir nicht davon ausgehen daß es so stetig ist.

Der Takt kann nichts an der Effektivität oder der Effizienz eines Systems ändern, da er nur vorgibt, wie schnell etwas abgearbeitet werden soll. Es können deshalb keine "Wartezyklen überflüssig" werden, oder "Sprungvorhersage besser zuschlagen", da sich am System selbst gar nichts ändert, es wird nur die relative Zeitdauer verkürzt, bis ein Ergebnis vorliegt. Und diese Zeitdauer verhält sich logischerweise proportional zur Taktfrequenz.

Moralelastix
2007-05-21, 18:45:04
Könnte doch DK777 mal den obigen 3Dmark03 mit seiner 9800 benchen.

Dem glaubt doch wohl jeder hier?

Mr. Lolman
2007-05-21, 19:23:18
Ihr werdet Demirug doch nicht Lügen strafen wollen, oder? Eben! Überproportionale Leistungssteigerungen sind möglich. Punkt!

Nein. Denkfehler. Wenn die GPU um 20% Takterhöht wird wirft sie potentiell 20% schneller Daten in den Speicher. Wenn dieser bei gleichem Takt bleibt ist die Leistungssteigerung also <20%. Wenn man diesen dann auch um 20% erhöht ist man genau bei 20% im Gesamtsystem.

Hast du dich nicht schon vor 1.5 Jahren in die gleiche Diskussion eingemischt gehabt? Und letztendlich unrecht behalten?

Coda
2007-05-21, 19:31:49
Ihr werdet Demirug doch nicht Lügen strafen wollen, oder? Eben! Überproportionale Leistungssteigerungen sind möglich. Punkt!
Sind sie nicht. Das bisschen was er da mit dem Speichercontroller meinte würde nie solche Ergebnisse erklären. Punkt!

Hast du dich nicht schon vor 1.5 Jahren in die gleiche Diskussion eingemischt gehabt? Und letztendlich unrecht behalten?
Hab ich nicht, denn:

Wie gesagt hätten wir dann expontielles statt lineares Performancewachstum über die GPU-Kartengenerationen hinweg weil jedes Mal Speicher- und GPU-Takt erhöht wird. Ich sehe nichts davon.
Wer das nicht einsehen will hat was am Hirn.

EOD.

Mr. Lolman
2007-05-21, 19:34:31
Sind sie nicht. Das bisschen was er da mit dem Speichercontroller meinte würde nie solche Ergebnisse erklären. Punkt!


Hab ich nicht.

EOD.

EOD sagen die, die keine Argumente mehr haben ;)

Meinst du, das Wesker Ergebnisse faked? Vll. hat er sich ja mit den Leuten von Digitlife zusammen getan, die ja, deiner Meinung nach, auch die Ergebnisse eines gesamten Reviews gefaked haben müssen....


Wie gesagt hätten wir dann expontielles statt lineares Performancewachstum über die GPU-Kartengenerationen hinweg weil jedes Mal Speicher- und GPU-Takt erhöht wird. Ich sehe nichts davon.

Wer das nicht einsehen will hat was am Hirn.

EOD.


Vll. wurde der Speicherkontroller für höhere Taktraten designed. Taktraten, die sie letztenendes nicht erreicht haben...

Wer in einer technischen Diskussion persönlich wird, ist armselig im Geiste. EOD!

Coda
2007-05-21, 19:37:51
EOD sagen die, die keine Argumente mehr haben ;)
Nein, ich hab nur keinen Bock mehr auf lernresistente Leute, die nichts hinterfragen.

Meinst du, das Wesker Ergebnisse faked?
Nein, ich glaube dass sie einfach nicht stimmen und aus irgendwelchen Gründen nicht die reine GPU-Leistung gemessen wird.

Es ist ganz bestimmt nicht die GPU die zu diesem Verhalten führt.

Vll. wurde der Speicherkontroller für höhere Taktraten designed. Taktraten, die sie letztenendes nicht erreicht haben...
Wenn beide Taktdomänen um 20% erhöht werden ändert sich rein gar nichts an den Schaltvorgängen und auch nichts an den Verhältnissen. Sie sind nur um exakt 20% schneller. Aber das willst du ja auch nicht begreifen.

Wer in einer technischen Diskussion persönlich wird, ist armselig im Geiste. EOD!
Ich bitte darum. Soll sich jeder sein eigene Meinung bilden, die Argumente wurden zur Genüge ausgetauscht.

Mr. Lolman
2007-05-21, 19:41:31
Nein, ich hab nur keinen Bock mehr auf lernresistente Leute, die nichts hinterfragen.

Das Gefühl hab ich eher bei dir. Was nicht sein darf, dass kann nicht sein...


Nein, ich glaube dass sie einfach nicht stimmen aus irgendwelchen Gründen.

Es ist ganz bestimmt nicht die GPU die zu diesem Verhalten führt.

Und was ist mit den Digitlife Ergebnissen? Und div. andere Beobachtungen im Forum? Alles Fehler? Eine Grafikkarte ist kein stetiges System, deswegen kann es auch Inkongruenzen zw. Takterhöhung und tasächlichen Leistungssteigerungen geben.

Demi wird wohl wissen wovon er spricht. Und hätte ich damals unrecht behalten, wär ich wohl von ihm ausgebessert worden!


Wenn beide Taktdomänen um 20% erhöht werden ändert sich rein gar nichts an den Schaltvorgängen und auch nichts an den Verhältnissen. Sie sind nur um exakt 20% schneller. Aber das willst du ja auch nicht begreifen.


Ja, dann komm ich wieder mit meinem kleinen Diagramm, das das Gegenteil zeigt, und dein Gegenargument sind die Fifos. Ich weiss schon ;)

Coda
2007-05-21, 19:45:20
Eine Grafikkarte ist kein stetiges System, deswegen kann es auch Inkongruenzen zw. Takterhöhung und tasächlichen Leistungssteigerungen geben.
Die Grafikkarte ist ein stetiges System.

Wir haben nirgends exponentiellen Leistungssteigerungen. Eine GPU mit 10x Füllrate und 10x Speicherbandbreite ist auch maximal 10x so schnell. Das siehst du in jedem Generationenvergleich. Widerspruch. Q.e.d.

Und ich hab jetzt in diesem Thread schon von 4 Karten gezeigt, dass es nicht so ist. Es ist alles schön maximal linear.

Wenn du Fachmeinung dazu willst, dann frag Dave Baumann oder irgendjemanden sonst der bei ATi oder nVIDIA arbeitet, die werden dir das gleiche erzählen.

Moralelastix
2007-05-21, 19:48:10
@Mr. Lolman

Könnte man nicht hier mal einen konkreten Benchmark ganau analysieren?

Mit Tools wie dem nvperfkit z.B.?

Dann müsste sich doch relativ einfach herausfinden lassen wo der Hund begraben ist?

Mr. Lolman
2007-05-21, 19:49:05
Die Grafikkarte ist ein stetiges System.

Wir haben nirgends exponentiellen Leistungssteigerungen. Eine GPU mit 10x Füllrate und 10x Speicherbandbreite ist auch 10x so schnel. Das siehst du in jedem Generationenvergleich. Widerspruch. Q.e.d.

Ein Transistor selbst bildet schon kein stetiges System. Das wird dir jeder Elektrotechniker im 1. (oder 2.?) Semester bestätigen können. Wie sollen dann 700 Mio. Transistoren ein stetiges System bilden können?


Und ich hab jetzt in diesem Thread schon von 4 Karten gezeigt, dass es nicht so ist. Es ist alles schön maximal linear.


Und wenn ich dir einen einzigen Benchmark bring, der das Gegenteil beweist, zeigt das, dass du unrecht hast ;)

Coda
2007-05-21, 19:49:18
Könnte man nicht hier mal einen konkreten Benchmark ganau analysieren?
Wenn mir jemand einen Benchmark gibt der das Verhalten auf einer 8800 GTS zeigt, dann würde ich das sogar machen um den Schwachsinn endlich auszuräumen.

Ein Transistor selbst bildet schon kein stetiges System.
In einer Digitalschaltung sehr wohl. Pro Takt schält er entweder oder nicht. Und erzähl mir nichts von Digitalschaltungen. Ich studier das Zeug und arbeite zeitweise bei einer Firma die Transistorsimulations- und Messsoftware für u.A. AMD herstellt.

Ich kenn die Transistorkurven also in-und-auswendig.

Raff
2007-05-21, 19:50:38
Wenn du Fachmeinung dazu willst, dann frag Dave Baumann oder irgendjemanden sonst der bei ATi oder nVIDIA arbeitet, die werden dir das gleiche erzählen.

Ich weiß, es wirkt schon wieder so "böser Coda, lieber Lolli", aber ich muss letzterem da wieder zustimmen. Dieses Phänomen der überproportionalen Leistungssteigerungen trifft man immer wieder an. Ich führe da gerne meine V3 2000 PCI an, die bei 30% OC auch mal 35-40% mehr Spieledampf abwirft ...

MfG,
Raff

Moralelastix
2007-05-21, 19:50:48
Wenn mir jemand einen Benchmark gibt der das Verhalten auf einer 8800 GTS zeigt, dann würde ich das sogar machen um den Schwachsinn endlich auszuräumen.


In einer Digitalschaltung sehr wohl. Pro Takt schält er entweder oder nicht.


Genau, ein für alle mal.

Coda
2007-05-21, 19:52:07
Problem ist dass das Perfkit gerade noch nicht auf G80 läuft.

Ich weiß, es wirkt schon wieder so "böser Coda, lieber Lolli", aber ich muss letzterem da wieder zustimmen. Dieses Phänomen der überproportionalen Leistungssteigerungen trifft man immer wieder an. Ich führe da gerne meine V3 2000 PCI an, die bei 30% OC auch mal 35-40% mehr Spieledampf abwirft ...
1. Kann das ein Messfehler am FPS-Counter sein. Die PC-Timer können sich manchmal sehr seltsam sein und wenn man's falsch rechnet oder zu viel oder falsch rundet kommt auch Müll raus. Vor allem bei sehr niedrigen FPS muss man da sehr vorsichtig sein.
2. Kann es auch an der Software liegen.

LovesuckZ
2007-05-21, 19:53:42
Ich führe da gerne meine V3 2000 PCI an, die bei 30% OC auch mal 35-40% mehr Spieledampf abwirft ...


Reden wir hier von 100 -> 140 FPS oder von 10 -> 14?

Raff
2007-05-21, 19:55:23
1. Kann das ein Messfehler am FPS-Counter sein. Die PC-Timer können sich manchmal sehr seltsam sein und wenn man's falsch rechnet kommt auch Müll raus. Vor allem bei sehr niedrigen FPS muss man da sehr vorsichtig sein.
2. Kann es auch an der Software liegen.

Nichts ist unmöglich. X-D

Reden wir hier von 100 -> 140 FPS oder von 10 -> 14?

Sowohl als auch. War IIRC u. a. der 3DQuark2000.

MfG,
Raff

AnarchX
2007-05-21, 19:55:26
Wenn mir jemand einen Benchmark gibt der das Verhalten auf einer 8800 GTS zeigt, dann würde ich das sogar machen um den Schwachsinn endlich auszuräumen.


Keine GTS aber immerhin ein G80:

8800 Ultra 1600x1200 4xAA/16xAF FEAR:

6% TMU/ROPs, 7% Shaderdomain, 5% Speicher -> CB hat eine Leistungssteigerung von 8.6% gemessen.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/28/#abschnitt_uebertaktbarkeit

Naja ich würde die Ursache vielleicht nicht nur in der GraKa suchen.
Kann es nicht sein dass es unter gewissen Umständen zu einem optimalen Zustand zwischen CPU, GPU, App, Treiber kommen kann?

Mr. Lolman
2007-05-21, 19:55:38
In einer Digitalschaltung sehr wohl. Pro Takt schält er entweder oder nicht. Und erzähl mir nichts von Digitalschaltungen. Ich studier das Zeug und arbeite zeitweise bei einer Firma die Transistorsimulations und Messsoftware für u.A. AMD herstellt.


Dann wirst du auch sicher schon Analogtechnik auch durchgenommen haben? Hast du irgendwann Messwerte zw. Eigangsstrom und Ausgangsstrom verglichen?

BTW: *Master-of-Benchmark* - Raff gibt mir auch recht.

LovesuckZ
2007-05-21, 19:57:14
Sowohl als auch. War IIRC u. a. der 3DQuark2000.
MfG,
Raff

Screenshots?
Aus meiner Sicht ist dieses "unnatürliche" Verhalten im niedrigen zweistelligen Bereich normal, da der Framecounter einfach nicht so gut UP-TO-DATE ist.

Gast
2007-05-21, 19:57:38
quick 'n dirty mit ATI-Tool (M10 mobility, 320 core 210 mem)

core mem avg fps
~160 ~105 24
~160 ~210 33
~320 ~105 29
320 210 49 (default)

ziemlich genau 50% bei halbem core und halbem speichertakt

noch ein gedanke: man stelle sich ein Setting vor indem sowohl Core als auch Mem am Anschlag sind (Idealerweise unendlich hohe Taktraten ;). Bringt übertakten der einzelnen Komponenten jeweils 10% oder erst das übertakten von beiden?

Coda
2007-05-21, 20:12:40
Dann wirst du auch sicher schon Analogtechnik auch durchgenommen haben?
In einer digitalen CMOS-Schaltung gibt es aber keine analogen Verhaltensmuster. Der Transistor muss in einem Takt komplett durchschalten oder es bleiben lassen. Wenn er etwas anderes tut, dann funktioniert das Ding nicht mehr.

Raff
2007-05-21, 20:15:46
Screenshots?
Aus meiner Sicht ist dieses "unnatürliche" Verhalten im niedrigen zweistelligen Bereich normal, da der Framecounter einfach nicht so gut UP-TO-DATE ist.

http://www.forum-3dcenter.de/vbulletin/showthread.php?t=309539

Wie man sieht, ist das nicht nur bei einem Beispiel der Fall.

MfG,
Raff

Wechselbalg
2007-05-21, 20:26:39
Wäre das Phänomen vielleicht zu erklären, wenn es einen gewissen kleinen Fixbetrag gibt, der immer erst aufgebracht werden muss, ehe weitere Leistung in Bildwiederholrate umgewandelt wird?

Hab jetzt keine Ahnung, ob es so etwas gibt, aber erschiene mir noch als potentielle Erklärung möglich.

Nakai
2007-05-21, 20:27:03
Mir fällt dazu nur Quake mit SLI ein. Es gab eine Leistungssteigerung von über 100% was ansich nicht möglich ist.^^

mfg Nakai

Grestorn
2007-05-22, 11:00:25
Mir fällt dazu nur Quake mit SLI ein. Es gab eine Leistungssteigerung von über 100% was ansich nicht möglich ist.^^

Das ist falsch. Es gibt durch SLI nirgends eine Leistungssteigerung von mehr als 100%.

Ein solchen Phänomen kann immer nur duch eine Messungenauigkeit auftreten.

Beispiel: Ohne SLI messe ich 3 fps, mit SLI 7 fps - eigentlich waren es aber ohne SLI nicht 3 sondern 3,7 fps, was man natürlich bei der Messung nicht auflösen kann!

AtTheDriveIn
2007-05-22, 11:23:46
Es ist nicht möglich das eine Digitalschaltung, in der man ja von außen einen Takt reingibt, um mehr % schneller wird als man den Takt prozentual erhöht hat. Die relativen Zeitabstände intern, bzw. die Anzahl der Flanken bleibt doch gleich.

Wenn eine Digitalschaltung beispielsweise 10 Takte braucht um eine Multiplikation durchzuführen, dann braucht sie das bei 1Mhz genauso wie bei 50Thz. Nach eurer Logik müßte sie ja auf einmal weniger Takte brauchen.

Raff
2007-05-22, 11:35:56
Kennt das schon jemand: http://www.pcgameshardware.de/?article_id=601826?

MfG,
Raff

Gast
2007-05-22, 11:37:02
Kennt das schon jemand: http://www.pcgameshardware.de/?article_id=601826?
MfG,
Raff

Was steht den dort?

=Floi=
2007-05-22, 11:43:26
dass die HD2900 wieder 2 nachteile mehr hat
langsam wird es echt peinlich

selbst als nv fanboy bekommt man da schon mitleid ;D

LovesuckZ
2007-05-22, 11:44:44
dass die HD2900 wieder 2 nachteile mehr hat
langsam wird es echt peinlich


Ein bisschen genauer bitte, da die Seite hier gebannt ist.

James Ryan
2007-05-22, 11:49:42
16 Bit Bildqualität stark abgesenkt und die gleichen Probleme wie die Gf 8800 mit PCI-E 8x.

MfG :cool:

robbitop
2007-05-22, 11:50:26
Was steht den dort?
Im Gegensatz zur vollmundig klingenden Einfuehrung steht dort nicht viel Wesentliches (ausser man zockt damit Spiele, die nur 16 bpp beherrschen).
Das ASRock 775 DualVSTA ist ja bekannt fuer seine mangelhafte PEG Kompatibilitaet.

gbm31
2007-05-22, 11:52:15
sehr schwerwiegende argumente...

ein asrock-mobo, das schon mit dem g80 einige schwierigkeiten hatte und eine etwas schlechtere bildqualität im 16bit modus.

absolute ko-kriterien.

:rolleyes:

StefanV
2007-05-22, 11:59:23
16 Bit Bildqualität stark abgesenkt und die gleichen Probleme wie die Gf 8800 mit PCI-E 8x.

MfG :cool:
PCIe x4 bitteschön!

WÄre schön, wenns 775DUAL-VSTA 8 Lanes hätte, hats aber nicht...

Odal
2007-05-22, 12:03:35
naja sind ja auch immer die selben die sich eigentlich gar nicht für den R600 interessieren sondern blos ab und an mal zum flamen in den Thread schreiben ;) da muss ja immer nach einem strohhalm gesucht werden wo man sich dran festhalten kann....als nächstes kommt vielleicht sowas wie das das PCB aus Ästhetikaspekten unglücklich designt wurde (laut irgendwelchen marktforschungspsychologen und führenden produktdesignern)

MartinRiggs
2007-05-22, 12:15:09
naja sind ja auch immer die selben die sich eigentlich gar nicht für den R600 interessieren sondern blos ab und an mal zum flamen in den Thread schreiben ;) da muss ja immer nach einem strohhalm gesucht werden wo man sich dran festhalten kann....als nächstes kommt vielleicht sowas wie das das PCB aus Ästhetikaspekten unglücklich designt wurde (laut irgendwelchen marktforschungspsychologen und führenden produktdesignern)

Stimmt, besonders J.R ist da Vorbild:rolleyes:
Will sowieso ne GF8 aber den R600 verteufeln wo nur geht, hauptsache ein bissel flamen.
Ist natürlich auch wirklich schlimm das der R600 nicht auf dem schlechtesten Board für Core 2 Duo/Quad läuft.

A.Wesker
2007-05-22, 12:30:28
16 Bit Bildqualität stark abgesenkt und die gleichen Probleme wie die Gf 8800 mit PCI-E 8x.

MfG :cool:

O_o

16bit R600

http://img379.imageshack.us/img379/6717/16gv6.th.jpg (http://img379.imageshack.us/my.php?image=16gv6.jpg)

16 bit R5x0 (von PCGH)

http://img151.imageshack.us/img151/4783/r5x016bit2xg3.th.jpg (http://img151.imageshack.us/my.php?image=r5x016bit2xg3.jpg)


Die BQ wurde ja hammermäßig abgesenkt, fast unspielbar :D

Gast
2007-05-22, 12:34:31
16 Bit Bildqualität stark abgesenkt und die gleichen Probleme wie die Gf 8800 mit PCI-E 8x.Da die GF8 das gleiche Problem mit 16 Bit Farbtiefe haben...
Wie schwer kann es sein, Texturen vor dem Laden in 32 Bit umzuwandeln und das Rendertarget auf 32 Bit aufzublasen? Gibt schließlich noch genug Spiele aus den relevanten Zeiten, die immer noch keine vernünftigen Nachfolger oder Remakes verpasst bekommen haben.

[obligatorisches Einprügeln auf MS]
Gut, manche von denen laufen auf aktuellen BS nicht mehr. Wäre ja zuviel verlangt, wenigstens eine kompatible VM mitzuliefern, wenn man antike SW aus Sicherheitsgründen nicht direkt ausführen will...
Beschränkte Kompatibilität zwischen MS-Produkten gibts ja nicht erst, seit die auch Konsolen bauen.
[/obligatorisches Einprügeln auf MS]

PCGH_Carsten
2007-05-22, 12:36:06
Die Grafikkarte ist ein stetiges System.

Wir haben nirgends exponentiellen Leistungssteigerungen. Eine GPU mit 10x Füllrate und 10x Speicherbandbreite ist auch maximal 10x so schnell. Das siehst du in jedem Generationenvergleich. Widerspruch. Q.e.d.

Und ich hab jetzt in diesem Thread schon von 4 Karten gezeigt, dass es nicht so ist. Es ist alles schön maximal linear.

Wenn du Fachmeinung dazu willst, dann frag Dave Baumann oder irgendjemanden sonst der bei ATi oder nVIDIA arbeitet, die werden dir das gleiche erzählen.


Auch wenn ich solche "Phänomene" noch nicht selbst erlebt habe, kann ich mir schon vorstellen, wie das funktionieren könnte.

Grobes Beispiel:
Bei Taktrate X wird eine Berechnung durchgeführt. Diese dauert Y Nanosekunden. Bis es jedoch in den nächsten Zwischenspeicher geschrieben werden kann, muss die Latenz von sieben Takten gebrückt werden. In meinem Beispiel wird durch Y Nanosekunden aber gerade ein Write-Burst verpasst, sodass nach Beendigung der Berechnung sechs Wartetakte anfallen, in denen die Pipe stillsteht. Danach wird in die Fifos oder sonstworein geschrieben.

Nun übertakte ich die Schaltung und erhöhe X um 10 Prozent. Die Berechnung dauert nur noch 0,91*Y Nanosekunden und ich kann quasi ohne Verzug in den Fifo schreiben, spare zusätzlich zu den 10 Prozent höherer Schaltgeschwindigkeit auch nochmal sechs Takte Latenz.

Klar, bei idealen Designs sind diese Latenzen und Berechnungsdauern optimal aufeinander abgestimmt, aber solche Designs gibt es im Bereich von Millionen Transistoren IMO AFAIK nicht - zumal die meisten Designs ja auch noch mit unterschiedlichen Taktraten verkauft werden ohne dass dabei weitere Interna angepasst werden.

Raff
2007-05-22, 12:38:21
O_o

16bit R600

http://img379.imageshack.us/img379/6717/16gv6.th.jpg (http://img379.imageshack.us/my.php?image=16gv6.jpg)

16 bit R5x0 (von PCGH)

http://img151.imageshack.us/img151/4783/r5x016bit2xg3.th.jpg (http://img151.imageshack.us/my.php?image=r5x016bit2xg3.jpg)


Die BQ wurde ja hammermäßig abgesenkt, fast unspielbar :D

Da hast du ja fein die Rosinen herausgepickt. ;) Schau dir z. B. mal die Wand und den Rauch an. Grauenhaft auf dem R600 ... mit einem scharfen Monitor. Auf einem G80 (bzw. NV40 und darüber) ist es kaum besser.

MfG,
Raff

Odal
2007-05-22, 12:40:47
O_o

16bit R600

http://img379.imageshack.us/img379/6717/16gv6.th.jpg (http://img379.imageshack.us/my.php?image=16gv6.jpg)

16 bit R5x0 (von PCGH)

http://img151.imageshack.us/img151/4783/r5x016bit2xg3.th.jpg (http://img151.imageshack.us/my.php?image=r5x016bit2xg3.jpg)


Die BQ wurde ja hammermäßig abgesenkt, fast unspielbar :D

ich hab zwar nen R580 aber ehrlich gesagt gefällt mir das Bild vom R600 deutlich besser ^^

ausserdem soll man halt 32Bit bei MaxPayne einstellen...ich hab 16Bit Modus seit meiner GeForce256SDR nicht mehr genutzt...zuletzt auf meiner TNT2 (und selbst da hab ich bei Q3 lieber auf 32Bit gestellt auch wenns sehr zäh war wegen dem dithering....)

wie alt müssen spiele sein das man kein 32Bit modus wählen kann? 1998 und älter?

James Ryan
2007-05-22, 12:43:01
Stimmt, besonders J.R ist da Vorbild:rolleyes:
Will sowieso ne GF8 aber den R600 verteufeln wo nur geht, hauptsache ein bissel flamen.
Ist natürlich auch wirklich schlimm das der R600 nicht auf dem schlechtesten Board für Core 2 Duo/Quad läuft.

Ich habe rein der Information halber gepostet was im PCGH Artikel steht weil zwei Leute danach gefragt haben! :mad:
Direkt kommen die FanATIker wieder aus den Löchern gekrochen und müssen den bösen bösen NV-JR lynchen wo es nur geht weil er sowieso die Reinkarnation des Teufels ist. :rolleyes:
Viel Spaß mit euren tollen R600 Karten...

MfG :cool:

Gast
2007-05-22, 12:43:18
16 Bit Bildqualität stark abgesenkt und die gleichen Probleme wie die Gf 8800 mit PCI-E 8x.

MfG :cool:


IMO sieht das aus, als ob unter 16Bit auf dem R600 kein Dithering mehr aktiv ist.

deekey777
2007-05-22, 12:45:20
Ich habe rein der Information halber gepostet was im PCGH Artikel steht weil zwei Leute danach gefragt haben! :mad:
Direkt kommen die FanATIker wieder aus den Löchern gekrochen und müssen den bösen bösen NV-JR lynchen wo es nur geht weil er sowieso die Reinkarnation des Teufels ist. :rolleyes:
Viel Spaß mit euren tollen R600 Karten...

MfG :cool:
Lass mal etwas frische Luft in dein Zimmer und beruhige dich. So ein Ton muss nun wirklich nicht sein.

James Ryan
2007-05-22, 12:55:49
@DK77
solche Postings sind aber ok?

Stimmt, besonders J.R ist da Vorbild:rolleyes:
Will sowieso ne GF8 aber den R600 verteufeln wo nur geht, hauptsache ein bissel flamen.
Ist natürlich auch wirklich schlimm das der R600 nicht auf dem schlechtesten Board für Core 2 Duo/Quad läuft.

Vor allem da ich wirklich kein Wort darüber verloren habe, ob es jetzt schlimm ist oder nicht was die PCGH da herausgefunden hat. Ich habe einfach nur zusammen gefasst was in dem Artikel stand, ohne jeglichen Kommentar meinerseits, da es mir persönlich sowas von egal ist, ob der R600 auf irgendeinem ASRock Board läuft und wie die 16 Bit BQ ist.

MfG :cool:

Odal
2007-05-22, 13:07:14
naja das problem sind da eher solche sachen:

dass die HD2900 wieder 2 nachteile mehr hat
langsam wird es echt peinlich

selbst als nv fanboy bekommt man da schon mitleid ;D

in kombination mit deinen und anderen....

ich mein da posten leute die von tuten und blasen keine ahnung haben und das immer in den R600 threads obwohl sie sich eigentlich null für den R600 interessieren bzw. nur um ihrem G80 oder was auch immer zu huldigen...

leute schreibt das doch irgendwo anders rein....ausser ihr besitzt wirklich einen R600 und könnt aus persönlichen erfahrungen diesen "niedermachen"...in dieser form wirkt das einfach nur lächerlich in diesen Threads....

A.Wesker
2007-05-22, 13:08:12
Da hast du ja fein die Rosinen herausgepickt. ;) Schau dir z. B. mal die Wand und den Rauch an. Grauenhaft auf dem R600 ... mit einem scharfen Monitor. Auf einem G80 (bzw. NV40 und darüber) ist es kaum besser.

MfG,
Raff

habe das Bild nur zufällig gewählt, da in den Beispielbildern beim R600 kein Schußfeuer zu sehen ist.

Aber wenn ich mir die Szene mit den vielen Kugeln und dem Mann, der gerad erschossen wird anschaue, sehe ich an den Wänden keinen großen Unterschied ( Sony FW900 ).

Raff
2007-05-22, 13:12:37
habe das Bild nur zufällig gewählt, da in den Beispielbildern beim R600 kein Schußfeuer zu sehen ist.

Aber wenn ich mir die Szene mit den vielen Kugeln und dem Mann, der gerad erschossen wird anschaue, sehe ich an den Wänden keinen großen Unterschied ( Sony FW900 ).

R5x0: http://www.pcgameshardware.de/?menu=browser&mode=article&article_id=601826&entity_id=-1&image_id=656093&page=1&show=original
R600: http://www.pcgameshardware.de/?menu=browser&article_id=601826&image_id=%20656089&show=original

Die Wand ist grausig.

MfG,
Raff

James Ryan
2007-05-22, 13:12:49
ich mein da posten leute die von tuten und blasen keine ahnung haben

War das auf mich bezogen? Na du musst es ja wissen! :ass2:

MfG :cool:

Nakai
2007-05-22, 13:17:58
Das ist falsch. Es gibt durch SLI nirgends eine Leistungssteigerung von mehr als 100%.

Ein solchen Phänomen kann immer nur duch eine Messungenauigkeit auftreten.

Beispiel: Ohne SLI messe ich 3 fps, mit SLI 7 fps - eigentlich waren es aber ohne SLI nicht 3 sondern 3,7 fps, was man natürlich bei der Messung nicht auflösen kann!

Mag sein, jedoch war ich selbst bei einem Bench dabei, bei dem das aufgetreten ist. Ich halte es selbst für unmöglich, aber Messungenauigkeiten sind eh nicht so selten.

mfg Nakai

Mr. Lolman
2007-05-22, 13:19:43
R5x0: http://www.pcgameshardware.de/?menu=browser&mode=article&article_id=601826&entity_id=-1&image_id=656093&page=1&show=original
R600: http://www.pcgameshardware.de/?menu=browser&article_id=601826&image_id=%20656089&show=original

Die Wand ist grausig.

MfG,
Raff

Imo gibts höchstwahrscheinlich sogar nen Reg-key mit dem man das 16bit-Dithering für R600 wieder aktivieren kann. Ich seh keinen Grund für ne HW-seitige Limitation.

Coda
2007-05-22, 13:20:53
Die Dithering-Logik für 16 Bit ist heute völlig sinnfrei und stört bloß beim Chipdesign.

Ich denke also sehr wohl, dass ATI die bei R600 entfernt hat. Ist aber auch nicht schlimm.

=Floi=
2007-05-22, 13:24:03
ich poste und lese wo und wann ich will

ich bin auch aufgeschlossen gegenüber neuer und besserer hardware aber der R600 ist einfach ein desaster.
darüber hinaus gibt es hier auch genug interesannte und informative posts
ich will übrigens auch noch weitere treiber verfolgen und deshalb werde ich auch hier weiterlesen

Mr. Lolman
2007-05-22, 13:38:09
Die Dithering-Logik für 16 Bit ist heute völlig sinnfrei und stört bloß beim Chipdesign.

Ich denke also sehr wohl, dass ATI die bei R600 entfernt hat. Ist aber auch nicht schlimm.

Hm, ATI wirbt sogar mit 30bit (spatial/temporal) dithering für 24 und 18bit Displays, also könnte man z.B. Kyrolike intern immer mit voller Genauigkeit rendern und das 16bit-Dithering erst im RAMDAC applizieren:

ATI Avivo HD Video and Display Platform


Drive two displays simultaneously with independent resolutions, refresh rates, color controls, and video overlays for each display
Full 30-bit display processing
Programmable piecewise linear gamma correction, color correction, and color space conversion
Spatial/temporal dithering provides 30-bit color quality on 24-bit and 18-bit displays
High quality pre- and post-scaling engines, with underscane support for all display outputs
Content-adaptive de-flicker filtering for interlaced displays
Fast, glitch-free mode switching
Hardware cursor

http://firingsquad.com/hardware/amd_ati_radeon_hd_2900_xt_performance_preview/

Gast
2007-05-22, 13:44:11
Auch wenn ich solche "Phänomene" noch nicht selbst erlebt habe, kann ich mir schon vorstellen, wie das funktionieren könnte.

Grobes Beispiel:
Bei Taktrate X wird eine Berechnung durchgeführt. Diese dauert Y Nanosekunden. Bis es jedoch in den nächsten Zwischenspeicher geschrieben werden kann, muss die Latenz von sieben Takten gebrückt werden. In meinem Beispiel wird durch Y Nanosekunden aber gerade ein Write-Burst verpasst, sodass nach Beendigung der Berechnung sechs Wartetakte anfallen, in denen die Pipe stillsteht. Danach wird in die Fifos oder sonstworein geschrieben.

Nun übertakte ich die Schaltung und erhöhe X um 10 Prozent. Die Berechnung dauert nur noch 0,91*Y Nanosekunden und ich kann quasi ohne Verzug in den Fifo schreiben, spare zusätzlich zu den 10 Prozent höherer Schaltgeschwindigkeit auch nochmal sechs Takte Latenz.

Klar, bei idealen Designs sind diese Latenzen und Berechnungsdauern optimal aufeinander abgestimmt, aber solche Designs gibt es im Bereich von Millionen Transistoren IMO AFAIK nicht - zumal die meisten Designs ja auch noch mit unterschiedlichen Taktraten verkauft werden ohne dass dabei weitere Interna angepasst werden.

Wie soll das gehen? Mit der höhere Taktfrequenz würdest du den Write-Burst genauso verpassen, da die relativen Zeitabstände doch gleich bleiben, egal ob der Chip mit einem Hz oder mit 10Ghz taktet.

Mr. Lolman
2007-05-22, 13:54:27
Wie soll das gehen? Mit der höhere Taktfrequenz würdest du den Write-Burst genauso verpassen, da die relativen Zeitabstände doch gleich bleiben, egal ob der Chip mit einem Hz oder mit 10Ghz taktet.

So zB: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3561268#post3561268
Hier noch ein praktischer Beweis in Form eine Benchmarks: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3560163&postcount=1229

EDIT: Außerdem - wenn RAM und GPU gleichermassen limitieren, könnte man theoretisch bei ner jew. 20%igen Übertaktung sogar ~40% Mehrleistung rausholen. (1,2x1,2)

EDIT2: Genauer - wenn zuerst nur eine GPU-Limitation vorliegt, welche mit ner 20% Übertaktung komplett aufgehoben werden kann, ist die Leistung im Idealfall 20% höher. Übertaktet man nun auch den Speicher um 20%, hebt man damit die nun anliegende Speicherlimitation auf und die Leistung kann sich dadurch auch um insgesamt mehr als 20% erhöhen.

=Floi=
2007-05-22, 13:59:50
aber ausgerechnet bei 3dfx und der der angesprochenen voodoo 3000 waren chip und vram synchron, ansonsten klingt es logisch

PCGH_Carsten
2007-05-22, 14:06:46
Wie soll das gehen? Mit der höhere Taktfrequenz würdest du den Write-Burst genauso verpassen, da die relativen Zeitabstände doch gleich bleiben, egal ob der Chip mit einem Hz oder mit 10Ghz taktet.

Jein - es gibt ja verschiedene Takte innerhalb einer Schaltung.

Nakai
2007-05-22, 14:28:10
Wieso nicht so?

Chipteil A(Texelfüllrate) ist mit 50Mhz getaktet, B(Shaderleistung) dagegen mit 75Mhz.
Wenn man nun B übertaktet auf 100Mhz ändert sich nichts am Resultat, weil Chipteil A nur mit 50Mhz betrieben wird und dadurch limitiert.
Nun wird A auf 75 Mhz übertaktet, also eine Steigerung von 50%. Doch die Performance steigt um 83% weil nun wieder B limitiert.
(A limitiert nicht mehr, dafür B)

Ich sehe solche Übertaktungen so, dass sich die Flaschenhälse verschieben.

mfg Nakai

mapel110
2007-05-22, 14:37:28
Solche krassen Unterschiede hast du aber bei real existierenden Chips nicht. Da wird auf Balance geachtet. Ergo ergeben sich solche Verschiebungen von Flaschenhälsen nicht in solch einem Ausmaß.

InsaneDruid
2007-05-22, 14:38:49
Das ist aber Unsinn was du da schreibst. Wenn die Taktsteigerung von B bei gleichbleibenden A NICHTS bringt, dann kann die Taktsteigerung von A nur maximal soviel Leistungsschub geben wie A übertaktet wurde, also in deinem Fall 50%. Wenn nun sogar B wieder limitiert, dann kann ein limitierendes B auf KEINEN Fall eine Performancesteigerung erzeugen, viel mehr würde ein nun limitierendes B den Performancezuwachs UNTER die Taktsteigerung von A drücken, also auf zb 40% Performanceplus bei 50% Taktsteigerung von A.

Gast
2007-05-22, 14:39:02
Hm, ATI wirbt sogar mit 30bit (spatial/temporal) dithering für 24 und 18bit Displays, also könnte man z.B. Kyrolike intern immer mit voller Genauigkeit rendern und das 16bit-Dithering erst im RAMDAC applizieren:


Nein, gedithert wird beim Schreiben in den Framebuffer, auf allen Karten. Man kann das nicht im RAMDAC machen (das ist bloss ein dummer digital-analog Wandler zur Ausgabe auf CRTs, bei TFTs (DVI) ist der eh nicht aktiv).

Gast
2007-05-22, 14:40:36
EDIT: Außerdem - wenn RAM und GPU gleichermassen limitieren, könnte man theoretisch bei ner jew. 20%igen Übertaktung sogar ~40% Mehrleistung rausholen. (1,2x1,2)


Nein, es sind dann genau 20% Mehrleistung.

Nakai
2007-05-22, 16:13:08
Das ist aber Unsinn was du da schreibst. Wenn die Taktsteigerung von B bei gleichbleibenden A NICHTS bringt, dann kann die Taktsteigerung von A nur maximal soviel Leistungsschub geben wie A übertaktet wurde, also in deinem Fall 50%. Wenn nun sogar B wieder limitiert, dann kann ein limitierendes B auf KEINEN Fall eine Performancesteigerung erzeugen, viel mehr würde ein nun limitierendes B den Performancezuwachs UNTER die Taktsteigerung von A drücken, also auf zb 40% Performanceplus bei 50% Taktsteigerung von A.

Nehmen wir an A liefert 5000Mtex, aber es werden 7500Mtex benötigt. Sobald A auf einen Level hochgejagt wurde, gibt es bei A keine Limitierung mehr.
Jedoch muss jetzt ein anderer Faktor limitieren und das ist B.
Natürlich ist das nicht real, wie mapel gesagt hat. An sich kann es aber passieren.

Nochmal anschaulich:
A liefert eine sehr niedrige Füllrate, welche an das Maximum auf gebraucht ist. B dagegen liefert eine sehr hohe Füllrate welche nicht aufgebraucht wird.
Nun liefert A genausoviel Füllrate wie benötigt wird, nun kann die gesamte Füllrate von B benutzt werden, da kein Flaschenhals von A mehr vorliegt. B wird nun zum Flaschenhals, da man keine Füllrate mehr von A benötigt.

mfg Nakai

€: Solche krassen Unterschiede hast du aber bei real existierenden Chips nicht.

Mag sein, jedoch gibt es genug gegenteilige Beispiele wie den Cell. Aber da dieser ein spezieller Chip für spezielle Anwendungen ist, kann man das ja ausschließen.

Mr. Lolman
2007-05-22, 16:20:02
Nein, es sind dann genau 20% Mehrleistung.

Das 2. Edit auch gelesen?


EDIT2: Genauer - wenn zuerst nur eine GPU-Limitation vorliegt, welche mit ner 20% Übertaktung komplett aufgehoben werden kann, ist die Leistung im Idealfall 20% höher. Übertaktet man nun auch den Speicher um 20%, hebt man damit die nun anliegende Speicherlimitation auf und die Leistung kann sich dadurch auch um insgesamt mehr als 20% erhöhen.

LovesuckZ
2007-05-22, 16:20:54
Nehmen wir an A liefert 5000Mtex, aber es werden 7500Mtex benötigt. Sobald A auf einen Level hochgejagt wurde, gibt es bei A keine Limitierung mehr.
Jedoch muss jetzt ein anderer Faktor limitieren und das ist B.
Natürlich ist das nicht real, wie mapel gesagt hat. An sich kann es aber passieren.


Wird B um +1 erhöht, wäre a wieder der limitierende Faktor. Ansonsten wäre der Gewinn nicht 1:1 umgesetzt wurden. Und bei a+10 und bei b+2 entsteht nicht das Gesamtergebnis 20 sondern nur 12.

Nakai
2007-05-22, 16:29:58
EDIT2: Genauer - wenn zuerst nur eine GPU-Limitation vorliegt, welche mit ner 20% Übertaktung komplett aufgehoben werden kann, ist die Leistung im Idealfall 20% höher. Übertaktet man nun auch den Speicher um 20%, hebt man damit die nun anliegende Speicherlimitation auf und die Leistung kann sich dadurch auch um insgesamt mehr als 20% erhöhen

So ungefähr hab ich das gemeint, aber nur auf unterschiedliche Chipsektionen bezogen.

mfg Nakai

Gast
2007-05-22, 16:41:04
wenn A angehoben wird, bis B limitiert, dann sorgt eine anhebung von B automatisch wieder dafür, dass A limitiert. => Die anhebung von B bringt nichts.

InsaneDruid
2007-05-22, 16:46:21
So zB: EDIT2: Genauer - wenn zuerst nur eine GPU-Limitation vorliegt, welche mit ner 20% Übertaktung komplett aufgehoben werden kann, ist die Leistung im Idealfall 20% höher. Übertaktet man nun auch den Speicher um 20%, hebt man damit die nun anliegende Speicherlimitation auf und die Leistung kann sich dadurch auch um insgesamt mehr als 20% erhöhen.

Nein.

Nach dem 20% Übertakten können nur 3 Zustände entstehen:


es liegt immer noch kein Speicherlimit vor, dann hat man maximal 20% Mehrleistung durch 20%mehr GPU Takt, und danach keinerlei Leistungsplus durch mehr Ramtakt, da der Ram eben auch @default nicht limitierte
es liegt nun ein Spreicherlimit vor, die erreichte Mehrleistung ohne Ramerhöhung ist nun unter 20%, und ein Anheben des Ramtaktes kann diese auf maximal 20% erhöhen, da ab einem gewissen Ramspeed wieder GPU Limit einsetzt, und die GPU nur 20% schneller wurde.
es arbeiten nach GPU Übertaktung genau beide Teile am Limit, was wiederrum maximal 20% Mehrleistung ermöglicht, jede weitere Taktsteigerung eines Teils wird die sofortige Limitierung durch den andereren Teil zur Folge haben, und dadurch keine Leistungssteigerung über 20% ermöglichen.


EDIT:

eine "Aufgebung" eines Limits heißt immer nur das eine andere Komponente limitiert. Der Satz "wenn zuerst nur eine GPU-Limitation vorliegt, welche mit ner 20% Übertaktung komplett aufgehoben werden kann" kann nur bedeuten das nach 20% GPU Übertaktung schon eine andere Komponente limitiert, denn eine 20%ige Übertaktung verschiebt das GPU Limit nur um 20% nach oben - es gibt nie eine "Aufhebung" eines Limits in der Form das danach unendlich Leistung freigegeben werden kann, wenn nur die anderen Teile mitspielen.

reunion
2007-05-22, 16:47:28
EDIT2: Genauer - wenn zuerst nur eine GPU-Limitation vorliegt, welche mit ner 20% Übertaktung komplett aufgehoben werden kann, ist die Leistung im Idealfall 20% höher. Übertaktet man nun auch den Speicher um 20%, hebt man damit die nun anliegende Speicherlimitation auf und die Leistung kann sich dadurch auch um insgesamt mehr als 20% erhöhen.

Wie soll denn das funktionieren? Eine GPU-Übertaktung um 20% bringt nur dann exakt 20% Mehrleistung, wenn nach dieser Übertaktung noch immer ausschließlich die GPU limitiert. Verschiebt sich der Flaschenhals durch die Übertaktung zwischenzeitlich zum Speicher, bleibt der Leistungsgewinn unter den 20%, da der Speicher die GPU ausbremst.

Mr. Lolman
2007-05-22, 16:51:54
Nein.

Nach dem 20% Übertakten können nur 3 Zustände entstehen:


es liegt immer noch kein Speicherlimit vor, dann hat man maximal 20% Mehrleistung durch 20%mehr GPU Takt, und danach keinerlei Leistungsplus durch mehr Ramtakt, da der Ram eben auch @default nicht limitierte
es liegt nun ein Spreicherlimit vor, die erreichte Mehrleistung ohne Ramerhöhung ist nun unter 20%, und ein Anheben des Ramtaktes kann diese auf maximal 20% erhöhen, da ab einem gewissen Ramspeed wieder GPU Limit einsetzt, und die GPU nur 20% schneller wurde.
es arbeiten nach GPU Übertaktung genau beide Teile am Limit, was wiederrum maximal 20% Mehrleistung ermöglicht, jede weitere Taktsteigerung eines Teils wird die sofortige Limitierung durch den andereren Teil zur Folge haben, und dadurch keine Leistungssteigerung über 20% ermöglichen.


K. Du hast recht. Aber nur, wenn man jegliche anderen Taktunterschiede/Latenzen in den Schaltungen der GraKa ignoriert. AUSSERDEM: Es gibt div. Ergebnisse, die zeigen, DASS eine überproportionale Leistungssteigerung möglich ist.

Auch Demi meinte, dass die Effizienz eines Speichercontrollers bei steigendem Takt durchaus zunehmen kann.

Meine Milchmädchenrechnung war in der Form natürlich nicht korrekt. Das geb ich zu ;)

Nakai
2007-05-22, 16:58:47
wenn A angehoben wird, bis B limitiert, dann sorgt eine anhebung von B automatisch wieder dafür, dass A limitiert. => Die anhebung von B bringt nichts.

Nur wenn die Anforderung an A weiter steigt, solange B nicht limitiert, was nicht immer der Fall ist.

mfg Nakai

reunion
2007-05-22, 17:01:20
Nur wenn die Anforderung an A weiter steigt, solange B nicht limitiert, was nicht immer der Fall ist.

mfg Nakai

Wenn das nicht der Fall ist, dann ist A für die Leistung zwangsläufig irrelevant, und damit würde eine Leistungssteigerung von A nichts bringen.

Gast
2007-05-22, 17:03:38
Das 2. Edit auch gelesen?

Ja. Ist ziemlicher Unsinn.
Du gehst von einer totalen GPU Limitierung aus und willst dann durch 20% mehr GPU Takt auf einmal eine totale Bandbreitenlimitierung bekommen?

Gast
2007-05-22, 17:07:33
Auch wenn ich solche "Phänomene" noch nicht selbst erlebt habe, kann ich mir schon vorstellen, wie das funktionieren könnte.

Grobes Beispiel:
Bei Taktrate X wird eine Berechnung durchgeführt. Diese dauert Y Nanosekunden. Bis es jedoch in den nächsten Zwischenspeicher geschrieben werden kann, muss die Latenz von sieben Takten gebrückt werden. In meinem Beispiel wird durch Y Nanosekunden aber gerade ein Write-Burst verpasst, sodass nach Beendigung der Berechnung sechs Wartetakte anfallen, in denen die Pipe stillsteht. Danach wird in die Fifos oder sonstworein geschrieben.

Nun übertakte ich die Schaltung und erhöhe X um 10 Prozent. Die Berechnung dauert nur noch 0,91*Y Nanosekunden und ich kann quasi ohne Verzug in den Fifo schreiben, spare zusätzlich zu den 10 Prozent höherer Schaltgeschwindigkeit auch nochmal sechs Takte Latenz.

Klar, bei idealen Designs sind diese Latenzen und Berechnungsdauern optimal aufeinander abgestimmt, aber solche Designs gibt es im Bereich von Millionen Transistoren IMO AFAIK nicht - zumal die meisten Designs ja auch noch mit unterschiedlichen Taktraten verkauft werden ohne dass dabei weitere Interna angepasst werden.

ich glaube eher, dass sie nicht optimal aufeinander abgestimmt sind, sondern die latenzen durch zwischenpuffer versteckt werden.

Gast
2007-05-22, 17:14:52
...also um das noch genauer zu spezifizieren:
die latenzen zwischen "ende berechnung" und "schreiben in framebuffer" sind durch puffer versteckt und werden durch unterschiedliche taktungen der einzelnen einheiten nicht beeinflusst.

Nakai
2007-05-22, 17:18:22
Wenn das nicht der Fall ist, dann ist A für die Leistung zwangsläufig irrelevant, und damit würde eine Leistungssteigerung von A nichts bringen.

Stimmt...

mfg Nakai

dr_mordio
2007-05-23, 00:11:09
hilfe!

das einzige was im moment limitiert, ist die abwesenheit vom Gouvernator.:(

denn dieser tread geht nicht ums übertakten und limitieren, sondern darum wie sich der R600 so macht....

mal back to topic:

@ a.wesker
hat sich bei der Sourceengine schon was mit dem nebelbug getan?
und hast du auch die farcry probleme, das du die waffen nicht siehst?

ich spiele zu 80% source-engine games (hauptsächlich DOD:Source)
daher kauf ich den R600 erst, wenn der bug weg ist.
außerdem, warum ist der R600 gerad in Sourcegames im moment langsamer?
valve arbeitet doch mit ati ein wenig zusammen und ati bundelt sogar die games mit seinen karten...
sollte der r600 da nicht also eigentlich noch zulegen?
was kann man da noch an steigerungen erwarten?

PS:
wann endet gouvernators sperre?

Grestorn
2007-05-23, 07:12:58
hilfe!

das einzige was im moment limitiert, ist die abwesenheit vom Gouvernator.:( wann endet gouvernators sperre?

Ich denke, es handelte sich nur um eine T2, er ist also schon längst entsperrt. Wenn er nicht schreibt, dann aus eigenem Entschluss. Es nagt schon an einem gesperrt zu werden, zumal wenn man es selbst als nicht gerechtfertigt ansieht.

Schreib ihm halt ne PM, vielleicht lässt er sich wieder zum Schreiben bewegen...

=Floi=
2007-05-23, 07:22:40
er ist noch gesperrt und da kann er sich auch nicht einloggen
(2. post in dem thread)

das kann wohl nur noch ati wissen was an steigerungen möglich ist aber imho sieht es da nicht so rosig aus für aktuelle sachen wie die source engine neuere spiele sollten da wesentlich besser mit der shaderleistung skalieren (meiner meinung nach)

Mumins
2007-05-23, 07:26:41
Gouvernator schreibt fleissig im Luxx. Er will die Karte abgeben und meckert sich einen ab wie beschissen das Ding ist.
Halt, er hat die Karte getauscht gegen ne GTS.
http://www.forumdeluxx.de/forum/showthread.php?t=356476&page=58

Mr. Lolman
2007-05-23, 09:12:10
Gouvernator schreibt fleissig im Luxx. Er will die Karte abgeben und meckert sich einen ab wie beschissen das Ding ist.


Wo schreibt er das?

Mumins
2007-05-23, 09:39:36
http://www.forumdeluxx.de/forum/showpost.php?p=6154947&postcount=977
http://www.forumdeluxx.de/forum/showpost.php?p=6170591&postcount=1479

sun-man
2007-05-23, 09:53:34
...bleibt die Frage offen warum er hier noch immer gesperrt ist. Können die Admins mal wieder nicht über den eigenen schatten springen oder mag er nun nicht mehr?

MFG

tombman
2007-05-23, 10:01:44
http://www.forumdeluxx.de/forum/showpost.php?p=6154947&postcount=977
http://www.forumdeluxx.de/forum/showpost.php?p=6170591&postcount=1479

Leute vergesst den Treiber, der Wundertreiber kommt in Form von r650.
;D;D;D

Odal
2007-05-23, 10:43:37
ich weiß nicht ob das mit dem tausch nicht ein wenig verfrüht war...ich mein wenn man mal im alten x1800xt review thread liesst wie enttäuscht ich von dem ding damals war (bis auf das area af= und das im vergleich zu 7800gt und 7800gtx muss ich sagen das man sich doch arg irren kann

Coda
2007-05-23, 10:51:37
Ich denke, es handelte sich nur um eine T2, er ist also schon längst entsperrt. Wenn er nicht schreibt, dann aus eigenem Entschluss. Es nagt schon an einem gesperrt zu werden, zumal wenn man es selbst als nicht gerechtfertigt ansieht.

Schreib ihm halt ne PM, vielleicht lässt er sich wieder zum Schreiben bewegen...
Er ist nicht in der Benutzerliste, also noch gesperrt.