PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 10


Seiten : 1 2 3 4 [5] 6

Gast
2007-05-11, 20:06:07
Nö, sind es nicht.Das wirst auch du am Montag sehen :P

w0mbat
2007-05-11, 20:07:47
Das wirst auch du am Montag sehen :P

Ich sage nicht das die Launchtreiber viel schneller sind, nur das die aktuellen nicht die Launchtreiber sind.

DerKleineCrisu
2007-05-11, 20:08:42
Das wirst auch du am Montag sehen :P

hmm oder er überspringt einfach den montag dann sieht er es nicht...

es ist halt so das die ersten brechmarken bei einer graka über gut oder schlecht entscheiden.

wenn es da nicht passt wird die graka bei jedem forum niedergemacht. auch wenn die treiber später mal besser

werden.

Gast
2007-05-11, 20:11:39
Ich sage nicht das die Launchtreiber viel schneller sind, nur das die aktuellen nicht die Launchtreiber sind.
Ich habe auch nicht Gesagt das die "Aktuellen" für JEDEN erhältlichen Final sind!

Allerdings sind die leute die Benchen(können) im Besitz der Lunch treiber

Coda
2007-05-11, 20:11:48
Das frage ich mich auch. Beim R520 und auch R420 wars das gleiche. Zu beginn konnte R520 gerade so mit einem G7x mithalten, erst zwei/drei Monate später kamen nach und nach schnellere Treiber, und R520 zog vorbei. Deto R420. Jetzt kommt R600 ganze sechs Monate zu spät, und die Treiber machen einen Eindruck, als ob der Chips frisch aus den Labors entsprungen wäre.
R520 gab's doch auch schon ziemlich früh als funktionierendes Silizium - also zum Treiberschreiben geeignet.

Coda
2007-05-11, 20:13:39
james ryan, ich will nicht wissen wie die ersten benches aussahen mit pre alpha treibern der 8800er. soviel dazu.

aber was war da noch mit dem G80, kein 2d modus, defekte MUL, erste revision hatte defekte wiederstände ;D
Am Mul ist gar nichts defekt. Es wurde nur völlig überbewertet, weil es eigentlich gar nie Zeit hat sich um andere Dinge zu kümmern als für das für das es vorgesehen ist.

Ob der nicht vorhandene 2D-Modus jetzt ein Defekt ist oder Absicht kann man auch nicht sagen. Unschön ist es allemal.

w0mbat
2007-05-11, 20:26:34
Ich habe auch nicht Gesagt das die "Aktuellen" für JEDEN erhältlichen Final sind!

Allerdings sind die leute die Benchen(können) im Besitz der Lunch treiber

Nein, eben nicht.

reunion
2007-05-11, 20:27:43
Die Launchtreiber bekommt man logischerweise nur unter NDA.

w0mbat
2007-05-11, 20:28:47
Die Launchtreiber bekommt man logischerweise nur unter NDA.

Ja, aber auch so sind sie z.Zt. nicht erhältlich. Ich habe die neuesten Treiber die man unter NDA bekommen kann und es ist nicht der 8.38er.

Gast
2007-05-11, 20:31:22
Nein, eben nicht.
OMG DOCH
Oder glaubst man setzt sich montag um 9 uhr hin und fängt dan erst mit dem benchen an?

Wen du keine Treiber hast bekommen/haben sie andere denoch!


@Reunion
Richtig darum schrieb ich
Allerdings sind die leute die Benchen(können) im Besitz der Lunch treiber

reunion
2007-05-11, 20:34:23
R520 gab's doch auch schon ziemlich früh als funktionierendes Silizium - also zum Treiberschreiben geeignet.

Eben. Trotzdem vergaß man beim Launchtreiber eine Optimierung für AA unter OpenGL, sodass die Karte dort beim Launch stark einbrach. Also ein nahezu stümperhafter Fehler, der unnötig schlechte Publicity verursachte. Auch sonst stiegt die Leistung die darauffolgenden Monate mit nahezu jedem Treiber um einige Prozentpunkte. Also offensichtlich scheint sich ATi um noch nicht veröffentlichte Produkte nicht wirklich zu kümmern, selbst wenn es sich dabei um eine neue Generation handelt. Nach der krassen Verspätung doch ziemlich enttäuschend.

w0mbat
2007-05-11, 20:34:39
OMG DOCH
Oder glaubst man setzt sich montag um 9 uhr hin und fängt dan erst mit dem benchen an?

Wen du keine Treiber hast bekommen/haben sie andere denoch!
[...]

OMFG nein! Wieder spreche mir doch nicht wenn du es nicht weiß. Ich habe verschiedene Quellen aus denen ich Treiber bekomme und noch keine hat die aktuellsten Treiber (und alle werden am Montag ein offizielles Review präsentieren).

Ronny145
2007-05-11, 20:35:51
OMFG nein! Wieder spreche mir doch nicht wenn du es nicht weiß. Ich habe verschiedene Quellen aus denen ich Treiber bekomme und noch keine hat die aktuellsten Treiber (und alle werden am Montag ein offizielles Review präsentieren).



Und vor kurzem hast du noch von den 8.37er geschwärmt. Der 8.38er ist vielleicht seit ein paar Tagen erhältlich, sollen die Tester nochmal neu benchen? Also da von alt zu sprechen ist doch sinnlos.

w0mbat
2007-05-11, 20:37:10
Und vor kurzem hast du noch von den 8.37er geschwärmt. Der 8.38er ist vielleicht seit ein paar Tagen erhältlich, sollen die Tester nochmal neu benchen? Also da von alt zu sprechen ist doch sinnlos.

Ja, der 8.374er ist auch schneller als der 8.364er. Und nein, ich verlange doch nicht das alle Reviews neu geschrieben werden, nur ist das eben nicht der Launchtreiber.

Gast
2007-05-11, 20:39:24
Ja, der 8.374er ist auch schneller als der 8.364er. Und nein, ich verlange doch nicht das alle Reviews neu geschrieben werden, nur ist das eben nicht der Launchtreiber.

na klar isses der Lauchtreibääär

es sind retailverpackungen,wo der treibääär mitgeliefert wird.

Gast
2007-05-11, 20:40:09
OMFG nein! Wieder spreche mir doch nicht wenn du es nicht weiß. Ich habe verschiedene Quellen aus denen ich Treiber bekomme und noch keine hat die aktuellsten Treiber (und alle werden am Montag ein offizielles Review präsentieren).
Ajo du Weißt natürlich was mir zu verfügung steht Naja
Das deine "Quellen" nichts haben kann auch daran liegen das ATI leakern nix gibt(oder erst spät).

Klar haben alle am montag eins mit unterschieden halt

Coda
2007-05-11, 20:45:06
Eben. Trotzdem vergaß man beim Launchtreiber eine Optimierung für AA unter OpenGL, sodass die Karte dort beim Launch stark einbrach. Also ein nahezu stümperhafter Fehler, der unnötig schlechte Publicity verursachte. Auch sonst stiegt die Leistung die darauffolgenden Monate mit nahezu jedem Treiber um einige Prozentpunkte. Also offensichtlich scheint sich ATi um noch nicht veröffentlichte Produkte nicht wirklich zu kümmern, selbst wenn es sich dabei um eine neue Generation handelt. Nach der krassen Verspätung doch ziemlich enttäuschend.
Also das mit der Variance-Shadow-Demo ist auf jeden Fall noch ein Treiberproblem, wie es mit D3D9 aussieht wird sich zeigen.

up¦²
2007-05-11, 21:33:14
Das ist ja ein Durcheinander...
Kostprobe?
This just shows how raw the drivers currently are.
8.36 to 8.37.4 COH showed 11% boost @ 1600x1200 16xAF, Quake 4 showed 42% boost :weg:
http://forums.vr-zone.com/showthread.php?p=3668245

Schon gesehn?
http://img80.imageshack.us/img80/8987/122nv7.jpg
Sieht schon besser aus...
Da kommt auf ein einschlägig bekanntes Gewerbe eine kleine Revolution zu...

deekey777
2007-05-11, 21:49:41
Ja, der 8.374er ist auch schneller als der 8.364er. Und nein, ich verlange doch nicht das alle Reviews neu geschrieben werden, nur ist das eben nicht der Launchtreiber.

Ich weiß gar nicht, was daran so schwer zu verstehen.
Es gibt aktuell mehrere Treiberversionen. Einerseits gibt es den Treiber, der in Reviews verwendet wurde (April), dann gibt es einen weiteren Treiber, der mit Grafikkarten auf der CD ausgeliefert wurde. Diese Treiber sind relativ veraltet, da die Treiberentwicklung weitergeht (siehe 8.37). Am Montag wird zum Start der neuen Generation ein weiterer Treiber als Launchtreiber zum Download angeboten (8.38 oder immernoch 8.37?).
Was soll die Trollerei?

Gast
2007-05-11, 22:00:24
8.38 ist nicht der Launch-Treiber. Es ist ein für Zertifizierungen (=Fokus nur auf bestimmte Features und Anwendungen, ohne Rücksicht ob was anderes dann nicht mehr geht... kommt dann später in den standard treiber) gedachter (und geleakter) Kundentreiber, der vom Stand her in vielen Dingen hinter dem Launch Treiber ist.

Gast
2007-05-11, 22:03:49
Wenn man sich diese ganze Sache ansieht, dann muss man sagen, dass AMD einfach unverschämt lügt.
Familylaunch und aufgereifte Treiber. Nichts von beiden ist übrig geblieben.

Gast
2007-05-11, 22:08:29
Wenn man sich diese ganze Sache ansieht, dann muss man sagen, dass AMD einfach unverschämt lügt.
Familylaunch und aufgereifte Treiber. Nichts von beiden ist übrig geblieben.

Warum lügen?
Sie Launchen schon die Family nur wird es vorrausichtlich nichts mit einem Hardlaunch der gesamten Palette. Es wird vermutlich nur die 2900 XT verfügbar sein.

Ich denke sie wollten nicht nochmal den kompletten Launch verschieben. Das wichtigste ist das sie endlich die Karten auf den Tisch legen.

So long
der_guru

Steve1
2007-05-11, 22:09:51
genau

Fetza
2007-05-11, 22:18:26
Ja, der 8.374er ist auch schneller als der 8.364er. Und nein, ich verlange doch nicht das alle Reviews neu geschrieben werden, nur ist das eben nicht der Launchtreiber.
Ich weiß gar nicht, was daran so schwer zu verstehen.
Es gibt aktuell mehrere Treiberversionen. Einerseits gibt es den Treiber, der in Reviews verwendet wurde (April), dann gibt es einen weiteren Treiber, der mit Grafikkarten auf der CD ausgeliefert wurde. Diese Treiber sind relativ veraltet, da die Treiberentwicklung weitergeht (siehe 8.37). Am Montag wird zum Start der neuen Generation ein weiterer Treiber als Launchtreiber zum Download angeboten (8.38 oder immernoch 8.37?).
Was soll die Trollerei?

Ich frage mich, warum die treiber scheinbar noch so unfertig sind, und dort in so kurzer zeit, performanceverbesserungen erreicht werden (wenn einige der infos diesbezüglich stimmen). Ich meine, nicht falsch verstehen, das in den treibern noch scheinbar viel potential steckt ist wunderbar, und ati möge noch reichlich davon freischalten, aber der chip an sich läuft doch schon seit anfang des jahres oder? War da nicht schon reichlich zeit um gute treiber zu proggen?

greetz

Fetza

mapel110
2007-05-11, 22:31:10
Ich frage mich, warum die treiber scheinbar noch so unfertig sind, und dort in so kurzer zeit, performanceverbesserungen erreicht werden (wenn einige der infos diesbezüglich stimmen). Ich meine, nicht falsch verstehen, das in den treibern noch scheinbar viel potential steckt ist wunderbar, und ati möge noch reichlich davon freischalten, aber der chip an sich läuft doch schon seit anfang des jahres oder? War da nicht schon reichlich zeit um gute treiber zu proggen?

greetz

Fetza
ATI hatte auch reichlich Zeit für Linuxtreiber und das CCC. Sie schaffen es wohl einfach nicht, das Team mal mit fähigen Leuten aufzustocken.

LairD
2007-05-11, 22:38:16
Da frag ich mich doch glatt, wo mein Post hingekommen ist?
Na zum Glück hab ich ja nur geschrieben, dass das behaviour einiger ziemlich PEINLICH ist und bin nicht gleich mit dem ASSHOLE BEHAVIOUR ins Haus gefallen bin, sonst wäre ich ja noch gesperrt worden.

Puuuuuh!!!

horn 12
2007-05-11, 22:38:54
Viel mehr wollten sie Nvidia in Sicherheit wiegen,- um nun mit dem nachgeschobenen Treiber nochmals recht gut zur GTX aufschliessen zu können.
Wenn ihnen dies gelingen möge, betone "MÖGE" dann hat ATI ein sehr faires Produkt zu einem noch sehr faireren Preis gebraucht, welches vor allem auch unter D3D10 seine Früchte tragen wird.
Momentan sieht es ganz danach aus....

dargo
2007-05-11, 22:53:37
Zum Fellkragen fällt mir spontan der Fellwürfel aus dem Atitool ein - lauffähig seit mehr als vier Jahren.

Hehe, wir haben die selben Gedanken. ;D

http://img501.imageshack.us/img501/623/r600vsg80mp8.jpg (http://imageshack.us)

Diese Tabelle ist echt nicht zu gebrauchen. Schau mal was meine GTS@612/900Mhz erreicht.

30854

30855

Und eine GTX ist nochmal ein Stück schneller. Entweder er verwendet eine zu lahme CPU oder einen alten Forceware. Ich denke eher einen alten FW sonst wäre das Ergebnis im 3DMark05 der HD 2900XT nicht so hoch.

Ailuros
2007-05-11, 23:01:27
Die angeblichen D3D10-Fruechte sehen mir aber nicht danach aus als ob es reichen wuerde selbst in diesen Faellen mehr Leistung zu erreichen als mit einer 8800GTX. Selbst wenn man groesszuegig waere und sagen wuerde dass bei D3D9.0 Spielen mit D3D10 paths die 2900XT sagen wir mal um =/>10% schneller als die GTX ankommen sollte, sehe ich nicht dass das Gesamtpaket einer 2900XT am Ende ueberzeugt.

Jemand der nicht aus sentimentalen oder parteiischen Gruenden high end GPUs kauft und dem die Unkosten egal sind wird sich nicht sooo leicht fuer eine R600 entscheiden, und dass wenn man alle Vor- und Nachteile auf die Waage legt. Die Variance Shadow Maps Leistung ist wohl doch etwas unterirdisch, aber schneller wird eine R600 IMHO hier nicht sein; auf jeden Fall nicht mit deren ROPs.

Was macht eine G8x ROP mit ihren "Zs" wenn kein MSAA eingeschaltet ist? Scharf nachdenken; R600 hat diese Flexibilitaet nicht und gerade bei shadow maps spielt sich dieses negativ aus.

dargo
2007-05-11, 23:06:20
Also der Unterschied 2D zu 3D ist jedenfalls eklatant, was schonmal auf einen sehr guten 2D-Modus hindeutet. Bleibt die Frage, ob das reicht, um den hohen 3D-Wert auszugelichen.
Du willst jetzt doch nicht ersthaft anhand vom sehr hohen Unterschied zwischen Idle und Last des Gesamtsystems einen niedrigen 2D Stromverbauch des R600 ableiten oder? :|

Gast
2007-05-11, 23:06:47
Was macht eine G8x ROP mit ihren "Zs" wenn kein MSAA eingeschaltet ist? Scharf nachdenken; R600 hat diese Flexibilitaet nicht und gerade bei shadow maps spielt sich dieses negativ aus.

Das erklärt die schlechte Leistung im ersten Test des 3DMark2006. Viele Shadow Maps - und eine Leistung die nur auf dem Niveau der GTS ist.

horn 12
2007-05-11, 23:17:08
@Up²
@Alle anderen, mich eingeschlossen.

Wäre toll wenn man nun endlich mal Pics von einer Sapphire HD 2900 XT ergattern könnte (inkl. Pappkarton) wie es schon mit MSI/ ASUS passiert ist. Welche Games und welches Zubehör der karte beiliegt.
Hoffe auf einen neuen Titel,- wie z.B. Halo2/ Loki oder ähnliches. nur nicht wieder diesen HL2 Ep2 Gutschein, wird langsam langweilig

|MatMan|
2007-05-11, 23:26:30
Viel mehr wollten sie Nvidia in Sicherheit wiegen,- um nun mit dem nachgeschobenen Treiber nochmals recht gut zur GTX aufschliessen zu können.
Wenn ihnen dies gelingen möge, betone "MÖGE" dann hat ATI ein sehr faires Produkt zu einem noch sehr faireren Preis gebraucht, welches vor allem auch unter D3D10 seine Früchte tragen wird.
Momentan sieht es ganz danach aus....
oh man horn 12, bei praktisch jedem deiner postings muß ich erstmal kräftig ablachen ;D Manchmal frage ich mich echt, ob du überhaupt nachdenkst, was du schreibst oder tust (das ist ernst gemeint und soll keine Beleidigung sein). Bestellst dir mal eben ne 2900 XT ohne richtig was darüber zu wissen und klammerst dich an w0mbat ob du sie wieder abbestellen sollst - wie geil...

Wie ist das eigentlich mit einer Bestellung aus Italien? Kommen da zum Kaufpreis noch Steuern und/ oder Zoll hinzu?

Fetza
2007-05-11, 23:32:30
oh man horn 12, bei praktisch jedem deiner postings muß ich erstmal kräftig ablachen ;D Manchmal frage ich mich echt, ob du überhaupt nachdenkst, was du schreibst oder tust (das ist ernst gemeint und soll keine Beleidigung sein). Bestellst dir mal eben ne 2900 XT ohne richtig was darüber zu wissen und klammerst dich an w0mbat ob du sie wieder abbestellen sollst - wie geil...

Wie ist das eigentlich mit einer Bestellung aus Italien? Kommen da zum Kaufpreis noch Steuern und/ oder Zoll hinzu?

Er ist warscheinlich noch ziemlich jung, da handelt man eben noch so ;)

horn 12
2007-05-11, 23:33:29
Glaube nicht, ist ja EU Land
Aber was soll ich machen, kann es kaum noch erwarten, aber nun scheint spielt mir mein NT einen Streich dazu. Als ob es nicht soo schon schlimm genug wäre, nahc der ganzen Verzögerung von A/A.
Habe heute gegen 10 Uhr tel. und nachgefragt bez. Sapphire HD 2900 XT;aber die Telef. meite ich könne auch bei ihr bestellen und dann würde die Ware sofort Montag früh 7 Uhr (noch vor NDA) rausgehen.... und ich konnte mal wieder NICHT nein sagen,- wie so oft;(
Edit: Fetza ---> Sorry muss Dich enttäuschen, bin 31

Gast
2007-05-11, 23:37:04
Glaube nicht, ist ja EU Land
Aber was soll ich machen, kann es kaum noch erwarten, aber nun scheint spielt mir mein NT einen Streich dazu. Als ob es nicht soo schon schlimm genug wäre, nahc der ganzen Verzögerung von A/A.
Habe heute gegen 10 Uhr tel. und nachgefragt bez. Sapphire HD 2900 XT;aber die Telef. meite ich könne auch bei ihr bestellen und dann würde die Ware sofort Montag früh 7 Uhr (noch vor NDA) rausgehen.... und ich konnte mal wieder NICHT nein sagen,- wie so oft;(
Edit: Fetza ---> Sorry muss Dich enttäuschen, bin 31
Erstens ein Nt gibts mit sicherheit auch in Deutschland oder gar beim händler ume Ecke;)

Zweitens wen das Packet um 7 Uhr bei denen rausgeht hast du es frühstens am diensatg somit kein nda bruch (nda bruch ist es höchstens dir zu sagen das die karte wirklic am montag lieferbar ist)

Hauwech
2007-05-11, 23:37:13
Du willst jetzt doch nicht ersthaft anhand vom sehr hohen Unterschied zwischen Idle und Last des Gesamtsystems einen niedrigen 2D Stromverbauch des R600 ableiten oder? :|

Überrascht dich das? ;)

Fetza
2007-05-11, 23:40:18
Edit: Fetza ---> Sorry muss Dich enttäuschen, bin 31

Ich weiss schon, warum ich einfach nur "ziemlich jung" geschrieben habe und auf einen konkreten alterstip verzichtet habe. Schließlich *hust* ist 31 doch auch noch ziemlich jung:D

up¦²
2007-05-11, 23:51:11
@Up²
@Alle anderen, mich eingeschlossen.

Wäre toll wenn man nun endlich mal Pics von einer Sapphire HD 2900 XT ergattern könnte (inkl. Pappkarton) wie es schon mit MSI/ ASUS passiert ist. Welche Games und welches Zubehör der karte beiliegt.
Hoffe auf einen neuen Titel,- wie z.B. Halo2/ Loki oder ähnliches. nur nicht wieder diesen HL2 Ep2 Gutschein, wird langsam langweilig
http://img519.imageshack.us/img519/152/sapphire2bheatpipe2br60he0.jpg
Vorfreude - schönste Freude...
Bekanntlich kommt Sapphire mit einem Eigenentwurf: sieht eigentlich sehr gut (leise...) aus :wink:

Obwohl: scheint auch diese Variante zu geben, die als OEM-Version auftaucht:
http://www.pcadvisor.co.uk/cmsdata/products/9291/ati%20radeon%20large.jpg
Kleine Einschätzung des Mags ist auch dabei:
http://www.pcadvisor.co.uk/reviews/index.cfm?reviewid=834

http://xtreview.com/images/sapphire-hd2900xt-in-sale-01.jpg

http://xtreview.com/images/sapphire-hd2900xt-specification-02.gif

und was wirklich neues: low profile HD 2600?
Here is the photographs of video card radeon HD 2400 Pro, Radeon HD 2600 XT
http://xtreview.com/images/MSI-RHD2400Pro-10.jpg
http://xtreview.com/addcomment-id-2384-view-Sapphire-radeon-HD-2900-XT-in-sale.html

Gmax
2007-05-12, 00:45:45
Kleine Einschätzung des Mags ist auch dabei:
[url]http://www.pcadvisor.co.uk/reviews/index.cfm?reviewid=834

Danke für den link. Fast das ganze ganz gut zusammen.


http://xtreview.com/images/MSI-RHD2600XT-10.jpg

Moment mal, den Lüfter kennen wir doch schon! Was wird das denn jetzt für eine? 26ooPro oder 29ooXT?

Edit: Es ist eine MSI RX2600XT-T2D256E

http://www.tweaktown.com/articles/1098/3

up¦²
2007-05-12, 00:56:20
Die OC'ler haben schon mal die Grenzen kennen gelernt, aber immerhin bis zum Anschlag durchgezogen :tongue: und: in Vista startete sie durch!
Originally Posted by Dr.Vijay
We had no issues running on Win XP.
What problem did you face?

when running 3dmark 05 or 06, the application hangs....
also when launching games, the games juz freeze & can;t launch.
on vista, got no problems....
using bundled drivers on CD.....
http://forums.hardwarezone.com/showthread.php?t=1607936

PS: kann das jemand bestätigen: selbes Forum, s.o.
BTW can I request a CoH benchmark? if i am not wrong, since u r in vista, can enable the DX10 shaders in CoH which will give us some early DX10 benchies...
wäre ja der Hammer!

Gast
2007-05-12, 01:06:59
Worlds first DX10 playable demo available May 15th from NZONE.com
http://blogs.nvidia.com/developers/2007/05/today_we_nvidia.html

Damit müssten wir ja dann sogar einen, mehr oder weniger, ordentlichen DirectX 10 "Benchmark" haben. :)

mapel110
2007-05-12, 01:08:17
Worlds first DX10 playable demo available May 15th from NZONE.com
http://blogs.nvidia.com/developers/2007/05/today_we_nvidia.html

Damit müssten wir ja dann sogar einen, mehr oder weniger, ordentlichen DirectX 10 "Benchmark" haben. :)
Ich bezweifel, dass der auch auf ATI-Karten laufen wird. Irgendeine Hardwareabfrage wirds da sicher geben.

up¦²
2007-05-12, 02:04:53
Zusammengestoppelte "Review", aber teilweise nett:
Radeon HD2900XT gegen GeForce 8800GTX
http://bbs.cpcw.com/viewthread.php?tid=1150115

Gast
2007-05-12, 02:10:20
Ich bezweifel, dass der auch auf ATI-Karten laufen wird. Irgendeine Hardwareabfrage wirds da sicher geben.
Ne das wird auch auf ATI laufen. Es kommt ja als Dx9 und Dx 10 Demo.
Benchmark Funktion ist mit drin und es steht in dem kleinen bericht das es auf dx10 besser läuft

up¦²
2007-05-12, 03:06:12
Aber irgendwas denkt sich doch Nvidia dabei, die DX10-Demo ausgerechnet am Launchtag der R600 zu pushen :wink:
...oder wollte man die dx10-Benchmarks aus den Reviews haben?
Sehr spannend!
http://blogs.capcomusa.com/blogs/news.php/2007/05/10/pc_gamers_to_get_a_taste_of_lost_planet_

horn 12
2007-05-12, 03:40:00
Die 350W sind auf das Gesamtsystem bezogen,- und von der Power her sollte auch ein 450 Watt NT reichen, nur brauchst man eben 2x6Pin.

PS: ich habe auf meinem Delta DPS 450 AA eben nur einen (1) PCI-e 6 Pin Stecker verbaut. Somit ist mein Netzteil nicht geeignet, oder wird da ein Adapter aushelfen müssen, von Molex auf einen weiteren PCI-e 6 Pin Stecker, da man 2 haben MUSS.
Wer kann da genaueres schon berichten?

Fetza
2007-05-12, 05:20:00
Die 350W sind auf das Gesamtsystem bezogen,- und von der Power her sollte auch ein 450 Watt NT reichen, nur brauchst man eben 2x6Pin.

PS: ich habe auf meinem Delta DPS 450 AA eben nur einen (1) PCI-e 6 Pin Stecker verbaut. Somit ist mein Netzteil nicht geeignet, oder wird da ein Adapter aushelfen müssen, von Molex auf einen weiteren PCI-e 6 Pin Stecker, da man 2 haben MUSS.
Wer kann da genaueres schon berichten?

Ich kann mir eigentlich nicht vorstellen, das ein hersteller seiner karte keinen adapter dabeilegt. Schließlich führt das unweigerlich zur kundenunzufriedenheit :)

reunion
2007-05-12, 08:07:23
Du willst jetzt doch nicht ersthaft anhand vom sehr hohen Unterschied zwischen Idle und Last des Gesamtsystems einen niedrigen 2D Stromverbauch des R600 ableiten oder? :|

Sinngemäß lesen. Ich leite keine niedrigen 2D Stromverbrauch, sondern einen gut funktionierenden 2D-Modus ab. Wie ich schon vorher geschrieben habe, bleibt die Frage, ob das reicht, den hohen 3D-Werte auszugleichen.

AnarchX
2007-05-12, 08:15:27
Diese Tabelle ist echt nicht zu gebrauchen. Schau mal was meine GTS@612/900Mhz erreicht.

...

Und eine GTX ist nochmal ein Stück schneller. Entweder er verwendet eine zu lahme CPU oder einen alten Forceware. Ich denke eher einen alten FW sonst wäre das Ergebnis im 3DMark05 der HD 2900XT nicht so hoch.

Ist ein X6800 und FW101.02, also kann man da bei der GTX noch ein paar Prozente draufrechnen.
Aber 3DM05 scheint der XT sehr gut zu liegen, da er doch sehr bandbreitenlastig ist, so sind mit aktuelleren Treibern die 20k Marke kein großes Problem.

btw.

Das Review IT-Review.net wurde nun noch um CF und 16xCFAA Benches ergänzt:
http://it-review.net/index.php?option=com_content&task=view&id=1325&Itemid=91

There's one other "trick" here, and that's image quality, also "to be covered" in a separate article. In all honesty, 8 and 16xAA modes look a bit better on HD2900XT then on 8800 series. This is one of those things that make HD2900XT what it is - very interesting product. Stay tuned for CrossFire vs SLI article tomorrow, done on 975 chipset for CrossFire and 680i chipset for 8800's.

reunion
2007-05-12, 08:18:37
ATI hatte auch reichlich Zeit für Linuxtreiber und das CCC. Sie schaffen es wohl einfach nicht, das Team mal mit fähigen Leuten aufzustocken.

Das würde ich nicht sagen. Man optimiert die Treiber natürlich nur auf die Chips die schon am Markt sind oder kurz vor dem Markteintritt stehen. Alles andere würde aus wirtschaftlicher Sicht auch nicht wirklich Sinn machen. Deshalb hat die Verspätung wohl nicht wirklich Auswirkungen auf die Treiberqualität. Ati ist vielleicht immer etwas langsamer, wenn es darum geht, die maximale Leistung aus einem Chip zu locken, dafür vernachlässigt man die alte Generation nicht so wie bei nV. Was einem lieber gefällt, bleibt Geschmackssachen.

AnarchX
2007-05-12, 08:29:50
ArchMark auf dem R600, aber leider keine Details...

http://img183.imageshack.us/img183/2873/archmark3517fauu0.jpg (http://imageshack.us)
http://forums.hardwarezone.com/showpost.php?p=23579871&postcount=77

reunion
2007-05-12, 08:35:12
Die angeblichen D3D10-Fruechte sehen mir aber nicht danach aus als ob es reichen wuerde selbst in diesen Faellen mehr Leistung zu erreichen als mit einer 8800GTX. Selbst wenn man groesszuegig waere und sagen wuerde dass bei D3D9.0 Spielen mit D3D10 paths die 2900XT sagen wir mal um =/>10% schneller als die GTX ankommen sollte, sehe ich nicht dass das Gesamtpaket einer 2900XT am Ende ueberzeugt.

Jemand der nicht aus sentimentalen oder parteiischen Gruenden high end GPUs kauft und dem die Unkosten egal sind wird sich nicht sooo leicht fuer eine R600 entscheiden, und dass wenn man alle Vor- und Nachteile auf die Waage legt. Die Variance Shadow Maps Leistung ist wohl doch etwas unterirdisch, aber schneller wird eine R600 IMHO hier nicht sein; auf jeden Fall nicht mit deren ROPs.

Was macht eine G8x ROP mit ihren "Zs" wenn kein MSAA eingeschaltet ist? Scharf nachdenken; R600 hat diese Flexibilitaet nicht und gerade bei shadow maps spielt sich dieses negativ aus.

Also ich denke die ROPs sind das geringste Problem. Dass die ROPs nur mit AA die volle Leistung entfalten können, war ja auch schon bei Xenos so, und das ist ja irgendwo auch nachvollziehbar, da man vorallem damit ROP-Power benötigt.

btw.

Das Review IT-Review.net wurde nun noch um CF und 16xCFAA Benches ergänzt:
http://it-review.net/index.php?option=com_content&task=view&id=1325&Itemid=91

Sieht ja ziemlich düster aus, vorallem, da dort wohl schon der Launchtreiber zum Einsatz kam.

AnarchX
2007-05-12, 09:00:48
Sieht ja ziemlich düster aus, vorallem, da dort wohl schon der Launchtreiber zum Einsatz kam.

Scheint so:
All of the tests for HD2900XT were done with 8-37-4-070419A-046506E driver

Wobei man die Ergebnisse genauer anschauen sollte, da es teilweise FPS-Zuwächse von 4x zu 8x AA gibt. :|

Gast
2007-05-12, 09:09:56
Die Ergebnisse sind absoluter Fake,von allem mal was zusammen geschmissen.Alleine wenn ich mir die TEstplattform anschaue wird mnir schlecht.



mfg

robbitop
2007-05-12, 09:55:19
Ich finde die Dreistigkeit von einigen Leuten einfach unglaublich. NDA heisst "Fresse halten". Aber klar, fuer ein paar Sekunden Pseudoruhm kann man vertrauliche Informationen ja ruhig leaken.
Solche Leute sind fuer mich jedenfalls keine ernstzunehmenden Journalisten.

reunion
2007-05-12, 10:01:48
"cards not provided by AMD".

http://it-review.net/index.php?option=com_content&task=view&id=1325&Itemid=91

PCGH_Carsten
2007-05-12, 10:06:55
Worlds first DX10 playable demo available May 15th from NZONE.com
http://blogs.nvidia.com/developers/2007/05/today_we_nvidia.html

Damit müssten wir ja dann sogar einen, mehr oder weniger, ordentlichen DirectX 10 "Benchmark" haben. :)


http://www.pcgameshardware.de/?article_id=601203

:)

deekey777
2007-05-12, 10:12:34
Ich finde die Dreistigkeit von einigen Leuten einfach unglaublich. NDA heisst "Fresse halten". Aber klar, fuer ein paar Sekunden Pseudoruhm kann man vertrauliche Informationen ja ruhig leaken.
Solche Leute sind fuer mich jedenfalls keine ernstzunehmenden Journalisten.
Es gilt aber nicht für Händler. Und da ist das Problem: In den Verpackungen ist 'ne veraltete Treiber-CD, die aktuellen Treiber sind ja unter dem NDA.
nVidia hat es sich schon was gedacht, die 8800Ultra nicht "hart" zu launchen.

Gast
2007-05-12, 10:30:24
Ich bezweifel, dass der auch auf ATI-Karten laufen wird. Irgendeine Hardwareabfrage wirds da sicher geben.

Wird sicherlich eine "normale" Lost Planet Demo für den PC sein. Und somit bestimmt auch zu 90% auf ATI DX10 Karten laufen :)

dargo
2007-05-12, 10:35:37
Ist ein X6800 und FW101.02, also kann man da bei der GTX noch ein paar Prozente draufrechnen.
Aber 3DM05 scheint der XT sehr gut zu liegen, da er doch sehr bandbreitenlastig ist, so sind mit aktuelleren Treibern die 20k Marke kein großes Problem.

Es geht mir um den standard Test @1024x768 1xAA/1xAF. Da dürfte schon die CPU limitieren. Aus welchem Grund sollte die HD 2900XT dann so "weit" vorne liegen?
Und in 1680x1050 liegt die GTX wieder vorne, irgendwas stimmt da nicht.

r3ptil3
2007-05-12, 10:37:02
HD 2900 XT in der Schweiz in mehreren Shops verfügbar!
http://www.toppreise.ch/index.php?search=hd+2900

Sapphire HD 2900 XT bereits ab 325.- €!!

AnarchX
2007-05-12, 10:40:46
Es geht mir um den standard Test @1024x768 1xAA/1xAF. Da dürfte schon die CPU limitieren. Aus welchem Grund sollte die HD 2900XT dann so "weit" vorne liegen?
Und in 1680x1050 liegt die GTX wieder vorne, irgendwas stimmt da nicht.

Ach ja das hatte ich vergessen zu schreiben: Der Test wurde unter Vista durchgeführt.

deekey777
2007-05-12, 10:46:03
Ich frage mich, warum die treiber scheinbar noch so unfertig sind, und dort in so kurzer zeit, performanceverbesserungen erreicht werden (wenn einige der infos diesbezüglich stimmen). Ich meine, nicht falsch verstehen, das in den treibern noch scheinbar viel potential steckt ist wunderbar, und ati möge noch reichlich davon freischalten, aber der chip an sich läuft doch schon seit anfang des jahres oder? War da nicht schon reichlich zeit um gute treiber zu proggen?

greetz

Fetza
Man darf nicht vergessen, dass die Treiber nicht für ein BS, sondern für mindestens 4 verschiedene entwickelt werden: WinXP x32, x64, Vista x32 und x64. Zuerst kommt die Stabilität und dann die Performance, dh ein langsamer Treiber ist kein unfertiger Treiber.
Auch die ForceWare-Treiber für den G80 brauchten ihre Zeit, bis sie ausgereift waren.

Alexander
2007-05-12, 11:17:12
Ich lese in diesem Monsterthread nicht mit. Könnte mir vielleicht jemand die folgenden Fragen beantworten?

1. Wann kommen die 2600er Karten voraussichtlich auf den Markt?
2. Ist schon abschätzbar wie sie sich im Vergleich zu den 8600 GTS schlagen werden? Die 1280er Auflösung wäre für mich interessant.

Danke.

AnarchX
2007-05-12, 11:22:42
1. Wann kommen die 2600er Karten voraussichtlich auf den Markt?

Pessimistisch im Juli, mit Glück aber auch schon im Juni.


2. Ist schon abschätzbar wie sie sich im Vergleich zu den 8600 GTS schlagen werden? Die 1280er Auflösung wäre für mich interessant.

Ich schätze etwa auf dem gleichen Niveau.

dargo
2007-05-12, 11:32:45
Ach ja das hatte ich vergessen zu schreiben: Der Test wurde unter Vista durchgeführt.
Oh man. Warum wird nur ständig das bekloppte Vista genommen wo jeder weiß, dass es noch im Beta-Stadium ist? :|

reunion
2007-05-12, 11:40:14
Oh man. Warum wird nur ständig das bekloppte Vista genommen wo jeder weiß, dass es noch im Beta-Stadium ist? :|

Vista ist schon lange final, wenn was noch im beta-Stadion ist, dann deine Treiber.

dargo
2007-05-12, 11:45:40
Vista ist schon lange final, wenn was noch im beta-Stadion ist, dann deine Treiber.
Du hast schon genau verstanden was ich damit meine. Nahezu jedes Game läuft unter Vista langsamer. Ob dann nun an Vista oder den Grafiktreibern liegt dürfte dem Kunden Sche.. egal sein.

w0mbat
2007-05-12, 11:46:22
R600@1,15GHz core
http://www.imagebanana.com/img/8xke6a3m/thumb/r600oc.jpg (http://www.imagebanana.com/view/8xke6a3m/r600oc.jpg)

R600 24k single card 3D05
http://www.imagebanana.com/img/2wuv5re3/thumb/r600oc2.PNG (http://www.imagebanana.com/view/2wuv5re3/r600oc2.PNG)

reunion
2007-05-12, 11:48:24
Du hast schon genau verstanden was ich damit meine. Nahezu jedes Game läuft unter Vista langsamer. Ob dann nun an Vista oder den Grafiktreibern liegt dürfte dem Kunden Sche.. egal sein.

Dann schreibe das auch so.

Worlds first DX10 playable demo available May 15th from NZONE.com
http://blogs.nvidia.com/developers/2007/05/today_we_nvidia.html

Damit müssten wir ja dann sogar einen, mehr oder weniger, ordentlichen DirectX 10 "Benchmark" haben. :)

Toll, ein DX10-Bench von nVidia. Da können wir auch mit den ATi-Techdemos vergleichen.

Gast
2007-05-12, 11:50:29
dieses Übertacktungspotentieal erinnert jetzt doch irgendwie an Flgship aus dem Hwluxx Forum....

w0mbat
2007-05-12, 11:52:24
dieses Übertacktungspotentieal erinnert jetzt doch irgendwie an Flgship aus dem Hwluxx Forum....

Welcher aber 100%tig kein R600 hatte. Zumal er von 1,3Ghz+ schrieb.

up¦²
2007-05-12, 11:55:11
reunion: verstehe deine Skepsis, aber da ist bisher noch was untergegangen:
http://farm1.static.flickr.com/232/493030423_42d6cfca81_m.jpg
Das neue Games for Windows Logo
Dazu:
Lost Planet for PC will run under Windows XP (supporting DirectX 9) and Windows Vista (supporting both DirectX 9 and DirectX 10.) The DirectX 10 version will utilize the advanced features of Shader model 4.0 and Geometry Shader only available with DirectX 10. Lost Planet will also carry the Games for Windows branding, offering a better gaming experience with easy installation, reliability and safety features, and support for the Xbox 360 controller for Windows.
http://blogs.capcomusa.com/blogs/news.php/2007/05/10/pc_gamers_to_get_a_taste_of_lost_planet_
Also hat MS da die Regie gehabt und bei einem Preis von 39$ bestimmt einen Schein draufgelegt, um Vista zu promoten :wink:
Auch wenn es Nvidia mit dem bekannten Logo feiert (verständlich, denn auch für die G8x ist es endlich "Futter"), es ist sicher der spannenste Launch, an den ich mich erinnern kann: genial!
Gerade zur rechten Zeit kommt doch noch ein Benchmark, der hoffentlich zeigt, was Fakt und nicht Fake ist :wink:

dargo
2007-05-12, 11:59:16
reunion: verstehe deine Skepsis, aber da ist bisher noch was untergegangen:
http://farm1.static.flickr.com/232/493030423_42d6cfca81_m.jpg
Das neue Games for Windows Logo
Dazu:

http://blogs.capcomusa.com/blogs/news.php/2007/05/10/pc_gamers_to_get_a_taste_of_lost_planet_
Also hat MS da die Regie gehabt und bei einem Preis von 39$ bestimmt einen Schein draufgelegt, um Vista zu promoten :wink:
Auch wenn es Nvidia mit dem bekannten Logo feiert (verständlich, denn auch für die G8x ist es endlich "Futter"), es ist sicher der spannenste Launch, an den ich mich erinnern kann: genial!
Gerade zur rechten Zeit kommt doch noch ein Benchmark, der hoffentlich zeigt, was Fakt und nicht Fake ist :wink:
Mir wäre viel lieber wenn da was anderes kommen würde. Lost Planet ist imho kein DX10 Vorzeigespiel. Die Grafik finde ich eher lächerlich als Vorzeigespiel für DX10.

deekey777
2007-05-12, 12:02:01
Du hast schon genau verstanden was ich damit meine. Nahezu jedes Game läuft unter Vista langsamer. Ob dann nun an Vista oder den Grafiktreibern liegt dürfte dem Kunden Sche.. egal sein.
Also nur weil Games langsamer laufen, ist das BS im Beta-Stadium? Wenn man aber keine Games spielt, was dann?

Es wurde vor fast einem Jahr von Dave Orton gesagt, dass die Vista-Treiber mindestens 6 Monate Zeit brauchen, um die Performance der XP-Treiber zu erreichen.

reunion
2007-05-12, 12:06:01
Mir wäre viel lieber wenn da was anderes kommen würde. Lost Planet ist imho kein DX10 Vorzeigespiel. Die Grafik finde ich eher lächerlich als Vorzeigespiel für DX10.

Du hast Lost Planet auf der Xbox360 gespielt? Ich finde, dass sich das vor keinem aktuellen PC-Game verstecken muss. UNd die DX10-Version soll ja nochmal deutlich aufgebohrt sein.

PCGH_Carsten
2007-05-12, 12:06:07
Es wurde vor fast einem Jahr von Dave Orton gesagt, dass die Vista-Treiber mindestens 6 Monate Zeit brauchen, um die Performance der XP-Treiber zu erreichen.
Die 6 Monate sind dann ja seit fast 6 Monaten um, oder?

PCGH_Carsten
2007-05-12, 12:06:49
Du hast Lost Planet auf der Xbox360 gespielt? Ich finde, dass sich das vor keinem aktuellen PC-Game verstecken muss. UNd die DX10-Version soll ja nochmal deutlich aufgebohrt sein.
Wenn es ein Xbox360-Port ist, sollte es dem R600 ja geradezu auf den Leib geschneidert sein.

dargo
2007-05-12, 12:07:59
Also nur weil Games langsamer laufen, ist das BS im Beta-Stadium?

Für mich ja. Ich wüßte nicht warum ich umsteigen sollte wenn ich auf Performance verzichten muss. :|


Wenn man aber keine Games spielt, was dann?

Es geht hier um den R600. Und 99,9% der Leute die sich hier so eine Karte anschaffen tun es wegen Spielen. ;)



Es wurde vor fast einem Jahr von Dave Orton gesagt, dass die Vista-Treiber mindestens 6 Monate Zeit brauchen, um die Performance der XP-Treiber zu erreichen.
Deswegen werde ich mir erst Vista anschaffen wenn der erste Service Pack erschienen ist und die Performance mindestens genaso gut wie unter XP ist. Es sei denn es gibt vorher schon schöne DX10 Spiele (was ich bezweifle). Und dazu gehört sicherlich keine Konsolenportierung @Lost Planet.

Du hast Lost Planet auf der Xbox360 gespielt?
Nein, habe aber Screenshots von DX10 gesehen. Und die Grafik überzeugt mich in keinster Weise.

Ronny145
2007-05-12, 12:11:53
"cards not provided by AMD".

http://it-review.net/index.php?option=com_content&task=view&id=1325&Itemid=91



Vor allem hatten die ein Foto mit 6 Karten gezeigt. Die müssen woanders herkommen, daher kann der Seite das NDA völlig egal sein.

PCGH_Carsten
2007-05-12, 12:13:22
Vor allem hatten die ein Foto mit 6 Karten gezeigt. Die müssen woanders herkommen, daher kann der Seite das NDA völlig egal sein.
Tja, so ist das eben mit NDAs - mal verliert man, mal gewinnen die anderen.

reunion
2007-05-12, 12:16:22
Die 6 Monate sind dann ja seit fast 6 Monaten um, oder?

So schlecht sieht es mit den Treibern IMHO auch gar nicht aus.

Wenn es ein Xbox360-Port ist, sollte es dem R600 ja geradezu auf den Leib geschneidert sein.

Wir werden sehen. Wenn ich mir anschaue, dass die Demo exklusiv von Nvidia angeboten wird, dann wage ich das doch eher zu bezweifeln.

up¦²
2007-05-12, 12:26:03
Wenn es ein Xbox360-Port ist, sollte es dem R600 ja geradezu auf den Leib geschneidert sein.

Eben, und das ist erst der anfang vom triple-play: xp, Vista, xbox360

Wer Zweifel an der Optik von Lost Planet hegt, sollte mal hier reinschaun:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=293262
und den verlinkten PC-HD-Trailer ansehn:
http://www.vitivi.tv/show_video.php?var=8716;wmv;0;lostplanetpctrailer1vitivi.jpg;256;4;0&game=Lost+Planet%3A+Extreme+Condition
=> hoher Game-lustfaktor (langzeit => MP?) und sieht super aus!
Gerade durch DX10 Akzente hat es vielleicht das Zeug dazu, ein Vista-Hingucker zu werden, denn Crytek konnte sich ja leisten, kein Demoleinchen zu Vista zu "spendieren" - trotz höchstwahrscheinlich lockender Angebote seitens MS.

StefanV
2007-05-12, 12:34:00
R600@1,15GHz core
http://www.imagebanana.com/img/8xke6a3m/thumb/r600oc.jpg (http://www.imagebanana.com/view/8xke6a3m/r600oc.jpg)

R600 24k single card 3D05
http://www.imagebanana.com/img/2wuv5re3/thumb/r600oc2.PNG (http://www.imagebanana.com/view/2wuv5re3/r600oc2.PNG)
Nur zur Info:

Diese Shots sind fürn Arsch, damit kann man ganz leicht mal ein paar richtig geile Shots faken oder glaubt mit einer, das meine x1950 PRO auf 650/750MHz ohne Modifikationen läuft?!
Hab ich ja mit dem AMD CLK Tool eingestellt gehabt (naja, halb).

dargo
2007-05-12, 12:35:18
Wer Zweifel an der Optik von Lost Planet hegt, sollte mal hier reinschaun:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=293262
und den verlinkten PC-HD-Trailer ansehn: hoher Gamelustfaktor (langzeit => MP?) und sieht super aus!
Gerade durch DX10 Akzente hat es vielleicht das Zeug dazu, ein Vista-Hingucker zu werden, denn Crytek konnte sich ja leisten, kein Demoleinchen zu Vista zu "spendieren" - trotz höchstwahrscheinlich lockender Angebote seitens MS.
Toll, "Low-Poly" Grafik mit Einschusslöchern im Schnee. :uclap:
Softshadows gibts auch unter DX9 und die "schlechten" Texturen musste man ja auch unbedingt von der XBox übernehmen. :cool:
Die Grafik ist eher durchschnitt, mehr nicht. Da erwarte ich schon von UT3, Crysis und Bioshock deutlich mehr.

Gast
2007-05-12, 12:35:29
Wir werden sehen. Wenn ich mir anschaue, dass die Demo exklusiv von Nvidia angeboten wird, dann wage ich das doch eher zu bezweifeln.

Der DX9 Part wird wohl eine 1;! Umsetzung von der Box sein - also sehr r600 freundlich.
Beim DX10 Part wird nVidia wohl viel geholfen (selbstgemacht) haben und somit wird wohl dies besser auf den G80 laufen. Der r600 sollte keine Probleme haben.

w0mbat
2007-05-12, 12:36:15
Nur zur Info:

Diese Shots sind fürn Arsch, damit kann man ganz leicht mal ein paar richtig geile Shots faken oder glaubt mit einer, das meine x1950 PRO auf 650/750MHz ohne Modifikationen läuft?!
Hab ich ja mit dem AMD CLK Tool eingestellt gehabt (naja, halb).

Die Screens sind bestimmt kein Fake. Ist komisch, sobald etwas auftaucht was ohnen etwas extrem vorkommt wird gleich Fake gebrüllt. Die 1,15GHz weren übrigens mit Vmod und Vapochiller.

StefanV
2007-05-12, 12:38:26
Die Screens sind bestimmt kein Fake. Ist komisch, sobald etwas auftaucht was ohnen etwas extrem vorkommt wird gleich Fake gebrüllt. Die 1,15GHz weren übrigens mit Vmod und Vapochiller.
Die Screens sind fake, denn man sieht nirgendwo, ob der angegebene Takt auch WIRKLICH übernommen wird, von daher glaub ich das nicht.

reunion
2007-05-12, 12:39:48
Nein, habe aber Screenshots von DX10 gesehen. Und die Grafik überzeugt mich in keinster Weise.

Eine solche Aussage kann IMHO nur von jemanden kommen, der das Spiel weder gespielt, noch sich wirklich ernsthaft damit beschäftigt hat.

StefanV
2007-05-12, 12:40:35
Der DX9 Part wird wohl eine 1;! Umsetzung von der Box sein - also sehr r600 freundlich.
Beim DX10 Part wird nVidia wohl viel geholfen (selbstgemacht) haben und somit wird wohl dies besser auf den G80 laufen. Der r600 sollte keine Probleme haben.
Selten so einen Stuss gelesen.:ucrazy4:

Aber die Herren die jetzt der Meinung sind, das der DX9 Part sehr R600 freundlich wäre, sollten doch mal darlegen, wie man programmiert, um den G80 schlecht dastehen zu lassen, bin schon gespannt drauf!!

Bei den CineFX Teilen wissen wir ja, das man da die Stalls der TMUs beachten muss...

reunion
2007-05-12, 12:42:44
Die Grafik ist eher durchschnitt, mehr nicht. Da erwarte ich schon von UT3, Crysis und Bioshock deutlich mehr.

Welche alle drei erst - mit Glück - irgendwann diese Jahr erscheinen, während LostPlanet schon lange verkauft wird.

Bei den CineFX Teilen wissen wir ja, das man da die Stalls der TMUs beachten muss...

Was willst du da beachten? Die TMUs bei CineFX stallen immer.

dargo
2007-05-12, 12:43:27
Eine solche Aussage kann IMHO nur von jemanden kommen, der das Spiel weder gespielt, noch sich wirklich ernsthaft damit beschäftigt hat.
Wir können gern nochmal darüber diskutieren wenn die Demo erschienen ist und paar Screenshots im entsprechenden Thread von DX10 erscheinen.

Welche alle drei erst - mit Glück - irgendwann diese Jahr erscheinen, während LostPlanet schon lange verkauft wird.

Ach ja, ich dachte es geht hier um die DX10 Version am PC die es noch gar nicht gibt.

w0mbat
2007-05-12, 12:43:30
Die Screens sind fake, denn man sieht nirgendwo, ob der angegebene Takt auch WIRKLICH übernommen wird, von daher glaub ich das nicht.

Und nur weil man es nicht sieht ist es automatisch ein Fake? Du bist gut ;D

Gast
2007-05-12, 12:46:46
Aber die Herren die jetzt der Meinung sind, das der DX9 Part sehr R600 freundlich wäre, sollten doch mal darlegen, wie man programmiert, um den G80 schlecht dastehen zu lassen, bin schon gespannt drauf!!

Wo steht da etwas von "den G80 schlecht dastehen zu lassen"?
Der r600 ist ein Xenos mit Erweiterungen. Und Xbox360 Portierungen sind bis jetzt immer 1:1 von der Box übernommen wurden. Und hier profitiert der r600 besonders, da er einen sehr ähnlichen Aufbau wie Xenos hat.

Bei den CineFX Teilen wissen wir ja, das man da die Stalls der TMUs beachten muss...

Wir wissen auch, dass die Recheneinheiten beim G80 immer auf 100% laufen und es kaum zu blasen kommt.
Der r600 benötigt diesmal eine bessere Anspassung, da seine Recheneinheiten die deutlich ineffizienteren sind.

reunion
2007-05-12, 12:48:40
Selten so einen Stuss gelesen.:ucrazy4:

Aber die Herren die jetzt der Meinung sind, das der DX9 Part sehr R600 freundlich wäre, sollten doch mal darlegen, wie man programmiert, um den G80 schlecht dastehen zu lassen, bin schon gespannt drauf!!


Man kann auch Chip x gut dastehen lassen, ohne Chip y schlecht dastehen lassen zu müssen. Wenn du verstehst, was ich meine.

Gast
2007-05-12, 12:52:45
Aber die Herren die jetzt der Meinung sind, das der DX9 Part sehr R600 freundlich wäre, sollten doch mal darlegen, wie man programmiert, um den G80 schlecht dastehen zu lassen, bin schon gespannt drauf!!




Indem man sämtliche Skalarberechenungen auf Vec4 aufbläst und dann drei der berechneten Ergebnisse einfach wegwirft.

up¦²
2007-05-12, 12:53:40
Also das wird jetzt bissel kompliziert...
Lost Planet hat vielleicht nicht DX10 in optima forma, aber es setzt eben Akzente (vergleich mal z.B. Spielspaß bei WII, trotz sehr bescheidener Optik).
Und was zu Physics?
Lost Planet wäre ideal als Ballerspiel und zeigt jetzt schon verdammt viel Physicszeug, was mit zum Erstaunen beiträgt
Die kleine Ageia-Minioffensive :biggrin: neulich war vielleicht ein Wink mit dem Zaunpfahl?
Wenn Ati das gleich mitnimmt macht das Welten bei Optik und Benchmarks aus... (ähm, hatte man sich seitens Ati nicht relativ großspurig geäußert... ?)
Übrigens zu DX10
Hellgate London (=> mit Havok FX Physics),
Blacksite: Area 51 (http://ve3d.ign.com/articles/787/787632p1.html)
sind sehr bald da!

reunion
2007-05-12, 12:53:53
Schaue mal hier http://www.imagehost123.uni.cc/uploads/81a60a656b.jpg
Lieferumfang der HIS, kein Adapter dabei!
Seltsam oder? :P
Erst schauen und dann schwafeln!

MfG :cool:

Hier ist dein Adapter:

http://img515.imageshack.us/img515/8195/x2900xt06xm7.jpg

Sogar eine Crossfire-Brücke ist dabei.

James Ryan
2007-05-12, 12:58:32
Hier ist dein Adapter:

http://img515.imageshack.us/img515/8195/x2900xt06xm7.jpg

Sogar eine Crossfire-Brücke ist dabei.

Gut, anscheinend ist MSI nicht so geizig wie Sapphire und HIS, die legen keinen Adapter bei. ;)
Crossfirebrücke muss aber Standard sein, da es ja jetzt keine Masterkarte mehr gibt.

MfG :cool:

up¦²
2007-05-12, 12:59:28
Benchmarkbalken? :biggrin:
http://img515.imageshack.us/img515/7291/x2900xt05vk7.jpg


Gut, anscheinend ist MSI nicht so geizig wie Sapphire und HIS, die legen keinen Adapter bei. ;)
Crossfirebrücke muss aber Standard sein, da es ja jetzt keine Masterkarte mehr gibt.

MfG :cool:

Das dürfde der Unterschied zu den OEM-Versionen sein :wink:

reunion
2007-05-12, 13:03:50
Crossfirebrücke muss aber Standard sein, da es ja jetzt keine Masterkarte mehr gibt.


Bei nV ist das nicht Standard, da liegen die SLI-Brücken höchstens den Mainboards bei, wenn man Glück hat.

Gast
2007-05-12, 13:05:07
bis jetzt waren die bei jedem meiner SLI boards dabei...

reunion
2007-05-12, 13:09:47
Bei meinem K8NXP-SLI fehlte die Brücke. Und da diese auch bei keiner nV-Grafikkarte beiliegt, darf man die dann völlig überteuert extra nachkaufen.

Gast
2007-05-12, 13:12:19
schau dir mal alle reviews zu dem board an. überall lag eine dabei.

reunion
2007-05-12, 13:21:42
Ich weiß. Bei den ersten Boards lag sie angeblich auch bei, nur hat sich Gigabyte bei einer neueren Revision dazu entschlossen, diese einzusparen.

Gast
2007-05-12, 13:21:44
anscheinend gibt's in der c't für abonennten schon einen Test:

http://www.forumdeluxx.de/forum/showpost.php?p=6100525&postcount=5370

Grestorn
2007-05-12, 13:22:20
Bei meinem K8NXP-SLI fehlte die Brücke. Und da diese auch bei keiner nV-Grafikkarte beiliegt, darf man die dann völlig überteuert extra nachkaufen.

Es macht keinen Sinn, die Brücke bei der Karte beizulegen. Der zu überbrückende Abstand hängt vom Motherboard ab!

reunion
2007-05-12, 13:25:15
anscheinend gibt's in der c't für abonennten schon einen Test:

http://www.forumdeluxx.de/forum/showpost.php?p=6100525&postcount=5370


Oblivion, HDR an

1280 X 1024 noAA/noAF

2900 XT 49 fps
88 GTS 48 fps
88 GTX 48 fps

1280 X 1024 AA 4X / noAF

2900 XT 39 fps
88 GTS 46 fps
88 GTX 48 fps

1280 x1024 AA 8X / noAF

HD 2900 XT 17 fps
88 GTS 28 fps
88 GTX 39 fps

Also das die Karte ausgerechnet bei MSAA einbricht, was eigentlich primär nur Bandbreite kostet spricht wiedermal für irgendein seltsames Treiberproblem. Dass der VRAM bei der Auflösung zu knapp wird, kann ich mir auch kaum vorstellen.

Es macht keinen Sinn, die Brücke bei der Karte beizulegen. Der zu überbrückende Abstand hängt vom Motherboard ab!

Solange die Brücke lang genug ist, sehe ich da kein Problem, sofern es sich um ein flexiblem Band handelt und nicht um eine steife Brücke.

Coda
2007-05-12, 13:34:06
Ich würde da gern mal die verwendete Forceware-Version wissen. Die D3D10-Demo-Ergebnisse sehen nach einem ganz alten Treiber aus.

Hvoralek
2007-05-12, 13:34:16
Also das die Karte ausgerechnet bei MSAA einbricht, was eigentlich primär nur Bandbreite kostet spricht wiedermal für irgendein seltsames Treiberproblem. Dass der VRAM bei der Auflösung zu knapp wird, kann ich mir auch kaum vorstellen.Bei Oblivion kann man RAM- Knappheit praktisch ausschließen. Schon mit 256- MiB- Karten kann man einige höher aufgelöste Texturen ohne Leistungsverluste nutzen, da wird bei 512 MiB nicht wegen AA der RAM ausgehen. Ein Einbruch um mehr als die Hälfte von 4x auf 8x spricht schon stark dafür, dass da etwas nicht stimmt. Entweder mit den Werten oder mit den Treibern.

AnarchX
2007-05-12, 13:36:34
Also das die Karte ausgerechnet bei MSAA einbricht, was eigentlich primär nur Bandbreite kostet spricht wiedermal für irgendein seltsames Treiberproblem.

Da hier GTS/GTX unter 8xAA am CPU-Limit hängen kann man den Einbruch nicht wirklich bewerten. Aber man sollte nicht vergessen, dass R600 wohl auch im Bezug auf die ROPs hinter dem G80 steht.

Ich würde da gern mal die verwendete Forceware-Version wissen. Die D3D10-Demo-Ergebnisse sehen nach einem ganz alten Treiber aus.

158.22 soll es gewesen sein.

reunion
2007-05-12, 13:50:27
Da hier GTS/GTX unter 8xAA am CPU-Limit hängen kann man den Einbruch nicht wirklich bewerten. Aber man sollte nicht vergessen, dass R600 wohl auch im Bezug auf die ROPs hinter dem G80 steht.


Die Ergebnisse der G80-Karten sind völlig egal in diesem Zusammenhang. Der Einbruch des R600 von 4xAA zu 8xAA ist viel zu hoch. Und das die ROPs limitieren, kann ich mir auch kaum vorstellen, immerhin schaffen die Dinger single-cycle 4xMSAA pro Takt, müssen also für 8xMSAA nur einmal loopen. Ein R580 muss das bereits für 4xMSAA, und für 6xMSAA bereits dreimal, bei deutlich geringerem Einbruch.

Undertaker
2007-05-12, 13:56:36
Die Ergebnisse der G80-Karten sind völlig egal in diesem Zusammenhang. Der Einbruch des R600 von 4xAA zu 8xAA ist viel zu hoch. Und das die ROPs limitieren, kann ich mir auch kaum vorstellen, immerhin schaffen die Dinger single-cycle 4xMSAA pro Takt, müssen also für 8xMSAA nur einmal loopen. Ein R580 muss das bereits für 4xMSAA, und für 6xMSAA bereits dreimal, bei deutlich geringerem Einbruch.

es wurde adaptives aa verwendet, das laut amd noch treiberprobleme hat

reunion
2007-05-12, 13:58:01
es wurde adaptives aa verwendet, das laut amd noch treiberprobleme hat

Okay, das erklärt natürlich einiges.
In den DX10 GS-Tests scheint die Karte jedenfalls ziemlich abzugehen.

Coda
2007-05-12, 14:06:23
Ich hab aber selbst auf ner 8800GTS deutlich mehr als 11 FPS in der Cubemap-GS-Demo (es ist flüssig, also min 20+)

Beim Release-Treiber hat's allerdings geruckelt wie Sau.

reunion
2007-05-12, 14:08:33
Ich hab aber selbst auf ner 8800GTS deutlich mehr als 11 FPS in der Cubemap-GS-Demo (es ist flüssig, also min 20+)

Beim Release-Treiber hat's allerdings geruckelt wie Sau.

Naja, kommt ja auch darauf an, welche Auflösung/Qualitätsfeatures verwendet wurde, nicht?
Die Treiber sind jedenfalls nagelneu.

BTW:

http://img206.imageshack.us/img206/3517/122nv7rc9.jpg

Und noch ein Edit:
Der Strpmverbrauch wird nur als 215 Watt amgegeben, sie sagen aber dass er deutlich niedriger liege.
http://www.forumdeluxx.de/forum/showthread.php?t=345672&page=181

Coda
2007-05-12, 14:11:25
Naja, kommt ja auch darauf an, welche Auflösung/Qualitätsfeatures verwendet wurde, nicht?
Wenn's am GS hängt ja wohl nicht.

Ich teste aber nochmal wenn ich nach Hause komm. Mein Popellaptop hat leider noch ne GeForce 6 ;)

AnarchX
2007-05-12, 14:13:33
es wurde adaptives aa verwendet, das laut amd noch treiberprobleme hat

Imo sieht es mir eher danach, dass sie hier das Füllratendefizit des R600 zeigt.
Jedenfalls passt das Verhältnis sehr gut im Zusammenhang mit den anderen Karten.

Coda
2007-05-12, 14:16:54
MSAA hat doch mit der Texelfüllrate nichts zu tun. Wieviel ROPs hat das Teil eigentlich?

AnarchX
2007-05-12, 14:18:43
MSAA hat doch mit der Texelfüllrate nichts zu tun.
Es ja nicht nur MSAA sondern auch AAA bzw. TRSAA. ;)


Wieviel ROPs hat das Teil eigentlich?
16

reunion
2007-05-12, 14:21:24
Ich teste aber nochmal wenn ich nach Hause komm.

Das wird wohl das beste sein.

Imo sieht es mir eher danach, dass sie hier das Füllratendefizit des R600 zeigt.
Jedenfalls passt das Verhältnis sehr gut im Zusammenhang mit den anderen Karten.

Wenn AMD sagt, dass es noch ein Treiberproblem gibt, dann wird das schon seine Gründe haben.

16

Die Pixelfüllrate liegt mit MSAA jedenfalls bei 47.5GPixel/s. Mehr als genug IMHO.

Hier noch die ASUS-Karte:
http://www.pcmasters.de/fileadmin/news/asus/ASUS_HD2900_XT_01.jpg
http://www.pcmasters.de/hardware/review/asus-hd-2900-xt-stalker-hl2.html

AnarchX
2007-05-12, 14:24:23
Wenn AMD sagt, dass es noch ein Treiberproblem gibt, dann wird das schon seine Gründe haben.


AMD sagt?
c't sagt(sinngemäß): 2900 XT enttäuscht bei adaptiven Antialiasing, aber anscheinend Treiberprobleme.
http://www.forumdeluxx.de/forum/showpost.php?p=6100831&postcount=5415

reunion
2007-05-12, 14:26:05
AMD sagt?

http://www.forumdeluxx.de/forum/showpost.php?p=6100831&postcount=5415

Oh, ich habe das Heft ja nicht. Die Aussage von Undertakter waren jedenfalls eindeutig.

Aber auch interessant bei deinem Link:
Desweiteren sollen die Geometrie Shader des G80 nicht sehr leistungsfähig sein, weswegen der R600 in Direct X10 abzieht.

Toppas:-)
2007-05-12, 14:26:45
Ich habe dann nur die Befürchtung wenn die Treiber ein Problem noch haben, das Sie in den Reviews schlechter gemacht wird als sie in wirklichkeit dann ist. Denke aber mal das Sie eigendlich auf dem Niveau von der GTS liegen sollte, vom Design her auf jeden fall.

Gast
2007-05-12, 14:47:21
Die Screens sind bestimmt kein Fake. Ist komisch, sobald etwas auftaucht was ohnen etwas extrem vorkommt wird gleich Fake gebrüllt. Die 1,15GHz weren übrigens mit Vmod und Vapochiller.Die screens sind fürn Arsch.

Unter 1150 Vpu wurde NUR Canyon Flight durchlaufen lassen!
Unter 870 Vpu wurden Die Cpu test nicht gemacht. Ob das nun an der Grakart lag Ka aber die Cpu ist sicher mit den 4,2 GHz nicht stabiel genug dafür

Also fürn Popo

Raff
2007-05-12, 14:48:45
Worlds first DX10 playable demo available May 15th from NZONE.com
http://blogs.nvidia.com/developers/2007/05/today_we_nvidia.html

Damit müssten wir ja dann sogar einen, mehr oder weniger, ordentlichen DirectX 10 "Benchmark" haben. :)

Das Ding "gibt" es schon: http://www.pcgameshardware.de/?article_id=601203

MfG,
Raff

up¦²
2007-05-12, 14:50:52
Also es wird spannend, inwieweit wir vom € profitieren, Leute:
eine HD2900XT wird schon zu €353,00 (http://www.dollarshops.eu/product_info.php/products_id/651)gelistet...

BTW, Da die Kriegskasse bei Nvidia wohl proppvoll ist, kursieren Gerüchte, dass Nvidia die Preise senkt... wird spannend Montag!

AnarchX
2007-05-12, 14:51:04
Aber auch interessant bei deinem Link:

Das ziehen sie höchstwahrscheinlich aus ihren Benches, die aber alles andere als sauber aussehen -> GTX doppelt so schnell wie ein GTS im PIPEGS? :|

Undertaker
2007-05-12, 14:57:22
AMD sagt?

http://www.forumdeluxx.de/forum/showpost.php?p=6100831&postcount=5415

nein, die c't schreibt wortwörtlich:

"amd räumte treiberprobleme mit dem adaptiven antialising ein"

reunion
2007-05-12, 15:05:18
Hier wird die 1GB OEM XT getestet: http://www.xtremesystems.org/forums/showthread.php?t=143915

Und wiedermal gehts um den Treiber:

there is sth bother me. it is only report XT not XTX. but GDDR4 and 1GB are ok. i wonder why.
under 3Dmark, 05 is killing G80. 06 and 01 increase a lot too by using 8.374 driver. i am going to try 8.38 soon. hopefully it can increase about 10%+

it is all about DRIVER now

Und:
(ich stehle mir die schöne Aufteilng mal von w0mbat)

Company of Heros

1024x768
GTS 640: 115fps
2900 XT: 140fps

1280x1024
GTS 640: 92fps
2900 XT: 123fps

1600x1200
GTS 640: 70fps
2900 XT: 96fps

Fear

1024x768
GTS 640: 118fps
2900 XT: 116fps

1280x1024
GTS 640: 82fps
2900 XT: 86fps

1600x1200
GTS 640: 58fps
2900 XT: 60fps

Stalker

1024x768
GTS 640: 102fps
2900 XT: 118fps

1280x1024
GTS 640: 87fps
2900 XT: 88fps

1600x1200
GTS 640: 74fps
2900 XT: 74fps

Half Life 2

1024x768
GTS 640: 139fps
2900 XT: 140fps

1280x1024
GTS 640: 136fps
2900 XT: 136fps

1600x1200
GTS 640: 132fps
2900 XT: 127fps

http://forums.overclockers.co.uk/showthread.php?t=17728308

Liszca
2007-05-12, 15:16:09
hiess es nicht mal dass alle karte eine HD-Video-Engine bekommen?

was übrigens noch auffällig scheint, dass der karte TAA nicht so gut bekommt wie nvidias 8800er.

kann mal jemand klären was der d3d 10 sdk für eine aussage treffen soll/könnte?

Adam D.
2007-05-12, 15:18:34
Das Englisch ist ja wirklich heftig :usad:

Das wird jetzt wohl ein Treiber-Krieg werden, da hat Nvidia natürlich Vorteile. Das arme Treiber-Team von ATi, die haben sicher seit einigen Wochen keinen Schlaf mehr bekommen ;(

Gast
2007-05-12, 15:21:39
nVidia wird wohl den ein oder anderen Performance-Treiber noch in der Hinterhand haben - oder sind irgendwem schon große Sprünge aufgefallen?
Am Montag soll ein neuer Vista-Treiber erscheinen, mal gucken was dieser bringen wird.

Botcruscher
2007-05-12, 15:22:32
Die Treiber dürften auch ein Hauptgrund für die Verschiebung gewesen sein. Solange XP geht ist die Welt eh io.:rolleyes:

Liszca
2007-05-12, 15:24:48
nVidia wird wohl den ein oder anderen Performance-Treiber noch in der Hinterhand haben - oder sind irgendwem schon große Sprünge aufgefallen?
Am Montag soll ein neuer Vista-Treiber erscheinen, mal gucken was dieser bringen wird.

weltbewegende sprünge hat es seit der veroptimierung des AF eigentlich nicht mehr gegeben, wobei ich noch hinzufügen möchte, das man bis 10% nicht drüber reden brauch.

Coda
2007-05-12, 15:24:56
Das wird wohl das beste sein.
So hab's nochmal probiert

1. Zeigt das Demo keine FPS an
2. Fraps geht nicht mit D3D10
3. Es läuft absolut flüssig, selbst in 1600x1200. Das sind definitiv >30 FPS.

Edit: Ach so mit der Karre an, läuft's wirklich nicht mehr so flüssig. Okay. Würd mich trotzdem interessieren wie die ihre Werte gemessen haben. Dazu aber auch noch was anderes: http://forums.microsoft.com/MSDN/ShowPost.aspx?PostID=1259714&SiteID=1

Wenn's wirklich so schlimm in Hardware ist, dann wär's wieder mal so ne nVIDIA-Aktion die ich nicht verstehen werde. Das würde den GS praktisch nutzlos machen für mindestens die erste D3D10-Spiele-Generation. Ich dachte mit D3D10 hat man endlich Ruhe vor Performancefallen...

Gast
2007-05-12, 15:35:57
Es macht keinen Sinn, die Brücke bei der Karte beizulegen. Der zu überbrückende Abstand hängt vom Motherboard ab!

Ja, aber da die Höhe/Abstände der Slotbleche im Gehäuse genormt ist, kann es da nur 2 Versionen geben, mit 1 bzw. 2 Leerslots dazwischen (mit dreien hab ich noch kein Board gesehen).

dildo4u
2007-05-12, 15:41:35
Crossfire scheint auch noch nicht soo gut zu laufen siehe FEAR,Prey und Oblivion.

http://it-review.net/index.php?option=com_content&task=view&id=1325&Itemid=91&limit=1&limitstart=3

Blaire
2007-05-12, 16:17:46
Crossfire scheint auch noch nicht soo gut zu laufen siehe FEAR,Prey und Oblivion.

http://it-review.net/index.php?option=com_content&task=view&id=1325&Itemid=91&limit=1&limitstart=3

Solange man bei Crossfire die Profile nicht bearbeiten kann ists fürn Arsch.

AnarchX
2007-05-12, 17:02:38
nein, die c't schreibt wortwörtlich:

"amd räumte treiberprobleme mit dem adaptiven antialising ein"

Wie auch die SM2.0 Performance der FX-Karten ein "Treiberproblem" war.:D

Die Werte sind jedenfalls recht eindeutig, auch zwischen GTS und GTX sieht man gut das hier die Performance von der Texelfüllrate abhängt.

Naja, wenigsten wird bald EATM offiziell, sodass man trotzdem geglättet Alpha-Tests hat ohne dass die Performance extrem einbricht.


Und:
(ich stehle mir die schöne Aufteilng mal von w0mbat)

http://forums.overclockers.co.uk/showthread.php?t=17728308

Fragt sich nur wer auf einer 350€ 2900XT ohne Qualitätseinstellungen spielt.

Adam D.
2007-05-12, 17:15:18
Was ich mich immer bei Treibern frag: wie wird da die Leistung verbessert? Kann man die Karte irgendwie dazu bringen, ihr Potential besser zu nutzen oder wird sie anders angesprochen oder wie läuft das eigentlich ab? Ich kenn mich damit gar nicht aus, aber ich kann mir nie vorstellen, wie dann teilweise zu so großen Performance-Sprüngen kommt. Können die Treiber-Teams anfangs nicht mit dem eigenen Stück Hardware umgehen oder wie?!

Winter[Raven]
2007-05-12, 17:27:25
Was ich mich immer bei Treibern frag: wie wird da die Leistung verbessert? Kann man die Karte irgendwie dazu bringen, ihr Potential besser zu nutzen oder wird sie anders angesprochen oder wie läuft das eigentlich ab?

Shaderreplacement ect... die gleichen Sachen die NV ähnlich tut.

LovesuckZ
2007-05-12, 17:33:01
Betrachtet man die beiden Kühlkonstruktionen, dann weiß man, wohin wohl die 400k verkauften G80 Karten gewandert sind.

Hvoralek
2007-05-12, 17:39:08
Die Werte sind jedenfalls recht eindeutig, auch zwischen GTS und GTX sieht man gut das hier die Performance von der Texelfüllrate abhängt.Die GTS hat 65% der Texelfüllrate, 67% der Arithmetikleistung, 72% der Pixel-/ z- Füllrate und 74% der Bandbreite der GTX. Kannst Du anhand der beiden sicher erkennen, was in einem bestimmten Fall v.a. wichtig ist?

reunion
2007-05-12, 17:48:32
Betrachtet man die beiden Kühlkonstruktionen, dann weiß man, wohin wohl die 400k verkauften G80 Karten gewandert sind.

Also ob nV diesen Konzept erfunden hätte. Ansonsten: Wenn man nur die Plastikabdeckung betrachtet vielleicht.

Wie auch die SM2.0 Performance der FX-Karten ein "Treiberproblem" war.:D

Die Werte sind jedenfalls recht eindeutig, auch zwischen GTS und GTX sieht man gut das hier die Performance von der Texelfüllrate abhängt.


Mutmaßungen, nichts als Mutmaßungen.


Fragt sich nur wer auf einer 350€ 2900XT ohne Qualitätseinstellungen spielt.

Wer sagt, dass es mit Qualitätseinstellungen schlechter aussieht (wenn die Treiber mal halbwegs brauchbar sind)?

AnarchX
2007-05-12, 17:49:16
Die GTS hat 65% der Texelfüllrate, 67% der Arithmetikleistung, 72% der Pixel-/ z- Füllrate und 74% der Bandbreite der GTX. Kannst Du anhand der beiden sicher erkennen, was in einem bestimmten Fall v.a. wichtig ist?

Imo kann man schon erkennen, indem sich einige Vergleiche anschaut, dass Oblivion inden Aussenlevlen mit TRSAA/AAA doch sehr an der Füllrate bei einigen Karten hängt.

btw.
Wie lange hält sich eigentlich dieses Gerücht noch, in Oblivion spiele (Fragment-) Shaderleistung eine große Rolle? Beim CB- Benchmark wird das doch durch den Mini- Abstand zwischen X1800XT und X1900XT (Mit der dreifachen Fragmentshaderleistung) klar widerlegt. In Innenräumen (http://www.firingsquad.com/hardware/oblivion_high-end_performance/page7.asp) sieht das allerdings anders aus (Und eine 7900GTX liegt dann etwa gleichauf mit einer X1900XT - in Oblivion). Außerdem ist die Arithmetikleistung nicht gerade die große Stärke des G80: Auch mit seiner größeren Effizienz wird er sie kaum doppelt so hoch sein wie bei R580. Dafür ist die Filterleistung etwa 3 1/2- mal so hoch und das wird auch der Hauptgrund für das gute Abschneiden in Oblivion sein (neben der Z- Füllrate und evtl. der hohen Geometrieleistung als USC).
;)


Wer sagt, dass es mit Qualitätseinstellungen schlechter aussieht (wenn die Treiber mal halbwegs brauchbar sind)?
Die für QE wichtigen Eckdaten des R600. ;)

Gast
2007-05-12, 17:50:10
Wenn ich TMSAA oder TSSAA einschalte werden die ROPs doch stärker beansprucht. Was ist bei ATI denn da aktiv, kann man das auswählen das das verfahren vgl. mit dem von nV ist? Und die Benches sind ja total fürn .... ohne AA/AF Angabe.
Und anscheinend schlägt die XT sich jetzt doch mit der GTS640 rum, es hies doch sie kann mit der GTX mithalten. Alles Fake irgendwo und ungenau (im Sinne von/wider AMD), und daraus werden Schlussfolgerungen gezogen die seltsamer nicht sein könnten.
Abwarten bis die richtigen Seiten die richtigen Reviews liefern mit richtigen Treibern und ner gescheiten Beschreibung was da im Treiber eingestellt wurde.

Hvoralek
2007-05-12, 18:11:31
TMSAA kostet fast gar keine Leistung ggü. reinem MSAA und (T)SSAA belastet außer VS/GS alles ziemlich gleichmäßig.

Imo kann man schon erkennen, indem sich einige Vergleiche anschaut, dass Oblivion inden Aussenlevlen mit TRSAA/AAA doch sehr an der Füllrate bei einigen Karten hängt.Dafür sind aber die beiden 8800er nicht gut geeignet, weil die GTS ggü. der GTX hinsichtlich aller wichtiger Eckdaten in ähnlichem Maße abgespeckt wurde.

btw.

;)I.E. sind wir uns ja einig. Aber auch die Tatsache, dass die GTX weit vor der XT liegt und über eine weit höhere Rohfilterleistung verfügt, ist alleine höchstens ein Indiz. Eine 7900GTX liegt in der Hinsicht auch um 50% vor einer XT :wink:

Wer sagt, dass es mit Qualitätseinstellungen schlechter aussieht (wenn die Treiber mal halbwegs brauchbar sind)?MSAA sollte auf R600 kaum Leistung kosten, das stimmt. Aber bei guter Filterung dürfte AF ziemlich reinhauen.

AnarchX
2007-05-12, 18:12:59
3DM05 Singlecard WR!
http://img46.imageshack.us/img46/4594/30kni1.jpg (http://imageshack.us)

laser114
2007-05-12, 18:19:13
3DM05 Singlecard WR!
http://img46.imageshack.us/img46/4594/30kni1.jpg (http://imageshack.us)

1024*768?

AnarchX
2007-05-12, 18:20:22
1024*768?

Das ist nunmal Default beim 3DM05. ;)

seahawk
2007-05-12, 18:20:46
Geile Score. Ich bin halt nur gespannt ob neue Treiber reine Bugfixes sind oder auch ander Dinge verändern. Gerade mit 16xAF leigen die GeFroces ja gut im Rennen.

laser114
2007-05-12, 18:22:53
Das ist nunmal Default beim 3DM05. ;)

Stimmt, 1280*1024 kam erst mit dem 06. Ziehe meine Frage zurück... ;)

BUG
2007-05-12, 18:23:38
Hmm.. über 1GHz Chiptakt, nich normal! ..der 5GHz Core2Quad is auch nich ohne. ;D

Edit^^

cu
BUG

dargo
2007-05-12, 18:25:14
Hmm.. über 1GHz Chiptakt, nich normal! ..der 5GHz Core2Quad is auch nich ohne. ;D

Bei Kokü schon, siehe GPUtemp. ;)

Edit:
Die CPU ist ein X6800 Dualcore.

reunion
2007-05-12, 18:30:44
Edit: Ach so mit der Karre an, läuft's wirklich nicht mehr so flüssig. Okay. Würd mich trotzdem interessieren wie die ihre Werte gemessen haben. Dazu aber auch noch was anderes: http://forums.microsoft.com/MSDN/ShowPost.aspx?PostID=1259714&SiteID=1

Wenn's wirklich so schlimm in Hardware ist, dann wär's wieder mal so ne nVIDIA-Aktion die ich nicht verstehen werde. Das würde den GS praktisch nutzlos machen für mindestens die erste D3D10-Spiele-Generation. Ich dachte mit D3D10 hat man endlich Ruhe vor Performancefallen...

G80 scheint auf jeden Fall noch arge Probleme mir GS zu haben. Bleibt die Frage, ob sich das mit neuen treibern noch beheben lässt:

Granted G80 still has a lot of space to improve in that area: a recent test that I did indicated that even having *any* geometry shader present (I used an "identity" geometry shader that just passed through the triangles) cut the performance of the shader in *half*.

http://forum.beyond3d.com/showpost.php?p=985459&postcount=5272

Currently it seems to be that if any GS shader is scheduled, the hardware will decrease the number of threads running for the other types indiscriminately. That's the driver doing that, though (as far as I can tell), rather than something at the hardware level.

http://forum.beyond3d.com/showpost.php?p=985474&postcount=5280

Selbst die blanke Anwesenheit eines GS, der nichts macht, halbiert mal eben die Leistung auf G80.

Coda
2007-05-12, 18:33:13
Okay, das ist wirklich heftig. Vor allem weil ich eigentlich auch nen GS in meinem Projekt das ich grad bastel einbauen wollte. Kann ich wohl erstmal bleiben lassen oder mir ne ATI kaufen.

Fragt sich aber, ob das nicht nur ein Treiberproblem ist, weil das einfache durchreichen eines Vertex sollte die Performance in keinem Fall halbieren, selbst wenn man die ganze Soße zuerst ins VRAM schreibt und dann zurückließt.

Gast
2007-05-12, 18:55:51
Wenn das Review aus Italien der Wahrheit entsprechen sollte,kann ich es nicht verstehn. ATI springt von 256bit auf 512bit und dann sowas,einfach unklar.

Früher, als ATI mit der ersten 256bit Karte kahm,war der Sprung ne Wucht.

dargo
2007-05-12, 19:00:04
Früher, als ATI mit der ersten 256bit Karte kahm,war der Sprung ne Wucht.
Jein. Da hatte der Konkurrent einen Fehler bei der Designentscheidung getroffen (NV30). Das eigene Produkt ist nur so gut wie es die Konkurrenz zuläßt.

Gast
2007-05-12, 19:01:35
Abwarten und Tee trinken.

Aber: sollte dem wirklich so sein, haben wir das Problem, dass eine 8800er mit zukünftigen Engines stark zu kämpfen haben wird. Dann ist es das selbe, wie bei der vorherigen Generation. Beim Erscheinen war NVidia stark, nur in späteren Engines hatte man das Nachsehen. Für NVidia optimal, da mann immer deren neuestes Produkt haben muss, das Alte macht ja schlapp.

ABER: für Entwickler frag ich mal an dieser Stelle, ob wir wegen so einer Politik nicht ein paar Nachteile haben? Einfach aus dem Grund, dass man aus Performancegründen auf die Implementierung solcher Features verzichtet, da man die installierte Hardwarebasis zugrunde legt und wir deswegen immer mehr Zeitverzug haben, als nötig wäre?

Gast
2007-05-12, 19:08:33
Noch gibts kein DX10 Titel, also wirklich abwarten und nicht im grauen rumstochern. Auf der roten Seite muss man sich ja auch Fragen, was bringt mir viel DX10 Leistung wenn Texture/Vertex Leistung abfällt und man einen sehr teuren Chip+PCB mit wenig Marge auch noch dran verdienen will... Wenn eine GTS anfangs für 450€+ ging und jetzt auch noch mit 300€ gewinn gemacht wird, was bleibt bei 350€ XT Karten hängen...

Exxtreme
2007-05-12, 19:10:08
Wenn das Review aus Italien der Wahrheit entsprechen sollte,kann ich es nicht verstehn. ATI springt von 256bit auf 512bit und dann sowas,einfach unklar.

Früher, als ATI mit der ersten 256bit Karte kahm,war der Sprung ne Wucht.
Die Bandbreite kann man nur in extremen AA-Einstellungen etc. voll ausspielen und das auch nur wenn die Füllrate nicht limitiert. Hier greift halt auch das Gesetz des abnehmenden Ertrages.

Auch denke ich, daß die Treiber noch Einiges an Arbeit benötigen. War bei ATi immer so, daß die ersten Treiber eher langsamer waren. Der volle Speed kam dann 2 - 3 Treiberreleases später.

w0mbat
2007-05-12, 19:30:15
Und der WR war mit dem "alten" 8.374er *sabber*

LovesuckZ
2007-05-12, 19:33:26
Und der WR war mit dem "alten" 8.374er *sabber*

Shaderreplacement ist schon was tolles, gell? :rolleyes:
Aber nun gut, wer eine sonstwaskühlung und einen guten Stromtarif hat, wird sich wohl selbst mal versuchen dürfen - am WR und so.

Liszca
2007-05-12, 19:44:29
...Können die Treiber-Teams anfangs nicht mit dem eigenen Stück Hardware umgehen oder wie?!

irgendwie so scheint es wohl zu sein *eg*

StefanV
2007-05-12, 19:47:18
Crossfire scheint auch noch nicht soo gut zu laufen siehe FEAR,Prey und Oblivion.

http://it-review.net/index.php?option=com_content&task=view&id=1325&Itemid=91&limit=1&limitstart=3
Infos über neue Super AA Modis??

Gast
2007-05-12, 19:56:38
Shaderreplacement ist schon was tolles, gell? :rolleyes:
Aber nun gut, wer eine sonstwaskühlung und einen guten Stromtarif hat, wird sich wohl selbst mal versuchen dürfen - am WR und so.

Oh ist Lovesuckz wieder angepisst.^^

LovesuckZ
2007-05-12, 19:58:33
Oh ist Lovesuckz wieder angepisst.^^

Ja, das muss man ja als 8800GTX Besitzer sein. Was sind schon Spiele, wenn man nicht den WR im 3DMark hält. :(

reunion
2007-05-12, 20:44:08
Fragt sich aber, ob das nicht nur ein Treiberproblem ist, weil das einfache durchreichen eines Vertex sollte die Performance in keinem Fall halbieren, selbst wenn man die ganze Soße zuerst ins VRAM schreibt und dann zurückließt.

So wie er das schreibt, ist das load balancing bei diese unified Architektur einfach völlig im Arsch, sobald GS eingesetzt werden. Aber abwarten wie sich das entwickelt, wir werden ja sehen.

The_Invisible
2007-05-12, 21:38:06
Was ich mich immer bei Treibern frag: wie wird da die Leistung verbessert? Kann man die Karte irgendwie dazu bringen, ihr Potential besser zu nutzen oder wird sie anders angesprochen oder wie läuft das eigentlich ab? Ich kenn mich damit gar nicht aus, aber ich kann mir nie vorstellen, wie dann teilweise zu so großen Performance-Sprüngen kommt. Können die Treiber-Teams anfangs nicht mit dem eigenen Stück Hardware umgehen oder wie?!

naja, wenn der treiber mehrere hundertausend zeilen code enthält und auf einmal ein neues "backend" da ist könnte ich mir schon vorstellen, dass das doch recht komplex werden könnte.

mfg

Coda
2007-05-12, 21:51:22
So wie er das schreibt, ist das load balancing bei diese unified Architektur einfach völlig im Arsch, sobald GS eingesetzt werden. Aber abwarten wie sich das entwickelt, wir werden ja sehen.
Wo schreibt er das?

Kann auch einfach sein, dass NV den GS als letzte Prio. bei den D3D10-Treibern angesetzt hat und es im Moment einfach nur laufen muss damit die Entwickler damit etwas anfangen können.

seahawk
2007-05-12, 21:56:09
Was ja auch Sinn macht, da es praktisch null relevante Software gibt.

reunion
2007-05-12, 22:07:11
Wo schreibt er das?


Okay, das kam von jemand anderen, bezieht sich aber auf ihn:


But Rys did say that load-balancing in this unified architecture goes to shit when GS work is scheduled.

http://forum.beyond3d.com/showpost.php?p=985497&postcount=5292


Kann auch einfach sein, dass NV den GS als letzte Prio. bei den D3D10-Treibern angesetzt hat und es im Moment einfach nur laufen muss damit die Entwickler damit etwas anfangen können.

Möglich, ja.

w0mbat
2007-05-12, 22:11:59
Rainbow Six: Vegas

2900XT/8800GTS:

1024x768
min:38/27
med:74/60
max:111/95

1280x960
min:26/18
med:53/42
max:83/68

1600x1200
min:19/13
med:37/30
max:70/48

LovesuckZ
2007-05-12, 22:16:36
Selbst getestet?


Bin ja nicht so: http://forum.beyond3d.com/showpost.php?p=985548&postcount=5312

w0mbat
2007-05-12, 22:19:01
Selbst getestet?


Bin ja nicht so: http://forum.beyond3d.com/showpost.php?p=985548&postcount=5312

Ich habe aber dazu beigetragen, also sagen wir 50% selber gebenched.

Gast
2007-05-12, 22:46:45
Wombat, was macht das AA?
Hard- oder Softwareproblem?

LovesuckZ

up¦²
2007-05-13, 00:57:40
BECCO hat eine ergattert:
http://www.rage3d.com/board/showthread.php?t=33890816

Gast
2007-05-13, 01:01:04
Na toll, warum musste dann gerade wieder dieses beknackte Vista nutzen?? Das ist ja mal wenig aussagekräftig. Neues Architektur, erster wirklicher Kartenrelease unter Vista...

Gmax
2007-05-13, 02:23:22
Rainbow Six: Vegas

2900XT/8800GTS:

1024x768
min:38/27
med:74/60
max:111/95

1280x960
min:26/18
med:53/42
max:83/68

1600x1200
min:19/13
med:37/30
max:70/48

Vegas ist mit ATI etwas performanter, ob das daran liegt, daß es ein Xbox Port ist?

Fetza
2007-05-13, 05:57:44
Vegas ist mit ATI etwas performanter, ob das daran liegt, daß es ein Xbox Port ist?

"etwas" ist gut. Würde eher von "derbe" sprechen wollen :)

Ich hoffe allerdings, das die oblivion benches nicht final sind, denn die karte scheint dort aktuell ziemlich unbrauchbar zu sein, im vergleich zu gts.

The_Invisible
2007-05-13, 08:15:19
"etwas" ist gut. Würde eher von "derbe" sprechen wollen :)

Ich hoffe allerdings, das die oblivion benches nicht final sind, denn die karte scheint dort aktuell ziemlich unbrauchbar zu sein, im vergleich zu gts.

ja, leider gibts auch auch noch ne gtx und ultra die auch derb schneller sind als ne gts -> http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/18/

mfg

Gast
2007-05-13, 08:16:24
"etwas" ist gut. Würde eher von "derbe" sprechen wollen :)


Naja, wenn man den Stromverbrauch in Relation dazu setzt und sich die technischen Daten anguckt, dann sind 50% eher "schlecht" als "derbe".

Fetza
2007-05-13, 10:39:30
ja, leider gibts auch auch noch ne gtx und ultra die auch derb schneller sind als ne gts -> http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/18/

mfg

Warum leider? Sollte die gtx unter 400 euro kosten können wir sie auch gerne in die liga mitaufnehmen, von der ultra fang ich jetzt erstmal nicht an... du weisst sicher warum. Das sich atis neue bei 350 euro bewegt ist jetzt schon handfest info, von daher denk ich wir müssen schon preis/leistung einbeziehen.

greetz

Fetza
2007-05-13, 10:42:58
Naja, wenn man den Stromverbrauch in Relation dazu setzt und sich die technischen Daten anguckt, dann sind 50% eher "schlecht" als "derbe".

Stromverbrauch ist sicherlich ein argument, aber bei betrachtung einiger benchwerte scheinen die treiber ja doch noch ziemlichen beta status zu haben. Zumindest hoffe ich das für ati. Bisher bin ich mit dem gezeigten eigentlich ziemlich zufrieden, in der schweiz gibts eine xt schon für 320 euro rum, das ist doch ein sensationeller preis! Sollte die xt auch gescheit wenig im 2d modus verbrauchen würden mich 50 watt gar nicht jucken. Da verbrät ein g80 egal welche ausführung doch deutlich mehr, und ich meine damit eben den computer alltagsverbrauch. Also während wir hier posten zb :)

Undertaker
2007-05-13, 10:51:17
"etwas" ist gut. Würde eher von "derbe" sprechen wollen :)

Ich hoffe allerdings, das die oblivion benches nicht final sind, denn die karte scheint dort aktuell ziemlich unbrauchbar zu sein, im vergleich zu gts.

das niveau dort scheint ziemlich genau dem der 8800gtx zu entsprechen - das ist das was man anhand der daten und entwicklungszeit auch minimal erwarten durfte... kritisch sind eher andere games zu sehen, wo man die gtx noch nicht erreicht, hier braucht es dringende abhilfe bzgl treibern...

Gast
2007-05-13, 10:52:35
Bisher bin ich mit dem gezeigten eigentlich ziemlich zufrieden, in der schweiz gibts eine xt schon für 320 euro rum, das ist doch ein sensationeller preis!

Ich kann mich über solch einen Preis nicht freuen, da es die Komponente ist, die sich am leichtesten anpassen lässt. Dafür brauch man kein Können, kein Wissen oder sonstige Fähigkeiten auf AMD's Seite.
Sensationell wäre eine bessere Leistung bei geringerem bis gleichem Verbrauch und einer leiseren Kühlung als die GTX. Zur Zeit sieht es aber so aus, dass die Karte mal auf GTS, mal auf GTX Niveau liegt, der Kühler im 3D Modus "noisy" ist und deutlich mehr verbraucht als die GTX Karte.
Nein, sensationell find ich nur die Enttäuschung, der Preis ist nur das Ergebnis der eigenen Fähigkeitsbetrachtung durch AMD.

Sollte die xt auch gescheit wenig im 2d modus verbrauchen würden mich 50 watt gar nicht jucken. Da verbrät ein g80 egal welche ausführung doch deutlich mehr, und ich meine damit eben den computer alltagsverbrauch. Also während wir hier posten zb :)

Und genau diese Betrachtung ist paranoid. Eine 2900XT wie auch eine GTS und GTX sind zum Spielen da. Wer jedoch nur mal ein Stündchen am Wochenende spielt, der braucht auch keine solche High-End Karte. Und die ganzen Ausreden, dass man den rechner 12h am Tag im idle ließe, finde ich ebenfalls absurd. Denn dann würde sich ein 250€ HTCP deutlich besser eignen als Rechner mit solch einer Karte.
Diese Argumentation ist genauso unsinnig als wenn man sich eine Xbox360 kauft, um damit zu 90% DVDs zu schauen...

Gast
2007-05-13, 10:59:08
Ich kann mich über solch einen Preis nicht freuen, da es die Komponente ist, die sich am leichtesten anpassen lässt. Dafür brauch man kein Können, kein Wissen oder sonstige Fähigkeiten auf AMD's Seite.
Sensationell wäre eine bessere Leistung bei geringerem bis gleichem Verbrauch und einer leiseren Kühlung als die GTX. Zur Zeit sieht es aber so aus, dass die Karte mal auf GTS, mal auf GTX Niveau liegt, der Kühler im 3D Modus "noisy" ist und deutlich mehr verbraucht als die GTX Karte.
Nein, sensationell find ich nur die Enttäuschung, der Preis ist nur das Ergebnis der eigenen Fähigkeitsbetrachtung durch AMD.



Und genau diese Betrachtung ist paranoid. Eine 2900XT wie auch eine GTS und GTX sind zum Spielen da. Wer jedoch nur mal ein Stündchen am Wochenende spielt, der braucht auch keine solche High-End Karte. Und die ganzen Ausreden, dass man den rechner 12h am Tag im idle ließe, finde ich ebenfalls absurd. Denn dann würde sich ein 250€ HTCP deutlich besser eignen als Rechner mit solch einer Karte.
Diese Argumentation ist genauso unsinnig als wenn man sich eine Xbox360 kauft, um damit zu 90% DVDs zu schauen...

Paranoider finde ich es, wenn mir jemand erklären will, wie ich die wenige verbleibende Zeit zu spielen habe... ich spiele nicht oft, aber wenn, dann als BQ-Fetischist... was aber nichts daran ändert, daß der PC zu 80% eher im Idle arbeitet und mir da ein funtionierender 2D-Modus wichtiger ist als eine in der Summe etwas höhere Peak unter Last.

Gast
2007-05-13, 11:00:54
...

Und genau diese Betrachtung ist paranoid. Eine 2900XT wie auch eine GTS und GTX sind zum Spielen da. Wer jedoch nur mal ein Stündchen am Wochenende spielt, der braucht auch keine solche High-End Karte. Und die ganzen Ausreden, dass man den rechner 12h am Tag im idle ließe, finde ich ebenfalls absurd. Denn dann würde sich ein 250€ HTCP deutlich besser eignen als Rechner mit solch einer Karte.
Diese Argumentation ist genauso unsinnig als wenn man sich eine Xbox360 kauft, um damit zu 90% DVDs zu schauen...


Dann schärfe mal deine Sinne. Die ganzen Nerds hier zocken mal ne Stunde und danach hängen Sie wieder hier im Forum ;)

Im Schnitt gesehen zocken Leute mit so ner HighEnd Graka gar nicht so viel, die sind meist hauptsächlich scharf drauf das schnellste zu haben. Damit will ich auf keinen Fall den höheren Verbrauch rechtfertigen, aber man sollte auch nicht gleich histerisch werden.

Gast
2007-05-13, 11:01:14
Was is daran paranoid, wenn man sich wünscht, dass die Karte möglichst wenig strom verbraucht?

Ich denke viele werden anfangs von den hohen Verbrauchszahlen erschrocken sein, dass kann sich aber ändern, wenn die Karte durch den vorhandenen 2D Modus im Idle weniger saugt als die G80.

Ich surfe bestimmt 5h+ am Tag, das ist ALLES GPU Idle...

Gast
2007-05-13, 11:07:22
Was is daran paranoid, wenn man sich wünscht, dass die Karte möglichst wenig strom verbraucht?


Weil es ein paradoxon ist?
Auf der einen Seite eine ökologische und ökonomische Karte haben wollen, auf der anderen Seite wird auf diese beiden Faktoren geschissen.
Wer wirklich sparen will, der kauft sich einen Zweitrechner mit sehr, sehr sparsamen Komponenten. Das kostet zwar aufeinmal nochmal Geld, lohnt sich aber langfristig eher als eine Rechenmaschine mit 2900XT, Quadcore, 4 GB Arbeitsspeicher und sonstigen Quatsch - nur um damit 80-90% rumzuidlen.

PCGH_Carsten
2007-05-13, 11:09:10
Ich kann mich über solch einen Preis nicht freuen, da es die Komponente ist, die sich am leichtesten anpassen lässt. Dafür brauch man kein Können, kein Wissen oder sonstige Fähigkeiten auf AMD's Seite.
Sensationell wäre eine bessere Leistung bei geringerem bis gleichem Verbrauch und einer leiseren Kühlung als die GTX. Zur Zeit sieht es aber so aus, dass die Karte mal auf GTS, mal auf GTX Niveau liegt, der Kühler im 3D Modus "noisy" ist und deutlich mehr verbraucht als die GTX Karte.
Nein, sensationell find ich nur die Enttäuschung, der Preis ist nur das Ergebnis der eigenen Fähigkeitsbetrachtung durch AMD.
Passend dazu:
http://www.baer-coach.de/tatze/john-ruskin-zugeschrieben/

"Das Gesetz der Wirtschaft verbietet es, für wenig Geld viel Wert zu erhalten."

Irgendeinen Grund wird es schon haben, dass AMD jetzt auf einen solchen Kampfpreis setzt.

Steve1
2007-05-13, 11:11:52
Wann endet Morgen das NDA (Uhrzeit)?

Gast
2007-05-13, 11:13:10
Passend dazu:
http://www.baer-coach.de/tatze/john-ruskin-zugeschrieben/

"Das Gesetz der Wirtschaft verbietet es, für wenig Geld viel Wert zu erhalten."

Irgendeinen Grund wird es schon haben, dass AMD jetzt auf einen solchen Kampfpreis setzt.

Fällt das auch noch unter seriösen, unabhängigen Journalismus vor dem Fallen des NDAs oder ist das schon bewusste Stimmungsmache :/ ? Oder verstehe ich da nur etwas völlig falsch...

d2kx
2007-05-13, 11:13:25
Kommt schon, ich hab' Geburtstag, wo bleiben die Treiberleaks und deutschen Reviews? ^^

Geschenk genug wäre mir schon, wenn jemand weiß, ob die Tester auch die Linuxtreiber bekommen haben und wie sich diese so verhalten.

@Steve1: 15 Uhr 'mal Computerbase checken :P

AnarchX
2007-05-13, 11:14:31
Wann endet Morgen das NDA (Uhrzeit)?

Wahrscheinlich wie immer 15:00 CET.
Aber PCOnline wird ihren Artikel wahrscheinlich, wie bei fast allen vergangenen Launches um ~0:00 in ihrer Zeitzone(China) veröffentlichen. ;)

Kladderadatsch
2007-05-13, 11:14:43
irgendwie können einem die chefs da leid tun, nach dem am2-desaster jetzt auch noch ati mitschleifen zu müssen.

Gast
2007-05-13, 11:15:03
Weil es ein paradoxon ist?
Auf der einen Seite eine ökologische und ökonomische Karte haben wollen, auf der anderen Seite wird auf diese beiden Faktoren geschissen.
Wer wirklich sparen will, der kauft sich einen Zweitrechner mit sehr, sehr sparsamen Komponenten. Das kostet zwar aufeinmal nochmal Geld, lohnt sich aber langfristig eher als eine Rechenmaschine mit 2900XT, Quadcore, 4 GB Arbeitsspeicher und sonstigen Quatsch - nur um damit 80-90% rumzuidlen.

Nein, nein.

Es geht darum, dass die -angenommenen- 40W mehr unter 3D und die 100W Peak zu verschmerzen sind, wenn die Karte einen guten 2D Modus hat.


Außerdem ist es wohl bei wirklich kaum jemandem so, wie Du es grade darstellst (in welchem Du dann aber vollkommen Recht hättest).

Undertaker
2007-05-13, 11:15:45
Passend dazu:
http://www.baer-coach.de/tatze/john-ruskin-zugeschrieben/

"Das Gesetz der Wirtschaft verbietet es, für wenig Geld viel Wert zu erhalten."

Irgendeinen Grund wird es schon haben, dass AMD jetzt auf einen solchen Kampfpreis setzt.

wie wäre es damit, dass sie zwanghaft wieder (high-end) marktanteile erobern müssen?

Gast
2007-05-13, 11:20:50
Was soll denn die wilde Argumentation um den Stromverbrauch? Das ist doch ein vorgeschobenes Argument. Zum einen liegen den Offiziellen Werten von NV und AMD andere Messmehtoden zugrunde und sind nur schwer direkt zu vergleichen. Im Praxisvergleich sind die Werte sich deutlich näher als auf dem Papier.

Bei nForce Chipsätzen hab ich auch noch niemanden schreien hören, obwohl nForce Chipsätze gegenüber 580X gut 40W mehr verbraten.
http://www.computerbase.de/artikel/hardware/mainboards/2006/test_asus_m2r32-mvp/12/#abschnitt_stromaufnahme

Vergleiche GTX auf nForce und XT auf 580X, dann biste mit AMD unterm Strich sparsamer... :-P

Tim

Gast
2007-05-13, 11:26:42
Die besagten Werte stammen aus Messungen der c't.
Es sind zwar Peak Werte, trotzdem liegt in dennen die XT ~100W über eine GTS.
Was eigentlich schon sicher sagt, dass auch der Durchschnittswert unter 3D höher liegt. Vlt sogar deutlich.

DAS alles wäre aber manchen bzw vielen nicht so schlimm, wenn denn die Karte dann in der Idle Zeit durch den vorhandenen 2D Modus "Boden gutmachen" kann.
Jeder Computer idlet und ich wage zu behaupten, dass der Durchschnitts GTS/XT Rechner in mindestens 20-30% seiner Zeit idelt.

In Situaion A verbraucht sie zwar mehr, in Situation B aber weniger Als Produkt X.

Liszca
2007-05-13, 11:26:47
Weil es ein paradoxon ist?
Auf der einen Seite eine ökologische und ökonomische Karte haben wollen, auf der anderen Seite wird auf diese beiden Faktoren geschissen.
Wer wirklich sparen will, der kauft sich einen Zweitrechner mit sehr, sehr sparsamen Komponenten. Das kostet zwar aufeinmal nochmal Geld, lohnt sich aber langfristig eher als eine Rechenmaschine mit 2900XT, Quadcore, 4 GB Arbeitsspeicher und sonstigen Quatsch - nur um damit 80-90% rumzuidlen.


also deiner meinung nach muss ich meinen Audi A6 3.2 liter hubraum bei stillstand an der ampel in einem drehzahlbereich von 6000 bis 7000 halten, ist das dein ernst?

PCGH_Carsten
2007-05-13, 11:28:43
wie wäre es damit, dass sie zwanghaft wieder (high-end) marktanteile erobern müssen?
Hm, Marktanteile braucht man, um Gewinne zu machen, oder?

Fetza
2007-05-13, 11:31:29
Kommt schon, ich hab' Geburtstag


Na darauf gibts doch erstmal nen sinnvollen OT: Alles Gute zum Burzeltag!:D


Was soll denn die wilde Argumentation um den Stromverbrauch? Das ist doch ein vorgeschobenes Argument. Zum einen liegen den Offiziellen Werten von NV und AMD andere Messmehtoden zugrunde und sind nur schwer direkt zu vergleichen. Im Praxisvergleich sind die Werte sich deutlich näher als auf dem Papier.

Bei nForce Chipsätzen hab ich auch noch niemanden schreien hören, obwohl nForce Chipsätze gegenüber 580X gut 40W mehr verbraten.
http://www.computerbase.de/artikel/hardware/mainboards/2006/test_asus_m2r32-mvp/12/#abschnitt_stromaufnahme

Vergleiche GTX auf nForce und XT auf 580X, dann biste mit AMD unterm Strich sparsamer... :-P

Tim

Mir geht es nur darum aufzuzeigen, das wenn man schon das argument (was im high-end markt ja nur bediengt gilt) des stromverbrauchs nimmt, hier auch der gesamtstromverbrauch betrachtet werden muss, genauer: Wenn ich eine karte habe die einen spitzenverbrauch von 200 watt hat im 3d modus, dafür im 2d modus nur 80 watt verbraucht, und dagegen eine karte nehme, die im 3d modus 140 watt verbraucht und im 2d modus ebenso 140 watt, so relativiert sich das argument, die böse 200 watt karte verbrauche ja viel zu viel, eben doch.

greetz

Undertaker
2007-05-13, 11:45:57
Hm, Marktanteile braucht man, um Gewinne zu machen, oder?

das war damit noch nichteinmal direkt gemeint... fehlende konkurrenzfähigkeit in diesem segment ist natürlich auch extrem image-schädigend und verringert den einfluss auf die spieleindustrie...

deekey777
2007-05-13, 11:51:14
Die besagten Werte stammen aus Messungen der c't.
Es sind zwar Peak Werte, trotzdem liegt in dennen die XT ~100W über eine GTS.
Was eigentlich schon sicher sagt, dass auch der Durchschnittswert unter 3D höher liegt. Vlt sogar deutlich.

DAS alles wäre aber manchen bzw vielen nicht so schlimm, wenn denn die Karte dann in der Idle Zeit durch den vorhandenen 2D Modus "Boden gutmachen" kann.
Jeder Computer idlet und ich wage zu behaupten, dass der Durchschnitts GTS/XT Rechner in mindestens 20-30% seiner Zeit idelt.

In Situaion A verbraucht sie zwar mehr, in Situation B aber weniger Als Produkt X.
In dem gesamten Artikel der c't ist kein Wort davon, wer und wie diese Messungen durchgeführt hat.

dargo
2007-05-13, 12:51:02
Mir geht es nur darum aufzuzeigen, das wenn man schon das argument (was im high-end markt ja nur bediengt gilt) des stromverbrauchs nimmt, hier auch der gesamtstromverbrauch betrachtet werden muss, genauer: Wenn ich eine karte habe die einen spitzenverbrauch von 200 watt hat im 3d modus, dafür im 2d modus nur 80 watt verbraucht, und dagegen eine karte nehme, die im 3d modus 140 watt verbraucht und im 2d modus ebenso 140 watt, so relativiert sich das argument, die böse 200 watt karte verbrauche ja viel zu viel, eben doch.

Und was hat das jetzt mit der Realität zu tun? Jetzt übertreibt ihr völlig. Eine GTS verbraucht in Idle 42-45W, eine GTX 60-65W. Meine GTS verbraucht in Idle mit 200/200Mhz 35W. So, jetzt muss erstmal ein R600 zeigen, dass er diese Werte erreichen kann.

Mr. Lolman
2007-05-13, 12:55:01
Und was hat das jetzt mit der Realität zu tun? Jetzt übertreibt ihr völlig. Eine GTS verbraucht in Idle 42-45W, eine GTX 60-65W. Meine GTS verbraucht in Idle mit 200/200Mhz 35W. So, jetzt muss erstmal ein R600 zeigen, dass er diese Werte erreichen kann.

Untertaktet dürfts wohl kein Problem sein ;)

reunion
2007-05-13, 12:57:11
Untertaktet dürfts wohl kein Problem sein ;)

Und vorallem undervolten ebenfalls nicht.

Und was hat das jetzt mit der Realität zu tun? Jetzt übertreibt ihr völlig. Eine GTS verbraucht in Idle 42-45W, eine GTX 60-65W. Meine GTS verbraucht in Idle mit 200/200Mhz 35W. So, jetzt muss erstmal ein R600 zeigen, dass er diese Werte erreichen kann.

Die GTX verbraucht laut xbitlabs im idle 70W, und die GTS mit 640MB 57.5W, also doch etwas mehr als von dir angegeben.
http://www.xbitlabs.com/articles/video/display/gf8800gtx-roundup_6.html

PCGH_Carsten
2007-05-13, 12:58:25
Meine GTS verbraucht in Idle mit 200/200Mhz 35W.
Ein gutes Drittel davon braucht mein Notebook komplett und an der Steckdose. Und damit läßt sich's auch prima surfen. :)

Gast
2007-05-13, 12:59:06
Und was hat das jetzt mit der Realität zu tun? Jetzt übertreibt ihr völlig. Eine GTS verbraucht in Idle 42-45W, eine GTX 60-65W. Meine GTS verbraucht in Idle mit 200/200Mhz 35W. So, jetzt muss erstmal ein R600 zeigen, dass er diese Werte erreichen kann.

kurze Frage da ich keine 8800er habe. Taktet die alleine runter oder muss man da nachhelfen?

dargo
2007-05-13, 13:05:12
Untertaktet dürfts wohl kein Problem sein ;)
Ich meinte die ~45W der GTS. ;)
Und auch wenn diese erreicht werden kann der R600 niemals den höheren Verbrauch bei Last ausgleichen. Das war damit gemeint.

Die GTX verbraucht laut xbitlabs im idle 70W, und die GTS mit 640MB 57.5W, also doch etwas mehr als von dir angegeben.
http://www.xbitlabs.com/articles/video/display/gf8800gtx-roundup_6.html
Ich weiß nicht wie xbitlabs auf die höheren Werte kommen. Ich habe selbst ein Strommessgerät und rechnen kann ich auch. ;)
Vielleicht gibt es auch von Karte zu Karte leichte Unterschiede.

Ein gutes Drittel davon braucht mein Notebook komplett und an der Steckdose. Und damit läßt sich's auch prima surfen. :)
Ich habe auch nicht gesagt, dass die 35W wenig sind. Ein R580 liegt bei Idle auch bei 28-33W und da hat sich noch keiner darüber aufgeregt. Leider lässt NV keine Spannungssenkung zu. Sonst könnte ich locker in die Region von ~20W kommen.

kurze Frage da ich keine 8800er habe. Taktet die alleine runter oder muss man da nachhelfen?
Einmal einstellen und dann läuft alles automatisch in Idle und Last. :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=360365&page=2

reunion
2007-05-13, 13:13:10
IIch weiß nicht wie xbitlabs auf die höheren Werte kommen.


Ganz einfach:
http://www.xbitlabs.com/misc/picture/?src=/images/video/msi8800gts-640/8800gts_full.gif&1=1

w0mbat
2007-05-13, 13:13:29
Freu mich schon auf das OCWB Review.


In this article, we will touch on the various aspects of the Radeon 2000 series including the technology, pricing etc. It will be followed by a review of the ASUS EAH2900XT Radeon HD 2900XT graphics card with benchmarks.


http://www.ocworkbench.com/2007/ati/ATI-HD-Radeon-HD-2900XT-and-HD-2000-Series/p1.htm

dargo
2007-05-13, 13:19:47
Ganz einfach:
http://www.xbitlabs.com/misc/picture/?src=/images/video/msi8800gts-640/8800gts_full.gif&1=1
Ich kenne xbitlabs. ;)
Ich meinte nur, ich weiß nicht warum deren GTS bei ~57W in Idle lag. Ich leite den Stromverbrauch meiner GTS von dem Stromverbrauch meiner damaligen X1900XT 512MB, laut xbitlabs (28W) und meinem Strommessgerät (Energy 3000) ab. Den Wirkungsgrad meines NTs kenne ich. Und so kommt meine GTS bei standard Taktraten auf ~42-45W Netto und bei 200/200Mhz ~35W Netto.

Übrigens, diese ~105W der GTS bei Last kann ich auch nicht bestätigen. Mein Gesamtsystem hat auch beim 3DMark06 mit der X1900XT mehr Strom verbraucht als mit der GTS. Mit X1900XT warens genau 250W spitze, mit GTS 235W.

Gast
2007-05-13, 13:23:15
weiß schon jemand wann die ersten Wasserkühler rauskommen? (also nicht die von MSI und so, die zum einbinden in ein vorhandenes system) Ich kann irgendwie nix finden.

J0ph33
2007-05-13, 13:24:26
Und genau diese Betrachtung ist paranoid. Eine 2900XT wie auch eine GTS und GTX sind zum Spielen da. Wer jedoch nur mal ein Stündchen am Wochenende spielt, der braucht auch keine solche High-End Karte. Und die ganzen Ausreden, dass man den rechner 12h am Tag im idle ließe, finde ich ebenfalls absurd. Denn dann würde sich ein 250€ HTCP deutlich besser eignen als Rechner mit solch einer Karte.
Diese Argumentation ist genauso unsinnig als wenn man sich eine Xbox360 kauft, um damit zu 90% DVDs zu schauen...

Qualität geht vor Quantität...

ich spiele nicht unbedingt intensiv, surfen macht zeitlich deutlich mehr aus, aber wenn ich spiele, möchte ich die höchstmögliche qualität haben, d.h. ich brauche highend...

highend-käufer sein heißt nicht, dass man die ganze zeit spielt, sondern dass man, von der dauer des spielens vollkommen unabhängig, andere ansprüche an das qualitätslevel hat...

somit macht der 2D-Verbrauch schon was aus, auch bei highend

seahawk
2007-05-13, 13:48:05
Exakt, der 2D Verbrauch ist entscheidend.

Gast
2007-05-13, 13:51:26
Genau, so würde ich das auch sagen J0ph33.

Ich spiele eher selten, Familie, Haus etc fordern ihren Tribut. Wenn ich aber zocke, dann will ich auch bestmögliche Qualität. Keine lauten Lüftergeräusche gehören eben auch dazu. Eine GPU die im Idle ähnlich dem K10 Kerne bzw. Speicher abschaltet und runtertaktet dürfte doch kein Problem sein.

Fetza
2007-05-13, 14:03:57
Und was hat das jetzt mit der Realität zu tun? Jetzt übertreibt ihr völlig. Eine GTS verbraucht in Idle 42-45W, eine GTX 60-65W. Meine GTS verbraucht in Idle mit 200/200Mhz 35W. So, jetzt muss erstmal ein R600 zeigen, dass er diese Werte erreichen kann.

Wo schreibe ich etwas explizit vom g80/r600? Mir ging es nur um die generelle feststellung, das der 2d stromverbrauch doch wichtiger ist, als der 3d stromverbrauch. Daher sollte ein hersteller vor allem auf einen guten sparsamen 2d modus hinentwickeln (treiberseitig). Und ja der g80 soll hier ja ein negativ beispiel sein.

Nochmal, ich bin der meinung eine high-end graka kann darf und soll sogar viel strom im 3d betrieb ziehen, wenn dadurch wirklich high-performance geboten werden kann. Wenn ich abends 2-4 stunden zocke und das teil gut stromzieht, dafür aber den rest des tages beim surfen,saugen,arbeiten usw sparsam ist, perfekt! Klar, wäre ein möglichst sparsamer 3d modus auch besser, aber die eier legende wollmichsau gibts halt eben nicht.

Generell sehe ich die diskussion um den energieverbrauch bei high-end karten als müßig an(ausser er ist eben im 2d bereich auch hoch).

Gast
2007-05-13, 14:27:53
Beim erscheinen des G80 hat sich das alles noch anders angehört... naja je nach "Farbe" der Karte scheint man über das eine oder andere doch gerne hinweg zusehen.

Gast
2007-05-13, 14:30:19
Wo schreibe ich etwas explizit vom g80/r600? Mir ging es nur um die generelle feststellung, das der 2d stromverbrauch doch wichtiger ist, als der 3d stromverbrauch. Daher sollte ein hersteller vor allem auf einen guten sparsamen 2d modus hinentwickeln (treiberseitig). Und ja der g80 soll hier ja ein negativ beispiel sein.

Nochmal, ich bin der meinung eine high-end graka kann darf und soll sogar viel strom im 3d betrieb ziehen, wenn dadurch wirklich high-performance geboten werden kann. Wenn ich abends 2-4 stunden zocke und das teil gut stromzieht, dafür aber den rest des tages beim surfen,saugen,arbeiten usw sparsam ist, perfekt! Klar, wäre ein möglichst sparsamer 3d modus auch besser, aber die eier legende wollmichsau gibts halt eben nicht.

Generell sehe ich die diskussion um den energieverbrauch bei high-end karten als müßig an(ausser er ist eben im 2d bereich auch hoch).
Ich denke, der R600 wird sparsamer im Idle als eine GTX sein, was auch keine große Kunst ist und evtl. etwas unter der GTS liegen. Aber mit um die 40 W im Idle allein für die Graka muss man schon rechnen. Wenn man nur 2 h Stunden pro Tag zockt, dürfte man mit dem R600 besser bedient sein. Bei 4 h Stunden am Tag dürfte es dann schon anders aussehe.
Btw, wegen der langen Idle Zeiten - arbeitet ihr alle zuhause oder lasst ihr den Rechner laufen, wenn ihr auf der Arbeit seid?

dargo
2007-05-13, 14:31:23
Beim erscheinen des G80 hat sich das alles noch anders angehört... naja je nach "Farbe" der Karte scheint man über das eine oder andere doch gerne hinweg zusehen.
Wenn du mich damit meinst. Ja, ich habe genug den Idle Stromverbrauch des G80 kritisiert. Nur leider hat man keine andere Alternative gehabt. Finde es aber mittlerweile nicht mehr so schlimm da:

1. Die GTS jetzt eh nur ~7W mehr in Idle netto verbraucht als meine X1900XT.
2. Die GTS eh in 2008 durch eine schnellere Graka ersetzt wird die hoffentlich dann in 65nm einen "vernünftigen" 2D Modus hat.

up¦²
2007-05-13, 14:48:20
... aus dem Handbuch LOL!
http://img526.imageshack.us/img526/2037/sysreqqg7.jpg

w0mbat
2007-05-13, 14:53:06
Das gab´s bei Fudzilla schon vor ein paar Tagen, also nicht neues.

dildo4u
2007-05-13, 14:54:05
Hier der komplette Guide als PDF.

http://rapidshare.com/files/31038555/Radeon_HD2900_Users_Guide.pdf.html


http://www.directupload.net/images/070513/Kh3qzi3O.jpg

Cubitus
2007-05-13, 14:55:08
750 Watt oh mann :rolleyes:

vielleicht CF :confused:

Ampere Zahlen werden mal wieder keine genannt..
und das mit den Pins ist auch ein Witz.

K4mPFwUr$t
2007-05-13, 14:55:09
die angaben sind eh mit einem sehr großzügigen buffer belegt.
sprich auch gute marken NTs mit 500-600w packen den R600.

up¦²
2007-05-13, 15:00:53
Aha, danke für die pdf, dildo4u!
Logischer weise ist die 2900 noch nicht dabei...
http://ati.amd.com/technology/crossfire/buildyourown2.html

R300
2007-05-13, 15:07:44
Ach das mit den Netzteile ist totaler Blödsin. Mein 450W NT hat auch keine Probleme mit meinem PC (übertaktet)

Und bei den lokalen PC Shops bekommt man auch immer 600W LC Power NT's für einen PC mit X800 und Athlon XP :ucrazy2:

dildo4u
2007-05-13, 15:09:19
Ach das mit den Netzteile ist totaler Blödsin. Mein 450W NT hat auch keine Probleme mit meinem PC (übertaktet)

Eine GTS verbraucht auch gut 80Watt weniger als die X2900XT.

Gast
2007-05-13, 15:11:51
... aus dem Handbuch LOL!
http://img526.imageshack.us/img526/2037/sysreqqg7.jpg


jaja LOL!
wer lesen kann ist klar im vorteil!
http://img253.imageshack.us/img253/9128/unbenannt2jd6.th.jpg (http://img253.imageshack.us/my.php?image=unbenannt2jd6.jpg)

Gast
2007-05-13, 15:21:08
jaja LOL!
wer lesen kann ist klar im vorteil!
http://img253.imageshack.us/img253/9128/unbenannt2jd6.th.jpg (http://img253.imageshack.us/my.php?image=unbenannt2jd6.jpg)

Ne komm ich helfe ihm mal, auch wenn ich ein Spielverderber bin LOL.

for a

"Certified Crossfire ..."

Genügend ja wohl für einen Tipp ;)

up¦²
2007-05-13, 15:23:52
jaja LOL!
wer lesen kann ist klar im vorteil!
http://img253.imageshack.us/img253/9128/unbenannt2jd6.th.jpg (http://img253.imageshack.us/my.php?image=unbenannt2jd6.jpg)

Aber hallo, gast...
les selber mal das Manual => Seite 1 :tongue:

Nebenbei tauchen da AGP-Hints auf (=> ab S.6...), die man glatt - rein spekulativ versteht sich - konkrete Pläne für eine AGP-Version halten könnte... :rolleyes:

Fetza
2007-05-13, 15:28:59
Beim erscheinen des G80 hat sich das alles noch anders angehört... naja je nach "Farbe" der Karte scheint man über das eine oder andere doch gerne hinweg zusehen.

Ich spreche grundsätzlich nur für mich, und zum zeitpunkt des g80 launches hab ich mich eigentlich aus der diskussion ziemlich herausgehalten, zudem verbraucht der g80 hinsichtlich der leistung meinermeinung nach auch nicht zuviel, nur der 2d modus könnte sicherlich noch seitens nv treiberseitig verbessert werden. Die lieblingsfarbe meiner karte wäre eigentlich schwarz, zusammen mit einem schönen rot oder blauen kühlelement;)

Ich denke, der R600 wird sparsamer im Idle als eine GTX sein, was auch keine große Kunst ist und evtl. etwas unter der GTS liegen. Aber mit um die 40 W im Idle allein für die Graka muss man schon rechnen. Wenn man nur 2 h Stunden pro Tag zockt, dürfte man mit dem R600 besser bedient sein. Bei 4 h Stunden am Tag dürfte es dann schon anders aussehe.
Btw, wegen der langen Idle Zeiten - arbeitet ihr alle zuhause oder lasst ihr den Rechner laufen, wenn ihr auf der Arbeit seid?

Wie bereits erwähnt interessiert mich eigentlich mehr die leistung. Was meinst du mit, es sei keine kunst?

Nein, ich arbeite nicht zuhause, aber ich schreibe zuhause öfters und surfe etc da kann man schon einige stunden pro tag den rechner ausserhalb von spielen nutzen. Ausserdem höre ich vor allem nachts gerne musik über kopfhörer, das sind dann auch so 2~ stunden nur musikhören .

ks
2007-05-13, 15:37:33
Aber hallo, gast...
les selber mal das Manual => Seite 1 :tongue:

Nebenbei tauchen da AGP-Hints auf (=> ab S.6...), die man glatt - rein spekulativ versteht sich - konkrete Pläne für eine AGP-Version halten könnte... :rolleyes:
Es hatte mich schon gewundert warum das überhaupt auftaucht....

"ATI CrossFire™ Requirements"
"Consult your computer
system manual to ensure the power supply is designed
to accommodate a high-end graphics card with a peak
dissipation above 150 watts."
Das relativiert die angabe fürs NT für eine Karte ziemlich

deekey777
2007-05-13, 15:51:01
Aber hallo, gast...
les selber mal das Manual => Seite 1 :tongue:

Nebenbei tauchen da AGP-Hints auf (=> ab S.6...), die man glatt - rein spekulativ versteht sich - konkrete Pläne für eine AGP-Version halten könnte... :rolleyes:
Dann lies doch die Seite 51.
http://img512.imageshack.us/img512/7630/blindln9.th.jpg (http://img512.imageshack.us/my.php?image=blindln9.jpg)
Die Seite 53 ist auch lustig. X-D.
Hier der komplette Guide als PDF.

http://rapidshare.com/files/31038555/Radeon_HD2900_Users_Guide.pdf.html


http://www.directupload.net/images/070513/Kh3qzi3O.jpg
Was willst du mit diesem Hinweis sagen bzw. verdeutlichen? Dass eine Grafikkarte heiß werden kann? Oder dass es gerade eine HD 2900 sein kann?

reunion
2007-05-13, 15:59:21
for a fact I do know that 430W Antec NeoHE is enough for HD2900, 4x HDD and A64 X2 6000+ though.

http://forum.beyond3d.com/showpost.php?p=985848&postcount=5407

Jetzt bin ich dann mal wirklich gespannt, was die Karte nun tatsächlich verbraucht.


Noch ein paar Werte:

Splinter Cell: Double Agent AA@4x in game , FA@16x in CCC.

And this tweak

X:\Program files\Ubisoft\Tom Clancy's Splinter Cell Double Agent\SCDA-Offline\System

[Graphics]
bEnableHDR=True
bTrilinearFiltering=True
bSpecularLighting=True
bVerticalSync=False
bHighQualityVisualFX=True

[WinDrv.WindowsClient]
WindowedViewportX=1920
WindowedViewportY=1080
FullscreenViewportX=1920
FullscreenViewportY=1080
TextureDetail=UltraHigh
SkinDetail=UltraHigh
Brightness=0.000000
Contrast=0.000000
Gamma=0.000000
MipFactor=1.000000
UseJoystick=True
CaptureMouse=True
StartupFullscreen=True
ScreenFlashes=True
NoLighting=False
DeadZoneXYZ=True
DeadZoneRUV=False
InvertVertical=False
ScaleXYZ=1.000000
ScaleRUV=1.000000
MinDesiredFrameRate=10.000000
Decals=True
NoDynamicLights=False
SkinDetail=UltraHigh
TextureDetail=UltraHigh
NoFractalAnim=False
Decals=True

This route

http://www.mediafire.com/?cnymd5mdihd

Splinter Cell: Double Agent AA@4x in game , FA@16x in CCC.

2900XT/8800GTS:
1280x1024
min:24/--
med:38/--
max:57/--

1600x1200
min:18/--
med:28/--
max:42/

no AA, FA@16x in CCC , all maximun

1600x1200
min:40/--
med:57/--:shock:
max:87/--

And the 8800 GTX and 1900 XTX in this route ..

http://i4.photobucket.com/albums/y117/jonelo/sc4i1600.jpg





http://forum.beyond3d.com/showpost.php?p=985803&postcount=5394

HL2: LOST COAST FAA@4x , FA@16x , HDR@ful l 8,37

2900XT/8800GTS:
1600x1200
med:130/126

1920x1200
med:113/112



http://forum.beyond3d.com/showpost.php?p=985802&postcount=5393

Is the HardwareOC Benchtools Bench , the 1.6 version (the 2.0 not have lost coast time demo )

edit / with HardwareOC Benchtools Bench 2.2 version (http://www.hocbench.com/hl2.html)


HL2: LOST COAST & HardwareOC Tool v2.2v NO AA , NO AF HDR@full y all máximun.
2900XT/8800GTS:
1600x1200
med:137/--

1920x1200
med:125/--

HL2: LOST COAST & HardwareOC Tool v2.2 AA@4x y FA@16x, HDR@full y all máximun
2900XT/8800GTS:
1600x1200
med:76/--:huh:

1920x1200
med:64/--:huh:

-------------------------------------------------------------------------------------------------

Oblivion 8,37


OBLIVION, all maximun , FAA@4x y FA@16x , HDR



-2900XT/8800GTS:

Forest

1920x1200
12/15

1600x1200
16/18

1280x1024
19/23

This route

http://img120.imageshack.us/img120/7038/ov1080ugncustombw9.jpg

http://i4.photobucket.com/albums/y117/jonelo/ov1650.jpg


Forest . night , raining

1920x1200
10/10

1600x1200
13/12

1280x1024
16/15




http://forum.beyond3d.com/showpost.php?p=985812&postcount=5398

seahawk
2007-05-13, 16:02:23
Wahrscheinlich weniger als die 8800, wenn man eine Nutzung von 60% 2D und 40% 3D annimmt.

Gast
2007-05-13, 16:06:20
Wahrscheinlich weniger als die 8800, wenn man eine Nutzung von 60% 2D und 40% 3D annimmt.

Welche 8800?!
Ansonsten zeigen die Werte eindeutig, dass es der Karte klar an der Texturleistung fehlt. Und selbst mit der überlegenen Rechenleistung kann sich die 2900XT nicht von der GTX absetzen.
Ein ziemlicher unausbalanciertes Design.

seahawk
2007-05-13, 16:12:34
Ich würde zukunftsorientiert sagen. Mit den ersten DX10 Anwendungen wird die X2900 ihre Fesseln abstreifen und die 8800 deutlich distanzieren.

Gast
2007-05-13, 16:16:46
Ich würde zukunftsorientiert sagen. Mit den ersten DX10 Anwendungen wird die X2900 ihre Fesseln abstreifen und die 8800 deutlich distanzieren.

Nur werden die ersten DX10-Anwendungen DX10 nur zu Beschleunigung und für einige dezent gesetzte Effekt nutzen und deshalb werden sie von ihren Anforderungen sich nicht wirklich von aktuellen DX9-Titeln unterschieden.

Undertaker
2007-05-13, 16:16:59
Ich würde zukunftsorientiert sagen. Mit den ersten DX10 Anwendungen wird die X2900 ihre Fesseln abstreifen und die 8800 deutlich distanzieren.

woran willst du das jetzt schon erkennen? die x1600pro war mit ihren 12 shadereinheiten auch "zukunftsorientiert" - nützt halt nur nix, weil die 4 tmus nix taugen :D

up¦²
2007-05-13, 16:17:47
Inzwischen hat der stolze Besitzer vom Rage3d-Forum Screenshots in Game usw. :wink:
ab
http://www.rage3d.com/board/showthread.php?p=1334937886#post1334937886

Gast
2007-05-13, 16:18:19
Ich würde zukunftsorientiert sagen. Mit den ersten DX10 Anwendungen wird die X2900 ihre Fesseln abstreifen und die 8800 deutlich distanzieren.

Am Dienstag soll es die Lost Planet Demo geben. Was passiert, wenn der r600 sich hier nicht absetzen kann?
Es kann eine herbe Enttäuschung werden, wenn sich die Karte mit TSAA nicht von der X1950XTX absetzen kann. Das wäre der MEGAGAU für AMD.

James Ryan
2007-05-13, 16:19:18
Ich finde es etwas lächerlich dass die HD 2900 XT ständig mit der GTS/640 verglichen wird, nur damit in Diagrammen die ATi besser dasteht. :rolleyes:

MfG :cool:

mapel110
2007-05-13, 16:22:45
Ich finde es etwas lächerlich dass die HD 2900 XT ständig mit der GTS/640 verglichen wird, nur damit in Diagrammen die ATi besser dasteht. :rolleyes:

MfG :cool:
Muss halt so sein, Das Ding wird ja offenbar auch für dem selben Preis verschleudert werden. Gehobene Mittelklasse eben. Mehr bietet ATI diesmal nicht.

James Ryan
2007-05-13, 16:25:39
Muss halt so sein, Das Ding wird ja offenbar auch für dem selben Preis verschleudert werden. Gehobene Mittelklasse eben. Mehr bietet ATI diesmal nicht.

Die HD 2900 XT wird für 350-370€ verkauft, eine GTS/640 gibt es für 309€ und morgen mit Sicherheit für 299€. :rolleyes:
Diese Vergleiche sind billige Versuche den R600 besser dastehen zu lassen als er ist!

MfG :cool:

deLuxX`
2007-05-13, 16:25:44
Es wird sich erst noch zeigen müssen mit welcher Karte die 2900XT zu vergleichen ist. Ist denk' ich eher schwierig direkt mit einer zu vergleichen, da es so ausschaut, dass sie sich preislich zwischen GTS und GTX befinden wird. Auch wissen wir nicht wie stark nVidia die Preise senken wird.
Es macht einfach keinen Sinn als unter einem anderem Aspekt als dem Preis zu vergleichen.