PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 6600GT vs. X700pro - die ersten Benches


r@h
2004-09-08, 06:38:34
Hiho,

Habe gerade auf Guru3D (www.guru3d.com), diese nette News gelesen:
http://www.bodnara.co.kr/bbs/?imode=view&D=6&num=51357&&category=33



Hey, I just stumbled into some benchmarks of the x700 versus the 6600 on PC Pop, which they found on another site called BodNara something.

It looks like the Radeon X700 will be an interesting card also. It's doing a 425 MHz core frequency and was running 860 MHz on it's memory. Have a look at the results. BTW I don't have a clue what test system was used and what settings where used in terms of optimizations and such on both cards. Still this could be a nice indication of what to expect of the x700.Ein 'heißes' Kopf an Kopf - Rennen, würd' ich sagen...
...mit einem leichten Vorteil für die GT.

Was dann wohl mit der X700 XT werden wird?
:D

Razor




/edit L.
Schon reichlich frech von Guru3D, die eigenen Images mit Deeplinkschutz zu versehen, aber schamlos diese von einer koreanischen Seite zu klauen, ohne die wenigstens zu erwähnen. So etwas hat keinen Link auf Guru3D verdient!

ice cool69
2004-09-08, 06:58:01
Wird es auch eine 6600 Ultra geben oder bleibts bei der GT? Denn wies aussieht wird die XT die GT ziemlich versägen.

Raver
2004-09-08, 08:21:19
naja ziemalich würde ich nicht sagen...es könnte ne ultra geben..allerdings wäre dei viel zunah an die 6800/x800

BK-Morpheus
2004-09-08, 08:25:20
Hier in der Schule kann ich das Review nicht sehen, weil die Seite gesperrt ist, aber ich würde gerne mal wissen, wieviel schneller/langsamer eine X700Pro gegenüber einer 9800Pro ist.

Kann mir da jemand Auskunft geben?
Wurde eine 9800Pro auch mit gebencht?

Tjell
2004-09-08, 08:45:06
Ich glaube, daß sich das ganze so darstellen wird:

6600 <-> X700
6600 GT <-> X700 PRO
NV41 oder 6600 Ultra <-> X700 XT

BK-Morpheus
2004-09-08, 08:52:24
Was wird eine X700XT wohl kosten?
Wenn die Karte zwischen 200 und 300€ liegt könnte sie ja echt ganz interessant sein.

MikBach
2004-09-08, 08:53:33
Hier in der Schule kann ich das Review nicht sehen, weil die Seite gesperrt ist, aber ich würde gerne mal wissen, wieviel schneller/langsamer eine X700Pro gegenüber einer 9800Pro ist.

Kann mir da jemand Auskunft geben?
Wurde eine 9800Pro auch mit gebencht?
Nein, eine 9800PRO wurde nicht mit gebencht.
Ein Wert der dir was sagen dürfte: 3dmark2003 knapp 7000 Punkte bei der X700PRO.
Man kann auch nicht pauschal sagen, ob jetzt eine 6600GT/X700PRO oder eine 9800PRO schneller ist. Das hängt hauptsächlich von der Auflösung und AA-Grad ab, da 6600GT/X700PRO eine 128-Bit Speicheranbindung haben während die 9800PRO 256-Bit hat. In hohen Auflösungen mit AA dürfte eine 9800PRO schneller sein. IMO lohnt das Aüfrüsten von einer 9800PRO auf 6600GT/X700 nicht. Wenn schon dann HighEnd(X800PRO/XT,GF6800GT/Ultra).

BK-Morpheus
2004-09-08, 09:02:02
Nein, eine 9800PRO wurde nicht mit gebencht.
Ein Wert der dir was sagen dürfte: 3dmark2003 knapp 7000 Punkte bei der X700PRO.
Man kann auch nicht pauschal sagen, ob jetzt eine 6600GT/X700PRO oder eine 9800PRO schneller ist. Das hängt hauptsächlich von der Auflösung und AA-Grad ab, da 6600GT/X700PRO eine 128-Bit Speicheranbindung haben während die 9800PRO 256-Bit hat. In hohen Auflösungen mit AA dürfte eine 9800PRO schneller sein. IMO lohnt das Aüfrüsten von einer 9800PRO auf 6600GT/X700 nicht. Wenn schon dann HighEnd(X800PRO/XT,GF6800GT/Ultra).

Ich habe noch eine 9500Pro und wenn ich zum Ende des Jahres aufrüste (wenn möglich A64 S939 mit PCI-E), dann möchte ich gerne was, das etwas schneller ist als eine 9800Pro, aber über 300€ will ich nun auch nicht ausgeben.

Die X700XT soll ja 256bit Speicheranbindung haben, von daher würde mir die wahrscheinlich ganz gut gefallen.

MikBach
2004-09-08, 09:15:44
Ich habe noch eine 9500Pro und wenn ich zum Ende des Jahres aufrüste (wenn möglich A64 S939 mit PCI-E), dann möchte ich gerne was, das etwas schneller ist als eine 9800Pro, aber über 300€ will ich nun auch nicht ausgeben.

Die X700XT soll ja 256bit Speicheranbindung haben, von daher würde mir die wahrscheinlich ganz gut gefallen.
Ob die X700XT jetzt über 256Bit angebunden wird, müssen wir abwarten. Hab schon so viele widersprüchliche Meldungen gesehen, dass ich jetzt auch nicht weiss, was der neuste Stand ist. ;D

Naja bei einer 9500PRO wirst du sicherlich die Mehrleistung einer X700XT deutlich merken, besonders wenn du höhere Auflösungen und/oder AA fahren willst.

Gast
2004-09-08, 09:26:42
Die 6600GT versägt sogar die 9800XT in den meisten Fällen, was wird denn die X700XT tun? ;D

Ich hoffe, ich kann die GT oder XT noch vor Weihnachten kaufen :D

Gast
2004-09-08, 09:28:55
Hiho,

Habe gerade auf Guru3D (www.guru3d.com), diese nette News gelesen:
http://www.guru3d.com/newsitem.php?id=1855

http://www.guru3d.com/admin/imageview.php?image=3702

http://www.guru3d.com/admin/imageview.php?image=3703

http://www.guru3d.com/admin/imageview.php?image=3704

http://www.guru3d.com/admin/imageview.php?image=3705

Ein 'heißes' Kopf an Kopf - Rennen, würd' ich sagen...
...mit einem leichten Vorteil für die GT.

Was dann wohl mit der X700 XT werden wird?
:D

Razor

Das die 'nen Linkschutz hast, ist dir schon bekannt, oder?!

MikBach
2004-09-08, 10:00:09
Die 6600GT versägt sogar die 9800XT in den meisten Fällen, was wird denn die X700XT tun? ;D

Ich hoffe, ich kann die GT oder XT noch vor Weihnachten kaufen :D
Naja, von dem Wort "versägen" solltest du dich in diesem Zusammenhang ganz schnell trennen. Ich weiss ja nicht was du dir darunter vorstellst, aber ich stelle mir darunter mind. 50% schneller vor.
Und das trifft nicht zu, besonders, wenn man die Einstellungen 1280x1024(1024x768) mit 4xAA und 8xAF betrachtet. ;)
Siehe auch den Test von Computerbase.

BTW ein sehr guter Artikel. :up:

edit: doch einen Fehler gefunden. Beim performancerating sollte man bei der 5950Ultra hinschreiben, dass teilweise reduzierte BQ, da nur DX8.1 verwendet wurde. Sonst kommen Daus wieder auf den Gedanken, dass Die FX5950 gleich schnell wie eine 9800PRO in den verwendeten Benchmarks ist.
Wer sich nur das Performancerating anschaut wird das so sehen.

Link zum Artikel: http://www.computerbase.de/artikel/hardware/grafikkarten/nvidia_geforce_6600serie/1/#einleitung
Performancerating: http://www.computerbase.de/artikel/hardware/grafikkarten/nvidia_geforce_6600serie/13/#performancerating

StefanV
2004-09-08, 10:09:13
Hiho,

Habe gerade auf Guru3D (www.guru3d.com), diese nette News gelesen:
http://www.guru3d.com/newsitem.php?id=1855

http://www.guru3d.com/admin/imageview.php?image=3702
http://www.guru3d.com/admin/imageview.php?image=3703

http://www.guru3d.com/admin/imageview.php?image=3704

http://www.guru3d.com/admin/imageview.php?image=3705

Ein 'heißes' Kopf an Kopf - Rennen, würd' ich sagen...
...mit einem leichten Vorteil für die GT.

Was dann wohl mit der X700 XT werden wird?
:D

Razor
Schön, nur sind diese Benchmarks irgendwie ziemlich nutzlos.

3Dmark interessiert nicht, wie du selbst gesagt hast, Razor, Quake3 interessiert noch weniger, Gun Metal dürfte kaum einer Spielen, ebenso dürfte der Aquamark nicht spielbar sein...

Bleibt noch Doom3 und UT2003...
Das nV bei ersteren stark cheatet dürfte ja bekannt sein, letzteres sagt aber auch nicht viel aus.


Ergo: nette Benchmarks, leider alle Nutzlos.

Außerdem haben diese Benchmarks irgendwei den Faden beigeschmack von nV zu kommen :rolleyes:

Tjell
2004-09-08, 10:22:46
...Bleibt noch Doom3 und UT2003...
Das nV bei ersteren stark cheatet dürfte ja bekannt sein, ...
Erstens: Beweis?
Zweitens: Cheat oder "tolle Optimierung, die sowieso niemand" sieht? So in der Art der von vielen sooo wunderbar aufgenommenen adaptiven AF-Optimierung von ATI.

Gleiches Recht für alle.

StefanV
2004-09-08, 10:33:24
Erstens: Beweis?
Zweitens: Cheat oder "tolle Optimierung, die sowieso niemand" sieht? So in der Art der von vielen sooo wunderbar aufgenommenen adaptiven AF-Optimierung von ATI.

Gleiches Recht für alle.
Beweis?

Die Aussage von einigen, inkl JC, daß die Performance der nV Karten dramatisch einbricht, wenn man die Shader nur leicht ändert.

Tjell
2004-09-08, 10:37:17
Dann sollte das mit anderen (älteren) Forcewares auch der Fall sein.

Außerdem wage ich zu behaupten, daß ATI-Karten auch Leistung einbüßen, wenn auch vermutlich eher (vernachlässigbar?) wenig.

Zudem darfst Du Dich gerne mal zu "Zweitens" von mir äußern und nicht nur den Finger erheben und "Cheat" schreien. ;)

Elrood
2004-09-08, 10:39:21
@BK-Morpheus

für 300 Euro bekommste doch schon ne 6800er

BK-Morpheus
2004-09-08, 11:02:05
@BK-Morpheus

für 300 Euro bekommste doch schon ne 6800er
Da mein PC aber fast permanent an ist und ich alleine nicht zocke sondern fast ausschliesslich am WE auf LAN wäre ich eher für eine X700XT (mal davon abgesehen, dass die 6800 noch AGP hat und mein nächstes Board PCI-E haben sollte).

Durch den dauerbetrieb des PCs achte ich halt etwas auf den Stromverbrauch der Graka (aber ne 9600Pro ist mir dann doch zu langsam, auch wenn sie sehr wenig Strom verbraucht).

Eine X800Pro verbraucht unter last kaum mehr als eine 9800Pro und im ILDE sogar nur die hälfte von dem, was ne 9800Pro im IDLE verbrät.

Eine 6800GT verbraucht im IDLE auch ~20Watt mehr als eine X800Pro (wenn ich das vom letzten Review noch richtig im Kopf habe) und deswegen tendiere ich zur Zeit noch zu ATI.

MikBach
2004-09-08, 11:03:06
Zweitens: Cheat oder "tolle Optimierung, die sowieso niemand" sieht? So in der Art der von vielen sooo wunderbar aufgenommenen adaptiven AF-Optimierung von ATI.

Gleiches Recht für alle.
Ack.
Wenn man die möglichen(vom technischen Standpunkt aus gesehen) Einbussen in der BQ nicht sieht, ist es imo OK.

Odal
2004-09-08, 11:03:41
Schön, nur sind diese Benchmarks irgendwie ziemlich Bleibt noch Doom3 und UT2003...
Das nV bei ersteren stark cheatet dürfte ja bekannt sein, letzteres sagt aber auch nicht viel aus.



Beweis?

Die Aussage von einigen, inkl JC, daß die Performance der nV Karten dramatisch einbricht, wenn man die Shader nur leicht ändert.



LOL das is payne wie ich ihn kenne *hrhr*

nur schade das doom III nicht viele shader einsetzt und grösstenteils auf bumpmapping setzt.
aber das von dir nur rumgeflame kommt war klar....
zur r3xx serie hiess es ja noch: nein das "optimierte" AF ist ja sooooo toll das sieht man ja alles absolut nich...da wurde wehement verschwiegen das sich ATI damit vorteile in jeglichen benchmarks auf kosten der BQ erschummelt...

ich verweise mal auf Dieter Nuhr....

MikBach
2004-09-08, 11:05:56
Außerdem wage ich zu behaupten, daß ATI-Karten auch Leistung einbüßen, wenn auch vermutlich eher (vernachlässigbar?) wenig.

Nö, das hat der Humustweak doch bewiesen, dass es umgekehrt ist.
ATIs gewinnen an Speed.

Gast
2004-09-08, 11:18:55
LOL das is payne wie ich ihn kenne *hrhr*

....

ich verweise mal auf Dieter Nuhr....


http://www.ralfschoch.de/sound/fresseha.mp3

Tjell
2004-09-08, 11:20:02
Nö, das hat der Humustweak doch bewiesen, dass es umgekehrt ist.
ATIs gewinnen an Speed.
Ein "Tweak", der an den Shadern ansetzt, ist, wie der Name schon sagt, ein Eingriff zugunsten der Performance, sprich in diesem Falle eine Anpassung auf die ATI-Karten.

Eine Änderung an den Shadern generell, also im Sourcecode durch ID-Software, ist etwas vollkommen anderes. Ändert man demnach willkürlich die Art und Weise von Shaderanweisungen, nehmen einem die Grafikkarten das generell mehr oder weniger übel. Die FX-Serie ist in dieser Hinsicht auch sehr sensibel, eine ähnliche Anfälligkeit zeigt auch noch die GeForce6-Serie aufgrund Ihrer Rechenarchitektur.

Im Gegensatz zu ATI muß man sich bei den Karten von nVidia an eine "Fütterungs-Vorschrift" halten, damit sie sich nicht "verschlucken". ;) Leider. Man kann damit sagen, daß die Architektur der NV30 aufwärts sehr flexibel, jedoch sehr anfällig für die Abfolge von 3D-Code ist (Ich hoffe ich schmeiße hier begriffstechnisch nichts durcheinander), ATI dagegen hat mit den jüngeren Radeons fast schon "Allesfresser" geschaffen. ;D

StefanV
2004-09-08, 11:21:44
Ack.
Wenn man die möglichen(vom technischen Standpunkt aus gesehen) Einbussen in der BQ nicht sieht, ist es imo OK.

Ansichtssache...

Cheaten ist ja (mehr oder minder) sich einen Vorteil zu verschaffen.

LOL das is payne wie ich ihn kenne *hrhr*

nur schade das doom III nicht viele shader einsetzt und grösstenteils auf bumpmapping setzt.
aber das von dir nur rumgeflame kommt war klar....
zur r3xx serie hiess es ja noch: nein das "optimierte" AF ist ja sooooo toll das sieht man ja alles absolut nich...da wurde wehement verschwiegen das sich ATI damit vorteile in jeglichen benchmarks auf kosten der BQ erschummelt...

ich verweise mal auf Dieter Nuhr....

Odal, es wäre schön, wenn du dich auf die Diskussion konzentrieren würdest und das Niveau nicht auf Kindergarten Niveau 'anheben' würdest!

Das du mich nicht ab kannst, das dürfte solangsam jeder kapiert haben, nur musst du das in jedem Thread, in dem ich was sage, was dir nicht passt kundtun?!

Sorry, aber DU hast dich mit dem Mist, den du hier geschrieben hast völlig disqualifiziert und dich selbst als das geoutet, was du anderen unterstellst.

Na, was war denn deine letzte ATi Karte?!

Deinen Verweis auf Diter Nuhr (einfach mal Fresse halten meinst sicher, oder??) solltest DU dir eher zu Herzen nehmen und nicht anderen unter die Nase binden, besonders wenn du ein Posting verfasst, das nicht wirklich viel mit dem Thema zu tun hat und nur dazu dient jemanden 'anzumachen'.

Sorry, aber sowas geht mir echt aufn Sack.

Wenn du was zu sagen hast, dann sag das gefälligst in einem sachlichen Ton und mach hier nicht irgendwen dumm von der Seite an, ich mach das ja auch nicht und genauso verlange ich auch von anderen behandelt zu werden, ists so schwer, mal seine persönlichen Differenzen zu hause zu lassen und einfach mal was zu posten, was mit dem Thema zu tun hat und nicht 'och, das ist der, da dreschen wir mal drauf rum, der kanns ab'...


Da mein PC aber fast permanent an ist und ich alleine nicht zocke sondern fast ausschliesslich am WE auf LAN wäre ich eher für eine X700XT (mal davon abgesehen, dass die 6800 noch AGP hat und mein nächstes Board PCI-E haben sollte).

Durch den dauerbetrieb des PCs achte ich halt etwas auf den Stromverbrauch der Graka (aber ne 9600Pro ist mir dann doch zu langsam, auch wenn sie sehr wenig Strom verbraucht).

Eine X800Pro verbraucht unter last kaum mehr als eine 9800Pro und im ILDE sogar nur die hälfte von dem, was ne 9800Pro im IDLE verbrät.

Eine 6800GT verbraucht im IDLE auch ~20Watt mehr als eine X800Pro (wenn ich das vom letzten Review noch richtig im Kopf habe) und deswegen tendiere ich zur Zeit noch zu ATI.

Naja, das übliche halt :|

Die ATi Karten waren/sind eigentlich immer etwas kühler gewesen als vergleichbare nV Karten...

Hoffen wir mal, daß beide nicht mehr nur fps im Sinn haben sondern auch auf den Stromverbrauche ein wenig (mehr) achten...

PS: ja, der Abstand von 9600 <-> 9800 ist schon irgendwie gewaltig :|

MadManniMan
2004-09-08, 11:22:09
Razor... AAAAAAAAAALT!

Und SP: ich sags dir ungern, aber diesmal redest du wirklich Stuß ;(

StefanV
2004-09-08, 11:23:55
Ein "Tweak", der an den Shadern ansetzt, ist, wie der Name schon sagt, ein Eingriff zugunsten der Performance, sprich in diesem Falle eine Anpassung auf die ATI-Karten.

Eine Änderung an den Shadern generell, also im Sourcecode durch ID-Software, ist etwas vollkommen anderes. Ändert man demnach willkürlich die Art und Weise von Shaderanweisungen, nehmen einem die Grafikkarten das generell mehr oder weniger übel. Die FX-Serie ist in dieser Hinsicht auch sehr sensibel, eine ähnliche Anfälligkeit zeigt auch noch die GeForce6-Serie aufgrund Ihrer Rechenarchitektur.

Im Gegensatz zu ATI muß man sich bei den Karten von nVidia an eine "Fütterungs-Vorschrift" halten, damit sie sich nicht "verschlucken". ;) Leider. Man kann damit sagen, daß die Architektur der NV30 aufwärts sehr flexibel, jedoch sehr anfällig für die Abfolge von 3D-Code ist (Ich hoffe ich schmeiße hier begriffstechnisch nichts durcheinander), ATI dagegen hat mit den jüngeren Radeons fast schon "Allesfresser" geschaffen. ;D

Das mit der 'Fütterungsvorschrift' wurde bei der nV40 Serie deutlich entschärft und fällt nicht mehr wirklich stark ins Gewicht.

Aber wo wir gerad dabei sind:

Etwas ähnliches gilt auch für ATi Karten, nur sind die eben anders, das darfst du auch nicht vergessen :)

StefanV
2004-09-08, 11:24:59
Razor... AAAAAAAAAALT!

Und SP: ich sags dir ungern, aber diesmal redest du wirklich Stuß ;(
1. stimmt
Hat Leo das ganze nicht vor ein paar Tagen nicht sogar in den News erwähnt?!

2. nur zum Teil...
Und damit, daß man mir sagt, daß ich Stuß rede, kann ich leben, kommt immer drauf an wie man es sagt...

r@w
2004-09-08, 11:25:14
Das die 'nen Linkschutz hast, ist dir schon bekannt, oder?!Nö.
Hier in der Firma kann ich die genauso öffnen, wie zuhause auch...
(und das bei völlig unterschiedlichen iNet-Zugängen und ebenso unterschiedlichen Personalisierungen ;-)

Muss an Deinem Browser liegen!

Razor

StefanV
2004-09-08, 11:26:05
Nö.
Hier in der Firma kann ich die genauso öffnen, wie zuhause auch...
(und das bei völlig unterschiedlichen iNet-Zugängen und ebenso unterschiedlichen Personalisierungen ;-)

Muss an Deinem Browser liegen!

Razor
Klar, deswegen steht ja auch auf den Bildern, daß man keine 'deeplings' auf die Seite setzen sollte, nicht wahr?!

Um genau zu sein steht da das:

If you see this image then Image Bandwith Protection cught you.
Please don't deeplink from our server !

If you see this image on Guro3D.com please disable your firewall or anonymus proxyserver settings

robbitop
2004-09-08, 11:28:38
das mit der Cheaterei ist lediglich eine Hetze. Fakt ist, dass NV3x und NV4x noch mehr von der Architektur her ziemlich genau auf das Anforderungsprofil der Doom 3 Engine passen. NV hats gemacht, ATi nicht, selbst schuld.
Die Doom 3 Engine wird sich ziemlich bald sehr verbreiten (wenn man die Analogie zur Q3A Engine setzt), das wird ATi nicht freuen, so wie die jetzigen Ergebnisse aussehen.

Zum Thema Optimierungen: Solange es die BQ nicht verschlechtert und es im gesamten Spiel nutzbar ist, sollte es gefeiert und nicht verachtet werden. Neu gewonnene Performance kann man dann in besseres AA/AF/Resolution packen.

Und wer glaubt ATi würde keine Shaderreplacements betreiben, der muss ziemlich naiv sein. ATi würde mit Sicherheit alles tun was nötig ist, um in Doom3 mehr Performance zu gewinnen. Ich mutmaße mal: mehr ist mit dieser Architektur ohne BQ Einbussen nicht drin.

Das wundert mich überhaupt nicht. Das EarlyZ ist wie für Doom 3 geschaffen, die ROPs und die VS MIMDs ebenfalls. Dazu kommen die verdammt effizienten NV4x Pixelprozessoren. Doom wurde nicht für NV Karten geschaffen, es ist in diesem Falle umgekehrt. ATi hat das Anforderungsprofil seltsamerweise ignoriert nun haben sie den Salat (mehr ROPs und ein anderes Hir Z hätte da viel geholfen).

MadManniMan
2004-09-08, 11:29:03
2. nur zum Teil...
Und damit, daß man mir sagt, daß ich Stuß rede, kann ich leben, kommt immer drauf an wie man es sagt...

Ich hab mich ja bemüht, nett zu bleiben ;)

Die Doom3 Geschichte und etwaige Cheats, sowie was das dann noch aussagt diskutieren wir an anderer Stelle - und sind atm soweit, daß man ersteinmal nV applaudieren müßte, weil sie einfach die überlegenen Chips für diese App haben.

Und UT2003 abzutun... ja was soll man denn sonst testen =) Natürlich brauchts mehr Tests, endgültig was sagen zu können, aber das reicht noch lange nicht, diesen Vortest abzutun ;)

deekey777
2004-09-08, 11:34:08
Razor... AAAAAAAAAALT!

Und SP: ich sags dir ungern, aber diesmal redest du wirklich Stuß ;(

LS hat es schon am 4. Sept. gepostet. -> Klick mich! (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=161706&page=9&pp=20)

r@w
2004-09-08, 11:34:18
Schön, nur sind diese Benchmarks irgendwie ziemlich nutzlos.

3Dmark interessiert nicht, wie du selbst gesagt hast, Razor, Quake3 interessiert noch weniger, Gun Metal dürfte kaum einer Spielen, ebenso dürfte der Aquamark nicht spielbar sein...

Bleibt noch Doom3 und UT2003...
Das nV bei ersteren stark cheatet dürfte ja bekannt sein, letzteres sagt aber auch nicht viel aus.

Ergo: nette Benchmarks, leider alle Nutzlos.

Außerdem haben diese Benchmarks irgendwei den Faden beigeschmack von nV zu kommen :rolleyes:Sorry, Stefan, dass ich es wagte Dir diese Beches einfach so ungefragt vor die Nase zu halten.
Sorry dafür, dass sie wohl nicht Deinen Erwartungen entsprechen.
Sorry, sorry, und nochmal sorry...

Sag mal, geht's noch?

Da das die ersten und einzigen Benches sind, die diese beiden neuen Mainstream-Karten miteinander vergleichen, bin ich davon ausgegangen, dass es hier wohl so einige interessieren dürfte, wie sich das darstellt... völlig unabhängig davon, wie vertrauenswürdig die Quelle ist.

Es wird schon noch konkretere 'Duelle' geben, aber bis dahin muss das hier reichen.
Wenn Du aber was besseres zu bieten hast, dann immer her damit!
Ansonsten halte Dich einfach ein wenig zurück.

Und by the way, die Benches stammen nicht von mir, also sprich mich bitte nicht persönlich an.
Danke.

Razor

Elrood
2004-09-08, 11:38:05
Hier ist noch ein Test der 6600GT, aber ohne X700.

http://www.chip.de/artikel/c_artikelunterseite_12247989.html?tid1=&tid2=

Zitat aus dem Test: "Die reduzierte Leistungsaufnahme des Chips hat einen weiteren schönen Nebeneffekt: Durch die geringere Hitzenetwicklung wird auch kein großflächiger Turbinen-Lüfter mehr benötigt. Die Folge: Die Lautheit des kleinen Lüfters liegt bei gemessenen 2,2 Sone. Bei geschlossenem PC-Gehäuse ist das erfahrungsgemäß nicht mehr hörbar."

Hört sich doch nett an.

r@w
2004-09-08, 11:38:08
Razor... AAAAAAAAAALT!Was? Wie? Wo?
Hab' ich da was verpaßt?
:confused:

Sach' doch mal...

Razor

Tjell
2004-09-08, 11:38:45
Auch wenn die NV4x derzeit bei Doom3 "überlegen" scheinen, so würde ich nicht so weit gehen, diesen Vorsprung auch auf Spiele zu übertragen, die nur die Grafikengine von Doom3 nutzen, denn dieser Vorsprung an Leistung wird nach bisher als gesichert anzunehmenden Erkenntnissen durch den hohen Anteil an Schatten im Spiel (also kaum oder nicht sichtbaren Bereichen) und der besonderen Fähigkeit der NV4x eben jene Bereiche rechenlastschonend zu rendern erzielt.

(Habe ich schon erwähnt, daß ich die Möglichkeiten der Interpunktion laut alter deutscher Rechtschreibung liebe?) :D

r@w
2004-09-08, 11:40:13
Klar, deswegen steht ja auch auf den Bildern, daß man keine 'deeplings' auf die Seite setzen sollte, nicht wahr?!

Um genau zu sein steht da das:Nö, steht bei mir nicht...
Kann es sein, dass Du etwas anderes, als den IE verwendest?
:D

Razor

Elrood
2004-09-08, 11:43:55
@r@w: *3DC Link kopier, IE rauskram, einfüg*
Hat nix mitm IE zu tun, ich seh da auch nur den Hinweis mit dem deeplink.

r@w
2004-09-08, 11:47:08
Hier ist noch ein Test der 6600GT, aber ohne X700.

http://www.chip.de/artikel/c_artikelunterseite_12247989.html?tid1=&tid2=

Zitat aus dem Test: "Die reduzierte Leistungsaufnahme des Chips hat einen weiteren schönen Nebeneffekt: Durch die geringere Hitzenetwicklung wird auch kein großflächiger Turbinen-Lüfter mehr benötigt. Die Folge: Die Lautheit des kleinen Lüfters liegt bei gemessenen 2,2 Sone. Bei geschlossenem PC-Gehäuse ist das erfahrungsgemäß nicht mehr hörbar."

Hört sich doch nett an.Jo... passt aber doch eher in den anderen Thread, meinst Du nicht?
;-)

Razor

r@w
2004-09-08, 11:48:32
@r@w: *3DC Link kopier, IE rauskram, einfüg*
Hat nix mitm IE zu tun, ich seh da auch nur den Hinweis mit dem deeplink.Dann nimm halt den direkt-Link...
Kann mir dann mal jemand erklären, warum die "Deep-Link-Protection" dann bei mir nicht wirkt?
:confused:

Razor

r@w
2004-09-08, 11:48:45
LS hat es schon am 4. Sept. gepostet. -> Klick mich! (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=161706&page=9&pp=20)Hey cool... Post 170 auf Seite 9 mitte... wird garantiert JEDER bemerkt haben!
(und die Hälfte fehlt ;-)
:D

Na ja, so dürfte dieser Thread vielleicht dazu taugen, eine etwas anders gelagerte Diskussion zu entfachen, wenn Stefan endlich aufhört, hier rumzuflamen was das Zeug hält.

Naaaaa Stefan?
Reichts blad?

Razor

MikBach
2004-09-08, 11:50:31
Ansichtssache...

Cheaten ist ja (mehr oder minder) sich einen Vorteil zu verschaffen.

Teilweise Ack.
Unter Cheat verstehe ich etwas, was geheim gemacht wird.
Wenn ATI jetzt in den Treibern ein Häkchen "Shaderreplacement" einbaut, ist es für mich kein Cheat mehr, sondern eine Optimierung wie auch bei den Filtern oder sonstigen Einstellungen des Treibers der Fall ist.

Außerdem haben diese Benchmarks irgendwei den Faden beigeschmack von nV zu kommen :rolleyes:
Ein wenig vielleicht. In den meisten Benches sind die X700PRO und die 6600GT nicht wirklich weit auseinander.
Nur Doom3 und Gunmetal.
Domm3 ist ja sinnvoll, aber Gunmetal? :|

Elrood
2004-09-08, 11:52:01
In diesem Bild steht das man seine Proxy/Firewall ausmachen soll.

Ich sitz hier im Firmennetz, daher ist das schonmal schlecht.

DrumDub
2004-09-08, 11:52:10
kann nen mod den thread bitte closen. hier kommt eh nichts vernünftige mehr bei rum.

razor, wer im galshaus sitzt.... :ugly:


Unter Cheat verstehe ich etwas, was geheim gemacht wird.
Wenn ATI jetzt in den Treibern ein Häkchen "Shaderreplacement" einbaut, ist es für mich kein Cheat mehr, sondern eine Optimierung wie auch bei den Filtern oder sonstigen Einstellungen des Treibers der Fall ist.


jupp. so siehts aus.

BK-Morpheus
2004-09-08, 11:52:31
Hier ist noch ein Test der 6600GT, aber ohne X700.

http://www.chip.de/artikel/c_artikelunterseite_12247989.html?tid1=&tid2=

Zitat aus dem Test: "Die reduzierte Leistungsaufnahme des Chips hat einen weiteren schönen Nebeneffekt: Durch die geringere Hitzenetwicklung wird auch kein großflächiger Turbinen-Lüfter mehr benötigt. Die Folge: Die Lautheit des kleinen Lüfters liegt bei gemessenen 2,2 Sone. Bei geschlossenem PC-Gehäuse ist das erfahrungsgemäß nicht mehr hörbar."

Hört sich doch nett an.
Nur, dass in den 3Dcenter News schon genügend 6600 und 6600GT Tests sind...ich würde mich eher über noch n paar X700 Tests freuen ;)

LairD
2004-09-08, 11:54:43
Auch wenn die NV4x derzeit bei Doom3 "überlegen" scheinen, so würde ich nicht so weit gehen, diesen Vorsprung auch auf Spiele zu übertragen, die nur die Grafikengine von Doom3 nutzen, denn dieser Vorsprung an Leistung wird nach bisher als gesichert anzunehmenden Erkenntnissen durch den hohen Anteil an Schatten im Spiel (also kaum oder nicht sichtbaren Bereichen) und der besonderen Fähigkeit der NV4x eben jene Bereiche rechenlastschonend zu rendern erzielt.

(Habe ich schon erwähnt, daß ich die Möglichkeiten der Interpunktion laut alter deutscher Rechtschreibung liebe?) :D

Sry für die dumme Frage,aber hatte der Treiberguru von ATI in der CT nicht bestritten,das es an den Schatten liegt?

Quasar
2004-09-08, 11:58:25
DeepLink-Schutz passt schon, hab ich hier mit Opera auch gesehen. Als ich die Seite dann einmal öffnete (also den Guru3d), kamen wie von Geisterhand auch die niedlichen kleinen Thumbs. :)

Wie dem auch sei, da der Link zum Thread dabeiwar, halte ich es mal mit Borsti und deklariere es hier zum "non-issue". ;)

Zum Thema:
Ein erster Indikator, daß die Kärtchen nicht weit auseinanderliegen - stellt sich mal wieder a) die Optimierungsfrage und b) die Frage, welcher Hersteller welche Ausstattung und welche Taktraten zu welchem Preis auf den Markt werfen. Dann erst kann man IMO wirklich sinnvoll urteilen.

Zum Thema Doom3:
Ich habe gestern abend mal ein bisschen mit dem Shader auf einer 6800nu rumgespielt: von 56,8fps runter auf 48,8fps, nur wenn ich ein klitzekleines ".x" hinzufüge beim Specular Fall-off (mit etwas Hilfe habe ich es sogar gefunden...).

Andererseits bricht die Leistung mit Humus' komplettem Shader (also weit mehr als nur meinem kleinen ".x") "nur" auf 51,8fps ein - da scheint er noch mehr zu vereinfachen, was auch den nV-Karten zugute zu kommen scheint. X-D

Wie gesagt, alles vorläufig und ohne Gewähr, Gewehr und Garantie. (Postings, die obiges ohne Kontext zitieren, melde ich den Mods, FYI).

Quasar
2004-09-08, 12:00:38
Sry für die dumme Frage,aber hatte der Treiberguru von ATI in der CT nicht bestritten,das es an den Schatten liegt?

Er meinte, Z-Fail würde nur in 10% der Fälle eingesetzt werden - so daß dem angeblich nicht die große Bedeutung beizumessen sei, wie es getan wurde.
Andererseits - es war ein Firmen-Mensch.... von dem sollte man keine Aussagen erwarten, wie "ja, Konkurrent XY ist uns in dieser Hinsicht überlegen". Das wäre schlecht für's Geschäft und gilt für jede Firma.

Tjell
2004-09-08, 12:07:34
Sry für die dumme Frage,aber hatte der Treiberguru von ATI in der CT nicht bestritten,das es an den Schatten liegt?
Da ich die c't nicht gelesen habe, würde mich schon interessieren, dargelegt zu bekommen, was der Herr von ATI über die Ultra Shadow-Technik von nVidia herausgefunden haben will... :cool:

LairD
2004-09-08, 12:27:58
Da ich die c't nicht gelesen habe, würde mich schon interessieren, dargelegt zu bekommen, was der Herr von ATI über die Ultra Shadow-Technik von nVidia herausgefunden haben will... :cool:

Kann es nur noch ungefähr wiedergeben.

Die Frage der CT war in etwa:

Eine Website behauptet,der Rückstand von ATI bei Doom3 ist deshalb so gross,weil HyperZ von ATI nicht gut funktioniert,da Doom3 vorher Z-Fail ausführen würde.

Antwort in etwa:

Siehe Post von Quasar

MadManniMan
2004-09-08, 12:30:46
DeepLink-Schutz hab ich hier - also den Guru3d, von Geisterhand auch Borsti und deklariere hier zum Indikator, daß die auseinanderliegen.

Wieder die Optimierungsfrage, welche Taktraten Preis werfen. IMO wirklich sinnvoll.

Zum Thema:
Ich habe gestern mal ein bisschen mit dem rumgespielt: runter auf ein klitzekleines ".x"! Mit etwas Hilfe habe ich es sogar gefunden...

Andererseits - Leistung mit Humus' komplettem, also weit mehr als nur meinem kleinen? Da er noch mehr den nV-Karten zugute zu kommen scheint... X-D

Wie gesagt, alles vorläufig ohne Kontext. Ich Mod.

Krieg ich jetzt nen Punkt? :|

DrumDub
2004-09-08, 13:20:01
Da ich die c't nicht gelesen habe, würde mich schon interessieren, dargelegt zu bekommen, was der Herr von ATI über die Ultra Shadow-Technik von nVidia herausgefunden haben will... :cool:

habe grad die c't hier. ich halts aber auch für ne marketing aussage:

c't: eine website spekuliert, dass der hauptgrund für den rückstand der x800-serie durch die spezielle arbeitsweise des schatten-pass der doom-3-engine verursacht werde. id software würde einen reverse z-fail-test benutzen, der das hyper-z-verfahren der radeon-chips außer kraft setze. damit würden die radeon-chips verdeckte pixel nicht mehr mit der maximalen rate zutückweisen können und eine menge zusätzlicher tests durchführen müssen.

koduri: unser hyper-z funktioniert auch bei doom 3 und ist sehr wesentlich für die mit der doom-3-engine erzielte performance. es ist in der lage, bis zu 256 verdeckte pixel pro takt zurückzuweisen. bei dem reverse z-fail-test ist hyper-z tatsächlich nicht nutzbar. die engine nutzt den reversen z-fail-test aber nur dann, wenn clipping-probleme mit der near-plane auftreten können. das ist in weniger als zehn prozent der tests der fall und wirkt sich nur minimal auf die doom-3-leistung unserer radeon-chips aus.

c't 19/04 s. 117

edit: tippfehler

zeckensack
2004-09-08, 13:35:11
nur schade das doom III nicht viele shader einsetzt und grösstenteils auf bumpmapping setzt.Nur schade dass das falsch ist.

robbitop
2004-09-08, 14:43:22
Nur schade dass das falsch ist.
wie wäre es, wenn du darauf eingehst?

Tjell
2004-09-08, 14:45:06
habe grad die c't hier. ich halts aber auch für ne marketing aussage:



c't 19/04 s. 117
Merci. :)

Dann frage ich mich, was LairD an meiner Aussage auszusetzen hatte, denn für mich hat dieser Part aus der c't nichts mit den Fähigkeiten des NV4x bei Schatten(nicht)berechnungen zu tun, oder bin ich blind? ;):



Auch wenn die NV4x derzeit bei Doom3 "überlegen" scheinen, so würde ich nicht so weit gehen, diesen Vorsprung auch auf Spiele zu übertragen, die nur die Grafikengine von Doom3 nutzen, denn dieser Vorsprung an Leistung wird nach bisher als gesichert anzunehmenden Erkenntnissen durch den hohen Anteil an Schatten im Spiel (also kaum oder nicht sichtbaren Bereichen) und der besonderen Fähigkeit der NV4x eben jene Bereiche rechenlastschonend zu rendern erzielt.

(Habe ich schon erwähnt, daß ich die Möglichkeiten der Interpunktion laut alter deutscher Rechtschreibung liebe?)
Sry für die dumme Frage,aber hatte der Treiberguru von ATI in der CT nicht bestritten,das es an den Schatten liegt?

DrumDub
2004-09-08, 14:50:36
Merci. :)

Dann frage ich mich, was LairD an meiner Aussage auszusetzen hatte, denn für mich hat dieser Part aus der c't nichts mit den Fähigkeiten des NV4x bei Schatten(nicht)berechnungen zu tun, oder bin ich blind? ;):

tjo, dass weiß ich auch nicht. :) es hatte wirklich nichts mit deiner aussage zu tun. vielmehr widerspricht der herr der theorie von aths artikel irgendwie. richtig konkret ist er nur mit der aussage, dass der reverse z-fail-test nur ein zehn prozent der fälle der z-tests in doom 3 zum einsatz kommt. wenn das so stimmt, dann liegen die "probleme" der x800er in doom 3 wohl an was anderem.

Tjell
2004-09-08, 14:56:19
tjo, dass weiß ich auch nicht. :) es hatte wirklich nichts mit deiner aussage zu tun. vielmehr widerspricht der herr der theorie von aths artikel irgendwie. richtig konkret ist er nur mit der aussage, dass der reverse z-fail-test nur ein zehn prozent der fälle in doom 3 zu einsatz kommt.
Vielleicht liegt darin ein nicht unwesentlicher Anteil begründet, daß die ATI-Karten unter Doom3 derart hinter den Erwartungen liegen.

Wenn es ATI gelänge, die Schattenberechnung durch Hyper-Z per besserem Treiber (und sei es nur für Doom3 (ohne Cheats)) zu optimieren, wäre ein ausgewogeneres Leistungsabbild der Karten im Vergleich zu NV zu erwarten. Vielleicht erscheint ja ein derart verbesserter Treiber.

robbitop
2004-09-08, 15:06:12
die c't hat wie fast alle Printmedien keine echte eigene Kompetenz in Sachen Grafik. Ich nenne das bezahltes Halbwissen X-D

Jesus
2004-09-08, 15:07:56
Vielleicht liegt darin ein nicht unwesentlicher Anteil begründet, daß die ATI-Karten unter Doom3 derart hinter den Erwartungen liegen.

Wenn es ATI gelänge, die Schattenberechnung durch Hyper-Z per besserem Treiber (und sei es nur für Doom3 (ohne Cheats)) zu optimieren, wäre ein ausgewogeneres Leistungsabbild der Karten im Vergleich zu NV zu erwarten. Vielleicht erscheint ja ein derart verbesserter Treiber.

siehe Tombmans Benchmarks im Benchmark forum.... Bei aktivierten Stencil Schatten ( im vgl. zu deaktivierten ) verlieren r420 und nv40 etwa gleich viel performance ( nv etwas weniger, aber sehr geringfügig ).

DrumDub
2004-09-08, 15:14:44
die c't hat wie fast alle Printmedien keine echte eigene Kompetenz in Sachen Grafik. Ich nenne das bezahltes Halbwissen X-D

korrekt. :)

was ich als laie schon an sachen in dem aktuellen artikel gefunden habe, die entweder nicht stimmen oder sehr merkwürdig formuliert sind, ist schon haarsträubend.

siehe auch: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2225021&postcount=353

die gurus werden sicherlich noch mehr finden. die erklärungen zu einigen begriffen stimmen ja wohl auch nicht.

VooDoo7mx
2004-09-08, 15:39:59
@BK Morpheus

http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_9.html
Die 6800 verbraucht unter Volllast nicht einmal 40 Watt. Was ist denn daran zu viel? Dürfte sich auf dem gleichen Niveau wie die 9500Pro bewegen, idle deutlich drunter.

Die 6800 komt in Form des NV41 auch nochmal ohne abgeschaltete Logik mit PCIe Interface auf dem Markt, was den Stromverbrauch nochmal senken dürfte.

Aber kannst auch gleich sagen, dass du ATi Fan bist. Was ich an der Sache auch nicht verstehe, auf Stromverbrauch wer legen, aber einen AXP auf 1,825 Volt prügeln. :hammer:

Von dem Benchmarks halte ich im übrigen nicht sehr viel, da nur die dümmsten Standardbenches genutzt und absolut keine Angaben zu den eingeschalteten Optimierungen gemacht wurden. Per Default sind nämlich bei NV einige Optimierungen aus, während bei ATi immer alles an ist.

StefanV
2004-09-08, 15:51:11
@BK Morpheus

http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_9.html
Die 6800 verbraucht unter Volllast nicht einmal 40 Watt. Was ist denn daran zu viel? Dürfte sich auf dem gleichen Niveau wie die 9500Pro bewegen, idle deutlich drunter.
Ich denke, daß ihm das bekannt ist, denn deswegen hat er auch seine Aussage getätigt...

BTW: schonmal dran gedacht, daß er etwas haben möchte, was im Idle deutlich kühler ist als seine jetzige Karte?!
Unter anderem weil man weniger Geld für die Stromrechnung ausgeben möchte...


Die 6800 komt in Form des NV41 auch nochmal ohne abgeschaltete Logik mit PCIe Interface auf dem Markt, was den Stromverbrauch nochmal senken dürfte.

Schön für die nV41, nur scheints momentan eher so, daß die X700 weniger Saft verbraten könnte als die 6600 und das ist es, was ihn interessiert.
Von der Performance her tun sich beide nicht soo viel, preislich ebensowenig.
Und da der Rechner etwas länger läuft als manch ein anderer machts schon Sinn die Karte zu nehmen, die etwas weniger verbaucht...


Aber kannst auch gleich sagen, dass du ATi Fan bist. Was ich an der Sache auch nicht verstehe, auf Stromverbrauch wer legen, aber einen AXP auf 1,825 Volt prügeln. :hammer:
Muss das wirklich sein?!
Sorry, aber irgendwie sehe ich keinen Zusammenhang vom gequoteten zu dem Thema oder dem, was BK Morpheus schrieb :|

Und ist jeder, der ATi bevorzugt gleich ein Fanboy?!
Wer ist an Fanboy?
Wann ist man ein Fanboy??

Darüber solltest du dir besser gedanken machen, bevor du jemanden beschuldigst etwas zu sein, was er nicht ist...


Von dem Benchmarks halte ich im übrigen nicht sehr viel, da nur die dümmsten Standardbenches genutzt und absolut keine Angaben zu den eingeschalteten Optimierungen gemacht wurden. Per Default sind nämlich bei NV einige Optimierungen aus, während bei ATi immer alles an ist.
Warum?

Meinst du etwa, daß der Abstand zur X700 größer werden wird??
Das denke ich eher nicht, ganz im Gegenteil, ich denke eher, daß der Abstand geringer wird, egal mit welchen Settings...

Gast
2004-09-08, 15:51:14
tjo, dass weiß ich auch nicht. :) es hatte wirklich nichts mit deiner aussage zu tun. vielmehr widerspricht der herr der theorie von aths artikel irgendwie. richtig konkret ist er nur mit der aussage, dass der reverse z-fail-test nur ein zehn prozent der fälle der z-tests in doom 3 zum einsatz kommt. wenn das so stimmt, dann liegen die "probleme" der x800er in doom 3 wohl an was anderem.

Der ATi-Mensch redet von HyperZ, aths sprach von hierZ... ein kleiner Unterschied, denn ATi versteht noch ein paar andere Dinge unter HyperZ (welche selbstredend von Doom3 nicht nutzlos liegen gelassen werden)...

;)

Quasar
2004-09-08, 15:52:39
Der ATi-Mensch redet von HyperZ, aths sprach von hierZ... ein kleiner Unterschied, denn ATi versteht noch ein paar andere Dinge unter HyperZ (welche selbstredend von Doom3 nicht nutzlos liegen gelassen werden)...

;)
Das war ich. :)

VooDoo7mx
2004-09-08, 15:59:48
Woher willst du schon wieder herorakeln, wieviel Strom eine X700 verbraucht? :|

Die 6800 verbraucht idle 17 Watt. Für so eine leistungstarke Karte ist das ein Spitzenwert. Ist das nicht deutlich kühler als eine 9500Pro?
Einfach mal: :hammer:

Uns meinst du etwa nicht, dass es sinnvoller ist die Kontrahenten unter gleichen Bedingungen zu vergleichen?

Ich hab ihn nicht unterstellt ein Fanboy zu sein. Lesen bildet.
Ich schrieb ATi Fan. Ein Fanboy bist höchstens du.

Sorry, aber du schreibst mal wieder so einen Stuss.

Am besten ich pack dich wieder auf die ignorier-Liste. Das macht das Forum wieder deutlich angenehmer.

DrumDub
2004-09-08, 16:00:00
@BK Morpheus

http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_9.html
Die 6800 verbraucht unter Volllast nicht einmal 40 Watt. Was ist denn daran zu viel? Dürfte sich auf dem gleichen Niveau wie die 9500Pro bewegen, idle deutlich drunter.

der vergleich hinkt. wenn schon musste 6800 und x800pro vergleichen. ;)

ansonsten ist der widerspruch natürlich richtig, was das erhöhen der core-voltage und den stromverbrauch angeht.

DrumDub
2004-09-08, 16:05:32
Das war ich. :)

jo, danke quasar. das war mir nicht aufgefallen. :)

VooDoo7mx
2004-09-08, 16:09:43
der vergleich hinkt. wenn schon musste 6800 und x800pro vergleichen. ;)

ansonsten ist der widerspruch natürlich richtig, was das erhöhen der core-voltage und den stromverbrauch angeht.

Welcher Vergleich? Wo hab ich was mit wem verglichen?
Es ging darum, dass BK Morpheus eine leistungsfähige PCIe Grafikkarte <300€ haben will aber der Stromverbrauch nicht über seiner 95Pro liegen soll. 6800 hat er abgelehnt wegen zu hohen Stromverbrauch. Im Endeffekt zieht diese weniger Strom als eine 95Pro.

StefanV
2004-09-08, 16:13:05
Welcher Vergleich? Wo hab ich was mit wem verglichen?
Es ging darum, dass BK Morpheus eine leistungsfähige PCIe Grafikkarte <300€ haben will aber der Stromverbrauch nicht über seiner 95Pro liegen soll. 6800 hat er abgelehnt wegen zu hohen Stromverbrauch. Im Endeffekt zieht diese weniger Strom als eine 95Pro.
Da hast ihn wohl falsch verstanden...

Er sagte, daß er eine möglichst kühle und leistungsfähige GraKa sucht, wie du seinen Postings entnehmen kannst...

Und wenn sie ihm zu viel Strom verbraucht, dann ist das seine Sache und nicht deine, schließlich zahltst du ihm ja auch nciht die Stromrechnung, oder? :rolleyes:

BK-Morpheus
2004-09-08, 16:23:23
@BK Morpheus

http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_9.html
Die 6800 verbraucht unter Volllast nicht einmal 40 Watt. Was ist denn daran zu viel? Dürfte sich auf dem gleichen Niveau wie die 9500Pro bewegen, idle deutlich drunter.

Die 6800 komt in Form des NV41 auch nochmal ohne abgeschaltete Logik mit PCIe Interface auf dem Markt, was den Stromverbrauch nochmal senken dürfte.

Aber kannst auch gleich sagen, dass du ATi Fan bist. Was ich an der Sache auch nicht verstehe, auf Stromverbrauch wer legen, aber einen AXP auf 1,825 Volt prügeln. :hammer:

Von dem Benchmarks halte ich im übrigen nicht sehr viel, da nur die dümmsten Standardbenches genutzt und absolut keine Angaben zu den eingeschalteten Optimierungen gemacht wurden. Per Default sind nämlich bei NV einige Optimierungen aus, während bei ATi immer alles an ist.

erstmal danke @ Stefan, der mich wenigstens versteht.

So nun muss ich mal tief Luft holen und erklären:

1. Ich habe einen anderen Test gesehen und da war die X800Pro im Vergleich zur 6800GT noch ein gutes stück sparsamer.

2. Du sagst, dass die 6800 unter Volllast (außerdem geht es mir eher um ILDE, da ich nur ~30% zocke) nur 40 Watt verbraucht...ok, 40Watt...es ist ja auch ne normale 6800 nonpro und eine X800Pro zieht 48,2Watt...oho...also für die Leistung denke ich mal, dass die X800Pro dennoch etwas Stromfreundlicher ist *g*

3. Du nennst mich ohne Grund einen Fanboy. Ich bin sehr zufrieden mit dem, was ATI macht (nicht mit allem, aber mit vielem) und deswegen kaufe ich trotzdem die Karte, die für mich am besten ist und mir am meisten zusagt (dass könnte auch eine 6600GT werden). Also den Punkt finde ich jedenfalls dreist mich als Fanboy zu deklarieren.

4. Du machst mich an, ich würde meinen XP-M mit 1,82V befeuern und deswegen sei meine Wertlegung auf eine nicht so Stromhungrige Graka schwachsinnig.

Ich weiss nicht, ob du es verstehst, aber wenn du meine Sig bis zum Ende gelesen hättest, würdest du vielleicht verstehen, wie mein XP-M läuft.

Außer ganz selten auf LAN betreibe ich meinen XP-M mit dem niedrigsten Vcore, den mein mieses Asus Board geben kann (hätte ich vorher den PC schon so oft laufen gelassen und dementsprechend schon mehr Wert auf den Energieverbrauch gelegt, hätte ich eher ein Epox 8rda+ gekauft oder so).

Ich habe den Takt bei 1,825 Volt nur in der Sig, weil der Prozzi von mir maximal so betrieben wird (wie gesagt nur ab und zu auf LAN).

So, nun geht's mir besser.....wenn ich sowas lese werde ich irgendwie ungehalten.

VooDoo7mx
2004-09-08, 16:28:18
Quote mein Post, und setze einen dicken [size]-tag davor, wo ich schreibe, dass du ein Fanboy von irgendetwas bist.

Mehr sag ich dazu nicht, da es mir hier schon wieder viel zu blöd wird.

DrumDub
2004-09-08, 16:29:20
Welcher Vergleich? Wo hab ich was mit wem verglichen?
Es ging darum, dass BK Morpheus eine leistungsfähige PCIe Grafikkarte <300€ haben will aber der Stromverbrauch nicht über seiner 95Pro liegen soll. 6800 hat er abgelehnt wegen zu hohen Stromverbrauch. Im Endeffekt zieht diese weniger Strom als eine 95Pro.

äh ja, okay. das posting war von der ersten seite, auf welches du dich bezogst... habs erst jetzt gesehen. es ging ja wohl um den "normalverbrauch", wenn ich das jetzt richtig verstanden habe. da hat er seinen rechner ja runtergetaktet und die core-voltage gesenkt. und dazu will er halt auch ne graka, die wenig im idle-betrieb verbraucht ergo desktop.

BK-Morpheus
2004-09-08, 16:31:08
Quote mein Post, und setze einen dicken [size]-tag davor, wo ich schreibe, dass du ein Fanboy von irgendetwas bist.

Mehr sag ich dazu nicht, da es mir hier schon wieder viel zu blöd wird.
Ich schreibe jetzt nix mehr.
Das ist mir zu albern....du provozierst hier einfach und stellst Behauptungen/Vergleiche auf, die hinken und wenn ich dann sage, dass du mich als ATI Fanboy bezeichnest, obwohl du ja "nur" ATI FAN geschrieben hast (was natürlich nichtmal im entferntesten mit nem "Fanboy" zu tun hat *ich lch mich weg*), dann hab ich keine Lust mehr mich über dich aufzuregen und außerdem provozierst du damit nur, dass es hier OT weitergeht und es irgendwann zu Punkten kommt.

Was mein Anliegen ist im Punkto Stromverbrauch hat ja auch DrumDub schon erkannt, also kann's ja nicht so schwer sein.
CU (oder besser nicht)

StefanV
2004-09-08, 16:37:46
erstmal danke @ Stefan, der mich wenigstens versteht.
Naja, liegt wohl daran, daß ich das ähnlich sehe und meine 9800 so schnell wie möglich gegen eine X700 austauschen möchte...

Hab ja auch noch 'nen Office PC, neben diesem ;)

PS: bei dem XP-M könntest SPannung und Takt ja auch im Betrieb ändern ;)
Für letzteres ist u.U. ein Board mit SIS oder VIA Chipsatz erforderlich (FSB geht bei nF2, Multi nicht)...

Wie dem auch sei, bin ziemlich gespannt auf die X700 und 6600 Serien, mal sehen, wie schnell/lahm die sein werden...

BK-Morpheus
2004-09-08, 16:42:09
Ich glaube, ich muss doch weiter posten :biggrin:

Welcher Vergleich? Wo hab ich was mit wem verglichen?
Es ging darum, dass BK Morpheus eine leistungsfähige PCIe Grafikkarte <300€ haben will aber der Stromverbrauch nicht über seiner 95Pro liegen soll. 6800 hat er abgelehnt wegen zu hohen Stromverbrauch. Im Endeffekt zieht diese weniger Strom als eine 95Pro.
Falsch.

1. Mit Vergleich meinte DrumDub oder wer das gepostet hat, dass der Vergleich zwischen der Leitsungsaufnahme einer X800Pro und einer 6800 hinkt, da die X800Pro schon nen Stück mehr leistung hat als nen 6800....dann müssteste du schon eher mit einer 6800GT vergleichen (ok, die GT ist wiederum etwas flotter als die X800Pro, aber das kommt annähernd hin)

Ich wollte nie eine Karte, dessen Stromverbrauch unter meiner 9500Pro liegt und bitte auch noch viel mehr Leistung hat (wenn das möglich wäre nehme ich aber gerne so eine Karte *g*)....es ging mir um dem Verbrauch im ILDE.

OK, ich denke schon, dass ich keine 6800 nehme, aber ne 6600GT könnte was sein...es kommt auch drauf an, wieviel die X700XT verbraucht und dann natürlich noch, welche Karte (X700XT oder 6600GT) das besser P/L Verhältnis hat.

@Stefan:
Jo, ich bin auch gespannt, wobei ich unsicher bin, ob ich vor Weihnachten überhaupt noch so eine X700XT und ein S939 Board mit PCI-E kaufen kann (kann gut sein, dass die zum Ende des Jahres immernoch nicht auf dem Markt sind bzw. noch nicht in großen Stückzahlen auf Lager).

naja, mein jetziges Sys bleibt noch so und wird dann ja hoffentlich bald gegen einen S939 A64 mit C&Q getauscht.

SamLombardo
2004-09-08, 16:54:01
BK Morpheus und Stefan Payne, es gibt einen entscheidenden Unterschied zwischen Ati Fan und Fanboy, und zwar der, dass Fanboy ein eindeutig negativ-wertender Begriff ist (etwa kleine Jungs, die nichts besseres zu tun haben als für Ihre und gegen andere dinge zu lästern). Diesen negativen Beigeschmack hat "Fan" nicht, das ist neutral. Ich zB würde Stefan Payne auch als Ati Fan sehen, aber mich davor hüten ihn als Fanboy zu bezeichenen. Wenn mich zB jemand als Nvidia Fan bezeichnet, würde ich das ned so eng sehen (auch wenns übertrieben ist), bei dem Begriff Fanboy würde ich aber den "melden" Button drücken. Also nehmt nich alles so persönlich, an dem von euch zitierten Posting von Voodoo7mx sehe ich ehrlich nichts worüber man sich aufregen müsste...

Sorry für OffToppic :)

Sam

BK-Morpheus
2004-09-08, 17:06:37
BK Morpheus und Stefan Payne, es gibt einen entscheidenden Unterschied zwischen Ati Fan und Fanboy, und zwar der, dass Fanboy ein eindeutig negativ-wertender Begriff ist (etwa kleine Jungs, die nichts besseres zu tun haben als für Ihre und gegen andere dinge zu lästern). Diesen negativen Beigeschmack hat "Fan" nicht, das ist neutral. Ich zB würde Stefan Payne auch als Ati Fan sehen, aber mich davor hüten ihn als Fanboy zu bezeichenen. Wenn mich zB jemand als Nvidia Fan bezeichnet, würde ich das ned so eng sehen (auch wenns übertrieben ist), bei dem Begriff Fanboy würde ich aber den "melden" Button drücken. Also nehmt nich alles so persönlich, an dem von euch zitierten Posting von Voodoo7mx sehe ich ehrlich nichts worüber man sich aufregen müsste...

Sorry für OffToppic :)

Sam
OK, kann ich nachvollziehen (auch wenn ich ATI Fan für nicht soo gravierend anders verstehe wie Fanboy).
Aber dennoch hate er schon das ein oder andere verdreht, so wie ich meine CPU fast immer mit dem niedrigsten, mir möglichen, Vcore betreibe und nicht mit den 1,825 V, die er ja scheinbar als meine Standardtaktung verstanden hat und dann ist da ja noch der Vergleich zwischen X800Pro und 6800 etwas unschön.

Ich freue mich jedenfalls schon sehr auf mehr Tests der X700Pro und vorallem der X700XT
(bin dann jetzt erstmal weg und somit wehrlos um mich zu verteidigen :wink: )

stav0815
2004-09-08, 17:09:49
man wird sich ja noch verlesen dürfen.
das gilt an Voodoo und Payne.
(btw. Payne, von dir bin ich anderes gewohnt als auf geflame einzugehen)

Gast
2004-09-08, 17:48:08
@BK Morpheus
...
Aber kannst auch gleich sagen, dass du ATi Fan bist. Was ich an der Sache auch nicht verstehe, auf Stromverbrauch wer legen, aber einen AXP auf 1,825 Volt prügeln. :hammer:
...

Für den "Normalbetrieb" gibt er 1,625 Volt in seiner Signatur an!

LairD
2004-09-08, 18:01:22
@ Tjell

Das hast du geschrieben:
Auch wenn die NV4x derzeit bei Doom3 "überlegen" scheinen, so würde ich nicht so weit gehen, diesen Vorsprung auch auf Spiele zu übertragen, die nur die Grafikengine von Doom3 nutzen,
vor allem ab hier wirds interressant:
denn dieser Vorsprung an Leistung wird nach bisher als gesichert anzunehmenden Erkenntnissen durch den hohen Anteil an Schatten im Spiel (also kaum oder nicht sichtbaren Bereichen) und der besonderen Fähigkeit der NV4x eben jene Bereiche rechenlastschonend zu rendern erziel

ATI-Treiberguru:
koduri: unser hyper-z funktioniert auch bei doom 3 und ist sehr wesentlich für die mit der doom-3-engine erzielte performance. es ist in der lage, bis zu 256 verdeckte pixel pro takt zurückzuweisen. bei dem reverse z-fail-test ist hyper-z tatsächlich nicht nutzbar. die engine nutzt den reversen z-fail-test aber nur dann, wenn clipping-probleme mit der near-plane auftreten können. das ist in weniger als zehn prozent der tests der fall und wirkt sich nur minimal auf die doom-3-leistung unserer radeon-chips aus.



Wenn ich den Artikel von aths richtig verstanden habe,ist er der meinung der nv40 ist so viel schneller,weil ATIs HyperZ nicht gut genug funktioniert unter Doom3 und der nv40 mehr Pixel,die von Schatten verdeckt werden,verwerfen kann.
*Das sind doch die gesicherten Erkentnisse die du meinst?

Wenn aber nur in 10% der Fälle,der HyperZ Test von ATI nicht angewendet wird,dürfte/müsste der Vorsprung des NV40 auch noch andere Ursachen,als die Schattenberechnung,haben.
Oder?

*ädit

Aquaschaf
2004-09-08, 18:02:08
Ansichtssache...

Cheaten ist ja (mehr oder minder) sich einen Vorteil zu verschaffen.



Sollte sich ein IHV etwa so verhalten: "Tut uns sehr leid, wir könnten in diesem Spiel eine Ecke schneller sein. Doch damit würden wir uns einen Vorteil verschaffen, deswegen lassen wir es sein - aus Fairness der Konkurenz gegenüber"

;)

Demirug
2004-09-08, 18:24:55
LairD, der "ATI-Treiberguru" wirft die eigenen ATI-Begriffe durcheinader. Zudem stellt er fleisig Behauptungen auf ohne dafür Beweise zu bringen. Es steht also nach wie vor Meinung gegen Meinung.

aths
2004-09-08, 19:19:35
Wenn ich den Artikel von aths richtig verstanden habe,ist er der meinung der nv40 ist so viel schneller,weil ATIs HyperZ nicht gut genug funktioniert unter Doom3 und der nv40 mehr Pixel,die von Schatten verdeckt werden,verwerfen kann.Verworfen wird auch bei der Radeon alles. Nur geht das Verwerfen dort nicht so schnell wie auf dem NV40.

Eigentlich ist der Radeon-Chip beim Verwerfen ja schneller. Doom3 tut aber Dinge, die man normalerweise nicht tut. Entsprechend hat ATI für diese "Sonderfälle" nicht optimiert. NV hat das aber. Deshalb würde ich das auch nicht "Doom3-Feature" nennen. NV40 ist darauf vorbereitet, auch bei scheinbar idiotischen Verfahren noch die Early Occlusion mit hoher Effizienz zu gewährleisten. Das kostet natürlich Transistoren, und die wurden sehr wahrscheinlich deshalb geopfert, weil Doom3 solche Techniken nutzt, und NV davon ausging dass Doom3 für den Erfolg von GPUs mitentscheidend sein würde.

Imo gibts hier keine richtige oder falsche Entscheidung. Wenn ATI sagt, nur wegen einem Spiel (bzw. einer Engine), die bislang unübliche Techniken anwendet, würde man den Chip nicht deutlich erweitern und die Transistoren lieber sparen und die daraus resultierenden Vorteile haben, hielte ich das für eine "zulässige" (nachvollziehbare) Argumentation.

Wenn aber nur in 10% der Fälle,der HyperZ Test von ATI nicht angewendet wird,dürfte/müsste der Vorsprung des NV40 auch noch andere Ursachen,als die Schattenberechnung,haben."Die Schattenberechnung" beinhaltet ja nicht nur EarlyZ/EarlyStencil-Tests. Ultra Shadow 2 könnte dem NV40 auch zugute kommen. Allerdings ist mir unklar, inweit Doom3 US2 überhaupt nutzt.

LairD
2004-09-08, 19:26:12
Verworfen wird auch bei der Radeon alles. Nur geht das Verwerfen dort nicht so schnell wie auf dem NV40.

Eigentlich ist der Radeon-Chip beim Verwerfen ja schneller. Doom3 tut aber Dinge, die man normalerweise nicht tut. Entsprechend hat ATI für diese "Sonderfälle" nicht optimiert. NV hat das aber. Deshalb würde ich das auch nicht "Doom3-Feature" nennen. NV40 ist darauf vorbereitet, auch bei scheinbar idiotischen Verfahren noch die Early Occlusion mit hoher Effizienz zu gewährleisten. Das kostet natürlich Transistoren, und die wurden sehr wahrscheinlich deshalb geopfert, weil Doom3 solche Techniken nutzt, und NV davon ausging dass Doom3 für den Erfolg von GPUs mitentscheidend sein würde.

"Die Schattenberechnung" beinhaltet ja nicht nur EarlyZ/EarlyStencil-Tests. Ultra Shadow 2 könnte dem NV40 auch zugute kommen. Allerdings ist mir unklar, inweit Doom3 US2 überhaupt nutzt.


AHA!
Danke euch 2!
Bin auf dem Gebiet nicht Halbwissend,sondern Unwissend. :biggrin:
Deswegen stell ich manchmal ein bissi blöde Fragen,oder drücke mich umständlich aus.
Habt Nachsicht. :biggrin:

Tjell
2004-09-08, 19:36:50
Alles geklärt worden?

Immerhin bedeuten diese 10 %, in denen Hyper-Z nicht aktiv nutzbar ist, schon ein gewisses Plus an notwendigen Rechenzyklen.

Odal
2004-09-08, 20:27:17
Nur schade dass das falsch ist.

wär dir sehr verbunden wenn du mich dahingehend aufklären würdest :)


Das du mich nicht ab kannst, das dürfte solangsam jeder kapiert haben, nur musst du das in jedem Thread, in dem ich was sage, was dir nicht passt kundtun?!

Sorry, aber DU hast dich mit dem Mist, den du hier geschrieben hast völlig disqualifiziert und dich selbst als das geoutet, was du anderen unterstellst.

Na, was war denn deine letzte ATi Karte?!


payne, ich habe nichts gegen deine person(die kenn ich ja schliesslich nicht) ich lese nur was du hier postest...und da schüttel ich manchmal nur mit dem kopf wie jemand sich in so ein werbeplakat verwandeln kann...ein Kaffeefahrtenverkaufsredner ist dagegen garnichts..ziehen performancegründe nimmer..versucht mans mit cheatvorwürfen...zieht das nichtmehr probiert mans über die "ist kühler" ammenmärchen

möchtest du unterschwellig behaupten das ich ein fanatischer nvidiot bin? dann solltest du aufmerksamer das forum lesen..in diesem fall das kaufberatungsforum...ich stehe kurz davor mir eine ATI grafikkarte zuzulegen

aber hat eh kein zweck was solls.....ist einfach nur arm

StefanV
2004-09-08, 21:04:39
wär dir sehr verbunden wenn du mich dahingehend aufklären würdest :)

Er war mal so 'nett' und hats mal so gesagt, wie du dein Posting an mich formuliert hast :rolleyes:

Und so wies ausschaut benutzt Doom3 doch eine ganze Reihe von Shadern für die verschiedensten Dinge...


payne, ich habe nichts gegen deine person(die kenn ich ja schliesslich nicht) ich lese nur was du hier postest...und da schüttel ich manchmal nur mit dem kopf wie jemand sich in so ein werbeplakat verwandeln kann...ein Kaffeefahrtenverkaufsredner ist dagegen garnichts..ziehen performancegründe nimmer..versucht mans mit cheatvorwürfen...zieht das nichtmehr probiert mans über die "ist kühler" ammenmärchen

möchtest du unterschwellig behaupten das ich ein fanatischer nvidiot bin? dann solltest du aufmerksamer das forum lesen..in diesem fall das kaufberatungsforum...ich stehe kurz davor mir eine ATI grafikkarte zuzulegen

aber hat eh kein zweck was solls.....ist einfach nur arm

Sorry, aber wenn ich sowas lese, bin ich ganz kurz vorm explodieren!!

1. Es ist irrelevant, was du über mich denkst, es ist mir egal.
Es ist irrelevant, was du von meinen Postings hälst, es ist mir ebenso egal.
Wenn dir etwas an meinen Postings nicht passt, dann steht es dir frei sie zu widerlegen oder zu hinterfragen, nur persönliche Angriffe solltest du unterlassen.

2. ich möchte garnichts behaupten, nur diejenigen, die mich persönlich angreifen, sind meist irgendeiner 'Ecke' zuzuordnen!
Ich kann mich nicht daran erinnern, daß ein 'neutralerer' wie z.B. Zeckensack oder mapel110 mich jemals persönlich angegriffen hat.

3. genau den letzten Satz hättest dir auch sparen können, denn der hat überhauptnichts mit irgendwas zu tun und ist einfach nur unnötig.
Wenn du der Meinung bist, das es keinen Zweck hast, warum sagst du dann noch was??

Außerdem:

Es ist mein Recht hier meine Meinung und Ansichten kundzutun, wenn sie falsch sind, dann steht es dir frei sie zu hinterfragen oder zu widerlegen, es steht dir aber nicht frei, mich zu beleidigen und als irgendwas dazustellen.

Odal
2004-09-08, 21:33:21
du hast gewonnen, ich geb auf

Gruss Odal

StefanV
2004-09-08, 21:48:51
du hast gewonnen, ich geb auf

Gruss Odal
...

Irgendwie hab ich das Gefühl, daß du nicht so recht verstanden hast, was ich sagen wollte bzw es nicht verstehen willst...

Naja, egal, solang du nächstesmal das von mir gesagte berücksichtigst...

Gast
2004-09-08, 22:48:24
29.700, achso geht das ;)

r@h
2004-09-08, 23:13:03
29.700, achso geht das ;)Ja...
Und er hat anscheinend noch immer nicht begriffen... oder tut es einfach absichtlich... dass er durch sein (teilweise) sinnloses gequatsche immer wieder versucht, Threads, die ihm nicht in den Kram passen, ins OT zu ziehen.

Danke Stefan!

Und nun mal langsam schluss mit OT...
(wenn mir diese Anmerkung erlaubt ist ;-)

Razor

Leonidas
2004-09-08, 23:15:55
Mich wundert ganz nebenbei, wieso dieser Fred erst jetzt aufgemacht wird. Dieselben Benchmarks wurden in den News schon am WE erwähnt.

mapel110
2004-09-09, 00:17:16
Mich wundert ganz nebenbei, wieso dieser Fred erst jetzt aufgemacht wird. Dieselben Benchmarks wurden in den News schon am WE erwähnt.

hehe, liegt u.a. daran, dass andere das erst heute/gestern abgeschrieben haben. schon erstaunlich.

Find den Test ansich auch nicht sehr aufschlussreich. Allerdings muss man wirklich sagen, dass die doom3-benchmarks wirklich beeindruckend sind.

Gast
2004-09-09, 00:38:30
Leute mich würde mal interessieren inwieweit eine 6600GT @ SLI Konstellation eine 6800GT/Ultra Single outperformen könnte denn preislich könnte das bei adäquatem Vorsprung eine Überlegung wert sein.

Odal
2004-09-09, 01:38:50
so wie das aussieht könnte man das bejahen....SLI leistung war doch ca. 2*70-80% ne? ich denk mal schon das die 6800u dort deutlich das nachsehen hat.

problem ist nur vorerst rentable sli fähige boards zu bekommen...in hinblick auf zukunft aber kein schlechter gedanke....man kauft nun die 6600GT, welche so ziemlich alles sehr gut packen wird was es derzeit so gibt...und geht ihr mal die luft aus bekommt sie ne zwillingsschwester....aber das wurde schon irgendwo anders mal diskutiert/spekuliert

Tigerchen
2004-09-09, 06:42:23
das mit der Cheaterei ist lediglich eine Hetze. Fakt ist, dass NV3x und NV4x noch mehr von der Architektur her ziemlich genau auf das Anforderungsprofil der Doom 3 Engine passen. NV hats gemacht, ATi nicht, selbst schuld.
Die Doom 3 Engine wird sich ziemlich bald sehr verbreiten (wenn man die Analogie zur Q3A Engine setzt), das wird ATi nicht freuen, so wie die jetzigen Ergebnisse aussehen.

Zum Thema Optimierungen: Solange es die BQ nicht verschlechtert und es im gesamten Spiel nutzbar ist, sollte es gefeiert und nicht verachtet werden. Neu gewonnene Performance kann man dann in besseres AA/AF/Resolution packen.

Und wer glaubt ATi würde keine Shaderreplacements betreiben, der muss ziemlich naiv sein. ATi würde mit Sicherheit alles tun was nötig ist, um in Doom3 mehr Performance zu gewinnen. Ich mutmaße mal: mehr ist mit dieser Architektur ohne BQ Einbussen nicht drin.

Das wundert mich überhaupt nicht. Das EarlyZ ist wie für Doom 3 geschaffen, die ROPs und die VS MIMDs ebenfalls. Dazu kommen die verdammt effizienten NV4x Pixelprozessoren. Doom wurde nicht für NV Karten geschaffen, es ist in diesem Falle umgekehrt. ATi hat das Anforderungsprofil seltsamerweise ignoriert nun haben sie den Salat (mehr ROPs und ein anderes Hir Z hätte da viel geholfen).

Andere Spiele werden andere Shader nutzen. Mal schauen ob andere ebenso passgenaue Progrämmchen hinkriegen wie JC himself. Vor allem wenns ein paar mehr werden wird es noch sehr interessant. Bin mal gespannt auf erste Outdoorareale mit Pixelshaderwasser und viel Grünzeug. Wenn ich mich recht erinnere ist die Vorgängerengine bei ein paar Bäumen oder ein bißchen Sumpfgelände meist mächtig in die Knie gegangen. (RTCW, Jedi Knight)

StefanV
2004-09-09, 10:06:27
du hast gewonnen, ich geb auf

Gruss Odal
Anstatt aufzugeben hättest du dich lieber für deinen Tonfall entschuldigen sollen, das wollte ich erreichen.

Ebenso, daß du mich nächstesmal nicht persönlich angreifst, wenn dir eins meiner Postings nicht passt.

Wenn du das nicht kannst, bietet das Forum dafür die Funktion der Ignore Liste.

robbitop
2004-09-09, 10:43:21
Andere Spiele werden andere Shader nutzen. Mal schauen ob andere ebenso passgenaue Progrämmchen hinkriegen wie JC himself. Vor allem wenns ein paar mehr werden wird es noch sehr interessant. Bin mal gespannt auf erste Outdoorareale mit Pixelshaderwasser und viel Grünzeug. Wenn ich mich recht erinnere ist die Vorgängerengine bei ein paar Bäumen oder ein bißchen Sumpfgelände meist mächtig in die Knie gegangen. (RTCW, Jedi Knight)


Ich bin mir sicher, das bekommt man schon irgendwie hin.
Die NV3x/4x gewinnt ggü. den R3xx/4xx enorm an Leistung weil es eine Z-First Pass Engine ist. Die Shader scheinen in diesem Spiel so inkomplex zu sein, dass es nicht mal eine NV3x stört. Wenn sich das in nächsten Spielen ändert, dann ist eben nur noch die NV4x in Front (die Pixelshaderunits sind einfach derzeitig die mächtigsten). Jedoch den Z-First-Pass Vorteil (HSR/ROPs) wird man mit der Doom 3 Engine nicht verlieren, egal welches Spiel es nutzt. Ich bin mal gespannt wie lange ATi braucht, um ihre Architektur an Z-First-Pass Rendering anzupassen....

Tjell
2004-09-09, 10:50:56
...Jedoch den Z-First-Pass Vorteil (HSR/ROPs) wird man mit der Doom 3 Engine nicht verlieren, egal welches Spiel es nutzt. Ich bin mal gespannt wie lange ATi braucht, um ihre Architektur an Z-First-Pass Rendering anzupassen....
Der Vorteil wird aber mit Sicherheit geringer ausfallen, denn man darf davon ausgehen, daß die meisten Spiele nicht derart schattenlastig designed werden, wie es bei Doom3 der Fall ist.

Demirug
2004-09-09, 10:51:54
robbitop, Z-First-Pass bekommt den Radeons eigentlich ganz gut. ATI beschreibt in iheren Entwicklerunlagen ja sogar den effektiven Einsatz der Z-First-Pass Technik.

r@w
2004-09-09, 11:24:27
Mich wundert ganz nebenbei, wieso dieser Fred erst jetzt aufgemacht wird. Dieselben Benchmarks wurden in den News schon am WE erwähnt.Vielleicht lag es daran, dass Du den entsprechenden Absatz mit "The Inquirer haben ..." eingeleitet hast...
:D

Razor

deekey777
2004-09-09, 11:27:20
Leute mich würde mal interessieren inwieweit eine 6600GT @ SLI Konstellation eine 6800GT/Ultra Single outperformen könnte denn preislich könnte das bei adäquatem Vorsprung eine Überlegung wert sein.

Nachrichten lesen. :biggrin:

Auf dem IDF hat nVidia eine 6600 GT SLI-Lösung gezeigt.


http://www.tecchannel.de/news/hardware/17165/index.html

Ich als 2500+&VIAKT333-Besitzer müsste fast die gesamt Hardware neukaufen, um auf den PCIe-Zug aufzuspringen.

€: In der verlinkten News fehlt die Hälfte. Es wurde Doom 3 auf 2 Bildschirm gezeigt.

r@w
2004-09-09, 11:31:13
Ich als 2500+&VIAKT333-Besitzer müsste fast die gesamt Hardware neukaufen, um auf den PCIe-Zug aufzuspringen.Geht mir ähnlich...
Also werde ich darauf warten, bis endlich überzeugende Lösungen in diesem Bereich das Licht der Welt erblicken.

Denke mal, dass es wohl ende das Jahres so weit sein wird.

Und zum Thema 6600GT-SLI: meint Ihr nicht, dass eine (wohl ähnlich leistungsstarke) 6800GT-single nicht nur preislich, sondern auch leistungsseitig interessanter sein dürfte? Von dem zusätzlichen VRAM mal ganz abgesehen...

Razor

mrdigital
2004-09-09, 11:34:00
Lieber Stefan, lieber Odal,
bitte regelt diese Streitereien via PN, aber verschont uns damit hier im Thread.

deekey777
2004-09-09, 11:35:59
Geht mir ähnlich...
Also werde ich darauf warten, bis endlich überzeugende Lösungen in diesem Bereich das Licht der Welt erblicken.

Denke mal, dass es wohl ende das Jahres so weit sein wird.

Und zum Thema 6600GT-SLI: meint Ihr nicht, dass eine (wohl ähnlich leistungsstarke) 6800GT-single nicht nur preislich, sondern auch leistungsseitig interessanter sein dürfte? Von dem zusätzlichen VRAM mal ganz abgesehen...

Razor


Man muss ja nicht alles aufeinmal kaufen. :biggrin:

Gast
2004-09-11, 12:06:20
Hi
wollte mal fragen ob es sich lohnt gegen ende des jahres ein board mit NF4 SLI zu holen und dann erstmal 1 gf 6600GT und später eine 2 6600GT
nun weiß jemand
wie siehts mit der performance aus ne 6600gt macht alleine in 3d mark ca? 8000 punkte wieviel machen dann 2 karten 15000 ? und wird der sli modus bei allen spielen unterstützt? wieviel verlustleistung hat sone 6600GT wegen (hitzenentwicklung im gehäuse) oder was ist besser eine gf 6800 GT PCI-E oder 2x GF 6600GT PCIE ?

RLZ
2004-09-11, 12:28:00
Hi
wollte mal fragen ob es sich lohnt gegen ende des jahres ein board mit NF4 SLI zu holen und dann erstmal 1 gf 6600GT und später eine 2 6600GT
nun weiß jemand
wie siehts mit der performance aus ne 6600gt macht alleine in 3d mark ca? 8000 punkte wieviel machen dann 2 karten 15000 ? und wird der sli modus bei allen spielen unterstützt? wieviel verlustleistung hat sone 6600GT wegen (hitzenentwicklung im gehäuse) oder was ist besser eine gf 6800 GT PCI-E oder 2x GF 6600GT PCIE ?


http://www.xbitlabs.com/images/video/geforce6600gt-oc/6600gt_power.gif

Macht unter Last schon 100 W.
Noch 30W mehr als ne 6800 Ultra.
Wie es mit der Leistung aussieht, wird man wohl abwarten müssen bis die ersten Tests da sind...

VooDoo7mx
2004-09-11, 15:07:27
Wuha ne 6600GT zieht ja mehr Strom als ne 6800 :O

reunion
2004-09-11, 17:04:00
Wuha ne 6600GT zieht ja mehr Strom als ne 6800 :O

Jap, der 110nm Prozess von TSMC ist nicht gerade stromsparend, deshalb verwendet ATi beim MR9800 auch 130nm lowk.

r@h
2004-09-11, 17:35:07
Wuha ne 6600GT zieht ja mehr Strom als ne 6800 :OKönnte durchaus an dem sehr viel höheren Takt liegen, oder?
Schließlich wird ja allein die GPU schon mit 500 statt den 'sanften' 300/325MHz 'getrieben'.

Außerdem sollte man eher sagen:
"Wus? 20 Watt weniger als 'ne nU/LE? Suuupppergut!"
:D

Welchen Sinn eine Dual-Mainstream-Karte haben soll, entzieht sich mir 'eh...

Razor

r@h
2004-09-11, 17:36:29
Für alle, die sich jetzt fragen... nö, ich hab's auch nicht verstanden!
:D

Razor

MadManniMan
2004-09-11, 17:42:30
Für alle, die sich jetzt fragen... nö, ich hab's auch nicht verstanden!
:D

Geh ma eine Rauchen :ugly2: Jung, du scheinst verwirrt :D

Wie dem auch sei, kleine Korrektur meinerseits: die NU taktet mit 325/350 MHz.