Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 10
deekey777
2007-05-07, 17:53:27
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5465685#post5465685
Schauen wir mal:
5 instructions/clk
5 components
Mehr steht da nicht, gelle? Nirgends was von 1+1+1+1+1 und dergleichen. Theoretisch würde man sogar mit einem nicht-splittbaren Vec5 den Wahrheitsgehalt dieser Aussage nicht verletzen.
Eher versuchen diese Folien vorzutäuschen, dass jede der 320 SP-Einheiten ihre eigene Instruktion ausführen kann.
Ob die 5D-ALUs wirklich so fein splitbar sind, interessiert doch wirklich keinen, wenn es immernoch nicht klar ist, wie es mit der Granularität aussieht und und wie lange es dauert, bis ein Batch/Thread durch ist und es zur nächsten Instruktion geswitcht wird.
reunion
2007-05-07, 17:58:55
reunion,
auch bei den Vorgängergenrationene gibt man die maximal Werte an.
Ich verstehe den Zusammenhang nicht.
robbitop
2007-05-07, 18:09:38
Bei mir auch nicht.
Blind? X-D
Raff und ich sind staendig am Meckern. Also mir sticht es staendig in die Augen (klar wenn man weiss worauf man achten muss tut es das vermutlich).
Raff hat das Flimmern IIRC sogar mit FRAPs aufgenommen und einen solchen Meckerartikel halb fertig.
robbitop
2007-05-07, 18:11:38
Spiel, Szene? Ich hab' zwar nur ne X800, aber das sollte irrelevant sein.
Bei der X800 flimmerts noch nicht, weil da IIRC die LOD Bestimmung so ungenau ist, dass das Flimmern nicht auftritt. Das wurde im R5xx "gefixt". X-D
ATI will release Radeon HD 2900XT2 2x 1024MB GDDR4 on 14. May 2007
http://www.ramthor.de/falsezilla.htm
seahawk
2007-05-07, 18:14:17
Ich verstehe den Zusammenhang nicht.
Will sagen, dass 3+1 und 4+1 der beste Fall war. manchmal eben aber nur 1+1 z.B.
Nun wäre es z.B. denkbar, dass R600 4+1 und 1+1+1+1+1 kann, aber bei einer Vec2 + Vec 3 Operation sie trotzdem nacheinander abarbeiten muss.
deekey777
2007-05-07, 18:14:17
ATI will release Radeon HD 2900XT2 2x 1024MB GDDR4 on 14. May 2007
http://www.ramthor.de/falsezilla.htm
Netter Versuch. :biggrin:
The_Invisible
2007-05-07, 18:15:39
Auch bei G80 ist die default Treibereinstellung AFAIK "Quality", und damit bri-Filterung. Was ATi allerdings natürlich dringend machen muss, ist AI von den anderen Optimierungen zu entkoppeltn, denn sonst wird man bei dem ein- oder anderen Test blöd aus der Wäsche schauen. Aber so schlau wird wohl auch ATi sein, die Filterqualität von G80 ist ja nicht gerade ein unbeschriebenes Blatt.
+ wuAF zum standard machen
mfg
robbitop
2007-05-07, 18:15:49
Toll dass man jeden BS im Netz veroeffentlichen kann
Netter Versuch. :biggrin: :lol:
reunion
2007-05-07, 18:29:44
Also mir sticht es staendig in die Augen (klar wenn man weiss worauf man achten muss tut es das vermutlich).
Dann schalte doch AI aus. :)
Bei der X800 flimmerts noch nicht, weil da IIRC die LOD Bestimmung so ungenau ist, dass das Flimmern nicht auftritt. Das wurde im R5xx "gefixt". X-D
Und vermutlich wurden auch noch einige Optimierungen hinzugefügt. Da werden wohl wie bei NVs Sample Optimierung einige selbiger eingespart.
Will sagen, dass 3+1 und 4+1 der beste Fall war. manchmal eben aber nur 1+1 z.B.
Nun wäre es z.B. denkbar, dass R600 4+1 und 1+1+1+1+1 kann, aber bei einer Vec2 + Vec 3 Operation sie trotzdem nacheinander abarbeiten muss.
Kaum Vorstellbar. Wenn man eine 1:1:1:1:1-Split kann, dann sollte das andere nur noch Formsache sein. Ist ja auch irgendwo nachvollziehbar, dass man dort nicht jede mögliche Splittung hinschreibt - das wären doch einige. Aber warten wir ab, ist ja nur noch eine Woche.
+ wuAF zum standard machen
mfg
http://img237.imageshack.us/img237/6893/tmu2jb5.jpg
robbitop
2007-05-07, 18:34:23
Dann schalte doch AI aus. :)
Das kostet erheblich.
reunion
2007-05-07, 18:46:14
BTW:
http://forum.beyond3d.com/showpost.php?p=982674&postcount=4635
http://img391.imageshack.us/img391/4407/tsr600jb7.jpg
102-B007 ist DragonsHead 2 aka 2900 XTX 1GB GDDR4 - die verschoben wurde.
B006 ist CatsEye, welche 10-15% niedriger geatktet sein soll mit 512MB GDDR3, die wohl am 14. vorgestellt wird.
B001 ist DragonsHead, die OEM XTX.
Was dort seltsamerweise fehlt ist UFO (B002 aka XL).
Und:
All I'm gonna say is, 3dmark scores mean jack in relation to real gaming performance that I am experiencing.
http://www.hardforum.com/showpost.php?p=1031020107&postcount=28
Gouvernator
2007-05-07, 19:19:42
Das kostet erheblich.
Das ist doch Quatsch. Ich habe immer ohne AI und mit HQAF+tri Filter gespielt. Was wirklich kostet sind HQ AAA und evtl. ASBT
Gouvernator was für eine Karte hast du jetzt überhaupt?
Gouvernator
2007-05-07, 19:25:03
GF7950GX2
GF7950GX2
Rofl ist ja eigentlich ein downgrade.^^
robbitop
2007-05-07, 19:30:09
Das ist doch Quatsch. Ich habe immer ohne AI und mit HQAF+tri Filter gespielt. Was wirklich kostet sind HQ AAA und evtl. ASBT
Ich finde 20 - 50% erheblich. Beleg: HT4U
horn 12
2007-05-07, 20:17:09
Die HD 2900 XT 512 GDDR3 und auch die HD 2900 XL 512 MB soll nun am 14. Mai hardgelauncht werden. Stückzahlen soll es genügend geben. Ab 28. Mai aureichende Stückzahlen auch für "Kleinhändler".
Die "richtige" XTX soll nun wiederum später kommen, um die Performance Krone zu ernten bis der R650 da ist.
In der Zwíschenzeit werden wohl die HD 2900 XT 1GB als OEM Ware verkauft werden, nicht für den Retailmarkt.
Dafür wird wohl Anfang bsi Mitte Juni (meine Meinung) dann die HD 2900 XTX zuständig werden, und diese könnte gar in 65 um daherkommen, bevor auch die anderen Karten bis zum Frühherbst umgestellt werden.
reunion
2007-05-07, 20:19:23
Call of Juarez DX10 Benchmark soll bald kommen: http://www.the-inquirer.net/default.aspx?article=39448
Ich finde 20 - 50% erheblich. Beleg: HT4U
Tja, volle Filterung kostet eben. Wobei mir 50% Leistungsverlust schon arg viel vorkommt. Da müsste ja quasi eine 100%ige Füllratenlimitierung vorliegen, und die Filterung müsste ful-bi sein, um 50% Leistung zu verlieren, bzw. durch AI 100% Leistung zu gewinnen. Wobei da wohl zusätzlich noch einige andere Tricks angewandt werden. Ich hoffe, dass die "Lösung" von Ati nicht so aussieht wie bei nVs G7x, wo dann einfach HQ ebenfalls "angepasst" wurde, um diese Differenz zu verringern.
AnarchX
2007-05-07, 21:06:35
Die HD 2900 XT 512 GDDR3 und auch die HD 2900 XL 512 MB soll nun am 14. Mai hardgelauncht werden. Stückzahlen soll es genügend geben. Ab 28. Mai aureichende Stückzahlen auch für "Kleinhändler".
Und warum hat man bisher noch nicht neues von der XL gehört oder gesehen?
Im VR-Zone "Test" (http://www.vr-zone.com/?i=4946&s=12) tauch sie übrigens auch nicht auf. ;)
Imo das einzige, was man am 14. kaufen kann, wird die HD 2900XT sein.
Tja, volle Filterung kostet eben. Wobei mir 50% Leistungsverlust schon arg viel vorkommt. Da müsste ja quasi eine 100%ige Füllratenlimitierung vorliegen, und die Filterung müsste ful-bi sein, um 50% Leistung zu verlieren, bzw. durch AI 100% Leistung zu gewinnen. Wobei da wohl zusätzlich noch einige andere Tricks angewandt werden. Ich hoffe, dass die "Lösung" von Ati nicht so aussieht wie bei nVs G7x, wo dann einfach HQ ebenfalls "angepasst" wurde, um diese Differenz zu verringern.
AI sind ja nicht nur Filteroptimierungen sondern auch andere Dinge wie Shadereplacement und gute Bugfixes.
Die sinnlose Koppelung wird hoffentlich bald Geschichte sein.
Imo das einzige, was man am 14. kaufen kann, wird die HD 2900XT sein.
Imo wird man auch das nicht.
AI sind ja nicht nur Filteroptimierungen sondern auch andere Dinge wie Shadereplacement und gute Bugfixes.
Die sinnlose Koppelung wird hoffentlich bald Geschichte sein.
Bugfixes sicher nicht, denn dann müssten bei abgeschaltetem A.I. ja Bugs in Spielen auftreten, was aber nicht der Fall ist. A.I. ist reines Performance-Cheating.
sklave_gottes
2007-05-07, 21:19:49
Bugfixes sicher nicht, denn dann müssten bei abgeschaltetem A.I. ja Bugs in Spielen auftreten, was aber nicht der Fall ist. A.I. ist reines Performance-Cheating.
so ein blödsin.
siehe AnarchX last post.
mfg martin
Bugfixes sicher nicht, denn dann müssten bei abgeschaltetem A.I. ja Bugs in Spielen auftreten, was aber nicht der Fall ist. A.I. ist reines Performance-Cheating.
und trotzdem kommt ne bessere BQ dabei raus
deekey777
2007-05-07, 21:55:20
Auch wenn das Thema AI eng mit dem Release der kommenden Generation verknüpft ist, so ist sie nicht ein Teil des Topics. Wer will, dass die Filter"optimierungen" von Bugfixes getrennt wird, so kann er sich bei AMDs Support Center melden, aber nicht hier.
http://www.fudzilla.com/forum/index.php?topic=116.0 :lol:
Henroldus
2007-05-07, 22:03:13
http://www.fudzilla.com/forum/index.php?topic=116.0 :lol:
hatten wir bereits eine seite zuvor:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5472183&postcount=505
;)
|MatMan|
2007-05-08, 10:47:09
Sie werden es auch nicht probieren, da sie das ganze Programm in CUDA schreiben müssen, was den Aufwand nicht rechtfertigt. Mit CTM wird nur das Backend ausgewechselt.
Aktuell:
GROMACS -> Brook -> DX9 -> jede Grafikkarte ab R520 bzw. G80
Mit CUDA:
CUDA -> ab G80
Mit CTM
GROMACS -> Brook -> CTM -> R520 und aufwärts
Sie müssen nicht den ganzen F@H Client in CUDA schreiben. Viel sinnvoller wäre es ein CUDA Backend für Brook zu enwickeln, also einen Crosscompiler (war auch schon im Gespräch). Das wäre damit ähnlich der Lösung für CTM.
Nur fehlt natürlich die Zeit sowetwas zu entwickeln. Ich glaube auch kaum, dass es so schnell ein CTM Backend geben wird. Die Leute bei Stanford konzentrieren sich auf DX9. Eher sieht man da evtl. einen DX10 Pfad irgendwann.
Aber das ist eigentlich schon ganz schön OT hier...
Moralelastix
2007-05-08, 10:53:50
Nein, du hast da was falsch verstanden.
Sie werden es auch nicht probieren, da sie das ganze Programm in CUDA schreiben müssen, was den Aufwand nicht rechtfertigt. Mit CTM wird nur das Backend ausgewechselt.
Aktuell:
GROMACS -> Brook -> DX9 -> jede Grafikkarte ab R520 bzw. G80
Mit CUDA:
CUDA -> ab G80
Mit CTM
GROMACS -> Brook -> CTM -> R520 und aufwärts
Nvidia hat sich nur quergestellt, damit FAH auf CUDA portiert wird, und genau das wollen sie (Stanford-Dudes) nicht. Erst nach dem öffentlichen Druck hilft NV bei der Suche nach dem Problem.
Man darf aber nicht vergessen: Den PS3-Client hat Sony geschrieben. Was hält NV ab, den FAH auf CUDA selbst zu portieren?
Also ist zumindest was an den NV Treibern faul weswegen die DX9 Version von FAH nicht auf dem G80 läuft, ja?
AnarchX
2007-05-08, 11:00:55
http://img91.imageshack.us/img91/8485/msi2900xt01zj0.jpg
http://img91.imageshack.us/img91/9803/msi2900xt12hu3.jpg
http://forum.coolaler.com/showthread.php?t=152864 Mehr inside!
Also doch 16 Speichermodule... ;)
Moralelastix
2007-05-08, 11:05:15
"Also doch 16 Speichermodule... "
Und was sagt Dir das?
AnarchX
2007-05-08, 11:07:07
"Also doch 16 Speichermodule... "
Und was sagt Dir das?
Eine alte Vermutung bestätigt sich und somit ist nun auch einen 1GB GDDR3 XT möglich. ;)
DrumDub
2007-05-08, 11:07:22
hmm... interessant. also wird das pcb bei der gddr4 version mit 1gb wohl identisch sein.
speicher ist übrings der hier: http://www.hynix.com/datasheet/eng/graphics/details/graphics_14_HY5RS573225AFP.jsp?menu1=01&menu2=03&menu3=03
gddr3 bis 1ghz spezifiziert.
Also doch 16 Speichermodule... ;)
FÜr 512-Bit braucht man auch 16. Auch mit 512MiB.
AnarchX
2007-05-08, 11:19:36
FÜr 512-Bit braucht man auch 16. Auch mit 512MiB.
Da wollten mir hier so manche etwas anderes weiß machen. ;)
Aber diese 16 Chips und die doppelseite Bestückung dürfte wohl auch noch mal einiges mehr kosten, als wenn man wie bei der 8800GTS nur 10 Module auf einer Seite anbringt.
Vertigo
2007-05-08, 11:22:44
Da wollten mir hier so manche etwas anderes weiß machen. ;)
Aber diese 16 Chips und die doppelseite Bestückung dürfte wohl auch noch mal einiges mehr kosten, als wenn man wie bei der 8800GTS nur 10 Module auf einer Seite anbringt.
Das ist in der Produktion nicht so wild. Die Rückseite des PCBs wäre ohnehin nicht nackt. ;)
Moralelastix
2007-05-08, 11:29:54
Gibts noch keine Tests zum Energieverbrauch und der Lautstärke, oder?
san.salvador
2007-05-08, 11:32:06
Da wollten mir hier so manche etwas anderes weiß machen. ;)
Aber diese 16 Chips und die doppelseite Bestückung dürfte wohl auch noch mal einiges mehr kosten, als wenn man wie bei der 8800GTS nur 10 Module auf einer Seite anbringt.
Es dürfte auch leichter sein, 10 Chips auf einer Seite als 16 davon auf zwei Seiten zu kühlen.
Vertigo
2007-05-08, 11:35:26
Es dürfte auch leichter sein, 10 Chips auf einer Seite als 16 davon auf zwei Seiten zu kühlen.
Das ist bei GDDR3 nun wirklich kein Thema.
Also ist zumindest was an den NV Treibern faul weswegen die DX9 Version von FAH nicht auf dem G80 läuft, ja?
Glaube ich nicht, die Karten werden nur derzeit nicht unterstützt.
Da wollten mir hier so manche etwas anderes weiß machen. ;)
512/32 = 16. Was ist daran so schwer zu rechnen?
Aber diese 16 Chips und die doppelseite Bestückung dürfte wohl auch noch mal einiges mehr kosten, als wenn man wie bei der 8800GTS nur 10 Module auf einer Seite anbringt.
Natürlich. Billig wird das alles nicht für AMD.
san.salvador
2007-05-08, 11:52:46
Das ist bei GDDR3 nun wirklich kein Thema.
Bei 1Ghzdürfte etwas Kühlung schon nicht schlecht sein, besonders wenn der Speicher am heißesten Punkt - der Rückseite - der GraKa hockt.
Vertigo
2007-05-08, 12:02:33
Bei 1Ghzdürfte etwas Kühlung schon nicht schlecht sein, besonders wenn der Speicher am heißesten Punkt - der Rückseite - der GraKa hockt.
Kühlung ist nie schlecht und doch auch vorhanden - siehe Pix, die hier vor ein paar Posts verlinkt wurden. =)
Und der heißeste Punkt ist wohl eher die GPU auf der Vorderseite ...
san.salvador
2007-05-08, 12:05:40
Ich seh auf den Bildern keine Kühlung der Rückseite.
Wärme steigt nach oben, ergo zur Rückseite. Da die Vorderseite auch noch aktiv gekühlt wird, ist die Rückseite mit Sicherheit wärmer.
MartinRiggs
2007-05-08, 12:10:41
Auf den hinteren Speichern ist doch ein großes Blech, das wird schon für Kühlung sorgen.
Vertigo
2007-05-08, 12:12:30
Ich seh auf den Bildern keine Kühlung der Rückseite.
Dann schau nochmal genauer hin.
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-02.JPG
Wärme steigt nach oben, ergo zur Rückseite. Da die Vorderseite auch noch aktiv gekühlt wird, ist die Rückseite mit Sicherheit wärmer.
Die Temperatur ist dort am höchsten, wo sie entsteht und es gibt bei Temperaturgefällen stets einen natürlichen Ausgleich. Was glaubst Du wie Kühlung funktioniert? Was Du meinst funktioniert nur mit Gasen und Flüssigkeiten ...
EDIT: Siehe unten ...
Zephyroth
2007-05-08, 12:15:34
Wärme steigt durch Konvektion in gasförmigen oder flüssigen Medien nach oben, in Festkörpern breitet sie sich gleichmäßig in alle Richtungen aus. Nur soviel dazu.
Grüße,
Zeph
san.salvador
2007-05-08, 12:23:08
Dann schau nochmal genauer hin.
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-02.JPG
Okay, das hab ich so noch nicht gesehen. Reißt sich zwar keinen Haxn aus, aber ist sicher besser als nichts. Und all zu teuer schaut des Trum auch nicht aus. ;)
wie lang ist die XT genau ?
Vertigo
2007-05-08, 12:25:42
Okay, das hab ich so noch nicht gesehen. Reißt sich zwar keinen Haxn aus, aber ist sicher besser als nichts. Und all zu teuer schaut des Trum auch nicht aus. ;)
Klar, das ist nicht spektakulär. Aber es braucht eben auch keine leistungsstarke Kühlung für den Speicher.
wie lang ist die XT genau ?
Schau Dir die Bilder im Link an. Jedenfalls kürzer als die 8800GTX.
wie lang ist die XT genau ?
|<---------------------------------------->|
AnarchX
2007-05-08, 12:31:55
Ruby:
http://img181.imageshack.us/img181/9327/2007050848a613c2e6e8f21he7.th.jpg (http://img181.imageshack.us/my.php?image=2007050848a613c2e6e8f21he7.jpg)
http://img181.imageshack.us/img181/2729/20070508e11a3c531cd1b73ed4.th.jpg (http://img181.imageshack.us/my.php?image=20070508e11a3c531cd1b73ed4.jpg)
Auf der Radeon HD 3000/4000 -Serie sieht sie wohl dann so aus:
http://img175.imageshack.us/img175/7604/img1911es8.jpg
:biggrin:
Moralelastix
2007-05-08, 12:35:40
Boing!:biggrin: Boa is die geil!
Wer sich da nicht für Grakfikkarten begeistern kann dem is nimmer zu helfen.
Die Ruby Models auf den Messen sowas von häßlich aus - dank des tollen Outfits. Und das ATi das auch noch durch die Generationen zieht...
Vertigo
2007-05-08, 12:39:59
Boing!:biggrin: Boa is die geil!
Wer sich da nicht für Grakfikkarten begeistern kann is dem is nimmer zu helfen.
Ich glaube kaum, dass so eine Ruby mit der Karte im Karton liegen wird - von daher dürfte sich diesbezüglich kaum Begeisterung entfachen lassen ... :biggrin:
Noebbie
2007-05-08, 12:42:02
Hm vllt nen Gutschein für so nen Teil? Darf man sich dann bestellen und die kommt einfach so zu einem nach hause dann...
ups... OT! :redface:
Klar, das ist nicht spektakulär. Aber es braucht eben auch keine leistungsstarke Kühlung für den Speicher.
Schau Dir die Bilder im Link an. Jedenfalls kürzer als die 8800GTX.Das bild zeigt aber ne Ultra und nicht die GTX
James Ryan
2007-05-08, 12:45:28
Das bild zeigt aber ne Ultra und nicht die GTX
GTX und Ultra sind gleich lang :rolleyes:
MfG :cool:
Vertigo
2007-05-08, 12:47:17
Das bild zeigt aber ne Ultra und nicht die GTX
Tatsache. :redface:
Aber die sind afaik gleichlang, insofern ...
AnarchX
2007-05-08, 13:26:15
Noch ein paar Infos zur Architektur von PCinlife (http://we.pcinlife.com/thread-761524-1-1.html): (Sieht so aus nach einer Empfehlung wie man besten auf die Architektur optimiert)
Die Übersetzung ist nicht wirklich brauchbar, aber die Grafiken enthalten vielleicht ein paar interessante Infos.
http://img157.imageshack.us/img157/5383/8921tk2.png
http://directupload.com/files/zrelynzzkqmrg0zmj3yh.jpeg (http://directupload.com/)
http://directupload.com/files/yrdmzhknoylbejmgzt4y.jpeg (http://directupload.com/)
Und eine neue Folie von AMD:
http://img157.imageshack.us/img157/710/8928up6.jpg
deekey777
2007-05-08, 13:38:11
Hm:
Jeder SM kann mit bis zu 512 Threads umgehen (der R580 konnte insgesammt mit 512 Pixelthreads umgehen, die 48 Pixel groß waren, was über 24.500 Pixel sind!). Jeder SM enthält 8 Streaming-Prozessoren.
Warum ist die SFU außerhalb der SPs?
AnarchX
2007-05-08, 13:45:27
Hm:
Jeder SM kann mit bis zu 512 Threads umgehen (der R580 konnte insgesammt mit 512 Pixelthreads umgehen, die 48 Pixel groß waren, was über 24.500 Pixel sind!). Jeder SM enthält 8 Streaming-Prozessoren.
Warum ist die SFU außerhalb der SPs?
Die Grafik könnte auch G80 darstellen, er scheint beide Architekturen zu vergleichen.
Naja, da sollte man wohl doch eher auf B3D warten.
edit: Die Schemas scheinen wohl alle den G80 darzustellen...
Die Grafik könnte auch G80 darstellen, er scheint beide Architekturen zu vergleichen.
Die eine Folie mit der ausgegliederten SF - Unit ist der G80.
Radeon HD 2900XT scores 10650 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=886&Itemid=1)
aehmkei
2007-05-08, 17:18:29
Radeon HD 2900XT scores 10650 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=886&Itemid=1)
Das Windows auf dem Screenie ist deutsch - wer hat da nicht dicht gehalten...;D
reunion
2007-05-08, 17:36:48
Da wollten mir hier so manche etwas anderes weiß machen. ;)
Das hätte dir eigentlich jeder mit ein bisschen Wissen schon seit Monaten sagen können. Es gibt keine Speicherchips mit mehr als 32bit.
Aber diese 16 Chips und die doppelseite Bestückung dürfte wohl auch noch mal einiges mehr kosten, als wenn man wie bei der 8800GTS nur 10 Module auf einer Seite anbringt.
Die XT hat aber 16 x 32MB und die GTS 10 x 64MB-Module, die natürlich um einiges teurer sind. Und ob ich die Chips jetzt auf der Vorderseite oder auf der Rückseite oder sonst irgendwo anbringe, sollte fast egal sein.
Das Windows auf dem Screenie ist deutsch - wer hat da nicht dicht gehalten...;D
Ich schätz mal ganz frech unser guter w0mbat:cool:
Nakai
2007-05-08, 18:10:35
Ich schätz mal ganz frech unser guter w0mbat:cool:
;D
Vll ist das nichtmal so falsch^^:biggrin:
mfg Nakai
€:
Die XT hat aber 16 x 32MB und die GTS 10 x 64MB-Module, die natürlich um einiges teurer sind. Und ob ich die Chips jetzt auf der Vorderseite oder auf der Rückseite oder sonst irgendwo anbringe, sollte fast egal sein.
Wenn man sie vorne und hinten anbringt und jeden Speicherchip einzeln anspricht wird das Pcb sehr viel teuerer.
@ Nakai
sag uns einfach was dir der w0mbat gesagt hat :D
ich vermute mal:
- okay die 8800gtx ist wirklich schneller
deekey777
2007-05-08, 19:12:09
Noch ein paar Infos zur Architektur von PCinlife (http://we.pcinlife.com/thread-761524-1-1.html): (Sieht so aus nach einer Empfehlung wie man besten auf die Architektur optimiert)
Die Übersetzung ist nicht wirklich brauchbar, aber die Grafiken enthalten vielleicht ein paar interessante Infos.
http://img157.imageshack.us/img157/5383/8921tk2.png
http://directupload.com/files/zrelynzzkqmrg0zmj3yh.jpeg (http://directupload.com/)
http://directupload.com/files/yrdmzhknoylbejmgzt4y.jpeg (http://directupload.com/)
Und eine neue Folie von AMD:
http://img157.imageshack.us/img157/710/8928up6.jpg
Zum Spoiler: http://ati.amd.com/developer/Dark_Secrets_of_shader_Dev-Mojo.pdf
Seite 51.
w0mbat
2007-05-08, 19:12:09
Nein, wenn Nakai hier was sagt zünde ich sein Haus an*!
* Da wie hier im iNet sind und es lauter Idioten gibt: Das war nicht ernst gemeint, ich zünde natürlich nur sein Zimmer an.
@ Nakai
sag uns einfach was dir der w0mbat gesagt hat :D
ich vermute mal:
- okay die 8800gtx ist wirklich schneller
tja aber den meisten interessiert es nicht wer den längsten Balken hat.
Radeon HD 2900XT scores 10650 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=886&Itemid=1)
Ordentlich. Eine 8800 GTX erreicht selbst auf einem C2D @ 3,46 GHz nur 1.000 Punkte mehr. Ich schätze mal, die HD 2900 XT wird, wenn die Catalyst-Treiber ausgereifter sind, etwas über 8800 GTX-Niveau liegen. War eigentlich immer so bei ATi. Zum Releasezeitpunkt langsamer als nVidia, mit der Zeit dann immer schneller. Man vergleiche X1800 XT vs. 7800 GTX, X800 XT vs. 6800 Ultra, 9800 XT vs. 5800 Ultra oder 9700 Pro vs. 4600 Ti.
Gaestle
2007-05-08, 19:32:04
Zum Spoiler: http://ati.amd.com/developer/Dark_Secrets_of_shader_Dev-Mojo.pdf
Seite 51.
Was sich aber offenbar auf SM2-Hardware bezieht und deshalb bestimmt nicht brandneu ist. Somit sind die Spoiler-Dateien auch fraglich.
Nakai
2007-05-08, 19:38:52
Nein, wenn Nakai hier was sagt zünde ich sein Haus an*!
* Da wie hier im iNet sind und es lauter Idioten gibt: Das war nicht ernst gemeint, ich zünde natürlich nur sein Zimmer an.
Natürlich sag ich nichts. Keine Sorge...
tja aber den meisten interessiert es nicht wer den längsten Balken hat.
Es sieht nicht so schlecht aus...aber das war eh schon klar.
mfg Nakai
horn 12
2007-05-08, 20:34:55
@wOmbat / Nakai
Bringt mir eine HD 2900 XT mit einem Singlecore A64 3800+ OC 2,6 Ghz
was in Verbindung mit Games in Auflösung 1280x1024 mit 6x AAA/ 16AF
und in Zukunft gar für Auflösungen 1680x1050 4-6 AAA/16 AF
Oder wäre die Grafikkarte für mein derzeitiges System mit obrigem Prozzi und 1,5 GB Ram ausgeschmissenes Geld, da die CPU die Grak viel zu sehr ausbremst und ich enorme Ruckler verzeichnen werde, weil die CPU nicht nachkommt?
Bitte um Antwort, Danke!
Der_Korken
2007-05-08, 20:43:54
Wenn ich von der Performance einer 8800GTS ausgehen würde, würde ich sagen, dass du beim Kauf einer solchen Karte kurz- bis mittelfristig nicht um ein CPU-Upgrade herumkommen wirst. Selbst wenn er ans Limit übertaktet ist, kommst nicht um die Problematik herum, dass DualCores stark im Kommen sind.
w0mbat
2007-05-08, 22:04:29
Welche Benches (außer Spielebenches und bekannte Benchmarks wie AM3, 3DMArk & Co.) wären denn interessant? Gibts da noch was alternatives wie GPU DIP?
deekey777
2007-05-08, 22:19:52
Mich würde interessieren, ob die aktuellen R580er vom neuen Treiber profitieren.
w0mbat
2007-05-08, 22:21:57
Keine Ahnung.
@wOmbat / Nakai
Bringt mir eine HD 2900 XT mit einem Singlecore A64 3800+ OC 2,6 Ghz
was in Verbindung mit Games in Auflösung 1280x1024 mit 6x AAA/ 16AF
und in Zukunft gar für Auflösungen 1680x1050 4-6 AAA/16 AF
Oder wäre die Grafikkarte für mein derzeitiges System mit obrigem Prozzi und 1,5 GB Ram ausgeschmissenes Geld, da die CPU die Grak viel zu sehr ausbremst und ich enorme Ruckler verzeichnen werde, weil die CPU nicht nachkommt?
Bitte um Antwort, Danke!
Gibbet kein 6xAA mehr, 4x oder 8x oder ein bissl BLUR ;)
Die Graka sollte ja in der 20" Wide TFT Auflösung locker 8xAA in aktuellen Games bringen, muss man mal Oblivion HDR+AA Benchmarks abwarten wie sie da gegen eine GTS sich hällt. Und wie die neuen AA Modi sich gegen CSAA schlagen. Denn Oblivion HDR in 8xCSAA is ne Augenweide bei spielbaren FPS auf ner GTS und eine Prozel @ 2,6GHz.
Tarkin
2007-05-08, 22:46:27
http://www.imagebanana.com/img/b11ska11/xh29.jpg
:biggrin:
wasn das fürne cpu die über 6k punkte schafft?!
15377
das der wert von ner gtx @atock mit der cpu
dildo4u
2007-05-08, 22:54:19
wasn das fürne cpu die über 6k punkte schafft?!
Ein QuadCore mit ca. 4Ghz.
Ordentlich. Eine 8800 GTX erreicht selbst auf einem C2D @ 3,46 GHz nur 1.000 Punkte mehr. Ich schätze mal, die HD 2900 XT wird, wenn die Catalyst-Treiber ausgereifter sind, etwas über 8800 GTX-Niveau liegen. War eigentlich immer so bei ATi. Zum Releasezeitpunkt langsamer als nVidia, mit der Zeit dann immer schneller. Man vergleiche X1800 XT vs. 7800 GTX, X800 XT vs. 6800 Ultra, 9800 XT vs. 5800 Ultra oder 9700 Pro vs. 4600 Ti.
Nur dass die GeForce 8800 eine sehr effiziente Architektur hat, die nicht mal eben leerläuft. Es gibt praktisch keine arithmetische Schwachstelle. Einfach "war immer so, wird wieder so sein" geht nicht. ;)
MfG,
Raff
dildo4u
2007-05-08, 23:41:51
Hier das System von vr-zone.
http://resources.vr-zone.com.sg/Shamino/news/cooledr6001.jpg
http://img66.imageshack.us/img66/6977/cooledr6003bd8.jpg
http://forums.vr-zone.com/showthread.php?p=3657255#post3657255
Nur dass die GeForce 8800 eine sehr effiziente Architektur hat, die nicht mal eben leerläuft. Es gibt praktisch keine arithmetische Schwachstelle. Einfach "war immer so, wird wieder so sein" geht nicht. ;)
MfG,
Raff
wie sieht es mit potentiellen schwachstellen beim r600 so aus? lässt sich da was abzeichnen?
Texelleistung, da "nur" 16 TMU's
dargo
2007-05-09, 01:09:41
Radeon HD 2900XT scores 10650 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=886&Itemid=1)
Hier mal als Vergleich mein System mit GTS@612/900Mhz
http://666kb.com/i/ao6f29f2fi5tpqrfw.png
Auch wenn meine CPU rund 10% schneller ist. Bei den Game-Tests fällt das kaum ins Gewicht. Von daher ist die HD2900XT zumindest in den 3DMark06 Games und aktuellem Treiber langsamer als eine G8800GTX.
Ja nur macht eine X2900 XT beim SM 3.0 mehr Punkte in gegensatz zur 8800.;)
dargo
2007-05-09, 01:29:07
Ja nur macht eine X2900 XT beim SM 3.0 mehr Punkte in gegensatz zur 8800.;)
Schau dir nochmal die SM3.0 Games an. ;)
GTS@612/900Mhz:
Canyon Flight = ~40fps
Deep Freeze = ~49fps
HD 2900XT:
Canyon Flight = ~45fps
Deep Freeze = ~57fps
Also 12-16% Vorteil für die HD 2900XT. Eine G8800GTX ist aber nochmal ca. 20-25% schneller als eine GTS@612/900Mhz.
Ja nur macht eine X2900 XT beim SM 3.0 mehr Punkte in gegensatz zur 8800.;)
Wer sagt das?
wie sieht es mit potentiellen schwachstellen beim r600 so aus? lässt sich da was abzeichnen?
Ja so einiges!!!!
Hvoralek
2007-05-09, 01:57:49
http://img157.imageshack.us/img157/5383/8921tk2.pngAnscheinend haben die Shadereinheiten dort jeweils vier Kanäle. Sicher, dass das um R600 geht?
Fetza
2007-05-09, 05:02:19
Schau dir nochmal die SM3.0 Games an. ;)
GTS@612/900Mhz:
Canyon Flight = ~40fps
Deep Freeze = ~49fps
HD 2900XT:
Canyon Flight = ~45fps
Deep Freeze = ~57fps
Also 12-16% Vorteil für die HD 2900XT. Eine G8800GTX ist aber nochmal ca. 20-25% schneller als eine GTS@612/900Mhz.
Wenn die werte so stimmen, kann man zwar von einer reichlich verspäteten karte sprechen, aber nicht von atis nv30, so wie von vielen geunkt :) Die werte find ich recht ansprechend.
greetz
=Floi=
2007-05-09, 05:36:32
naja aber wenn ich schon vor 6 monaten mehr leistung haben konnte sehe ich da auch jetzt nicht gerade den vorteil gegenüber nv
gegenüber der X1950XTX sicherlich der normale sprung einer generation aber dafür hat das ding auch eine gigantische verspätung und ohne tests kennen wir auch noch nicht die nachteile des R600 (stromverbrauch, lautstärke etc. )
Fetza
2007-05-09, 05:39:40
naja aber wenn ich schon vor 6 monaten mehr leistung haben konnte sehe ich da auch jetzt nicht gerade den vorteil gegenüber nv
gegenüber der X1950XTX sicherlich der normale sprung einer generation aber dafür hat das ding auch eine gigantische verspätung und ohne tests kennen wir auch noch nicht die nachteile des R600 (stromverbrauch, lautstärke etc. )
Einen vorteil für ati zu behaupten wäre wahnwitzig, aber schadensbegrenzung ist ihnen damit allemal meiner meinung nach geglückt.
Klar, allgemein sollte man erst den 14 abwarten, aber sehr gespannt bin ich auf erste echte direct 3d 10 benchmarks. Das wird interessant.
greetz
seahawk
2007-05-09, 07:18:34
Dass ATI performancemäßig keinen NV30 bringt war klar, die restlichen NAchteile sieht man bei den Tests.
- Stromverbruach-
- AI
Fetza
2007-05-09, 07:28:06
Dass ATI performancemäßig keinen NV30 bringt war klar, die restlichen NAchteile sieht man bei den Tests.
- Stromverbruach-
- AI
Dir war es klar, ich habe es auch nicht geglaubt, aber es gab genug die darauf spekuliert haben.
seahawk
2007-05-09, 08:06:58
Dir war es klar, ich habe es auch nicht geglaubt, aber es gab genug die darauf spekuliert haben.
Wenn ich den Nv30 als Vergleich nutzte, dann eher im hinblick auf grundsätzliche Desingentscheidungen, Verspätungen und auch Rentabilität.
(Designentscheidung : neuer Prozess, hoher Takt... )
Nur dass die GeForce 8800 eine sehr effiziente Architektur hat, die nicht mal eben leerläuft. Es gibt praktisch keine arithmetische Schwachstelle. Einfach "war immer so, wird wieder so sein" geht nicht. ;)
MfG,
Raff
Das hat man über NV40 und G70 auch gesagt, bis das mit den blockierenden ALUs aufkam. Ganz mutige behaupteten dies sogar anfangs für NV30, wenn erstmal längere Shader verfügbar sind. Ich würde doch noch etwas abwarten, bevor ich von einem ~700mio Transistorenchip, von dem bis jetzt natürlich nur die Details bekannt sind, die nV für die Öffentlichkeit bestimmt hat, behaupte, er hätte keine Schwachstelle. Wir können diese Diskussion ja gerne in zwei jahren weiterführen.
James Ryan
2007-05-09, 09:01:55
Die NV4x und G7x Generation basiert immer noch auf der CineFX Architektur des NV3x, sie wurden nur "etwas" verbessert um konkurrenzfähig zu bleiben!
Die G8x Generation ist völlig neu, daher sind Vergleiche aus der Vergangenheit eher schlecht.
Es sieht momentan so aus, dass der G80 verdammt effizient ist und der R600 eben nicht so davon ziehen kann wie es früher der Fall war!
Das könnte man in etwa mit dem P4 <-> Core 2 Duo vergleichen. ;)
MfG :cool:
AnarchX
2007-05-09, 09:11:55
http://img296.imageshack.us/img296/3028/474ac0a8ba7.jpg
http://www.nordichardware.com/forum/2-vt8428.html?postdays=0&postorder=asc&start=25&sid=8c74f6281ee432ecf5415d3dd853358a
Fragt sich nur, ob da mehr als ein 3DMark-Durchlauf stabil ist.
=Floi=
2007-05-09, 09:23:54
warum kauft der sich nen quad core und lässt dann nur 3dmark03 laufen? ;D ;D
zumindest läuft die karte mal ausreichend stabil denn auch 3d mark belastet die karte schon ganz gut
[dzp]Viper
2007-05-09, 09:33:22
http://img296.imageshack.us/img296/3028/474ac0a8ba7.jpg
http://www.nordichardware.com/forum/2-vt8428.html?postdays=0&postorder=asc&start=25&sid=8c74f6281ee432ecf5415d3dd853358a
Fragt sich nur, ob da mehr als ein 3DMark-Durchlauf stabil ist.
Find ich eher uninteressant (3dmurks03)
Dann lieber:
http://www.kinc.se/06.JPG
seahawk
2007-05-09, 09:47:42
Naja, der Stockcooler ist auch recht Leistungsfähig. Außerdem streuen die ersten Testsamples beim Thema OC oft nach oben.
=Floi=
2007-05-09, 09:59:31
@ gast
deshalb hatte nv auch sm3 beim 6800 und ati sm2 bei der X850xt
die X1950XTX skaliert eben anders als die 7900GTX und man muß auch mal sehen WIE der performancevorteil erkauft wurde etc.
nV legt die Chips vorallem auf aktuelle Spiele aus, was sich bei G80 mit der sehr hohen Texelfüllrate fortzusetzen scheint.
nVidia versucht eine Art Gleichgewicht zwischen den einzelnen Teilen zu gewahren. Da wird neben der Rechenleistung, auch die Texturleistung und Speicherbandbreite erhöht. Nur so lässt sich eine umfassende Leistungssteigerung erreichen.
ATi hat seit dem r420 die Texturleistung vollkommen aus den Augen verloren. Der r420 hat 16 TMUs, der r520 hat 16 TMUs, der r580 hat 16 TMUs und der r600 hat 16 TMUs. Die Texturleistung stieg von 8400 auf 12000 MTexel/s. Die Speicherbandbreite von 36,480Gb/s auf 105,984Gb/s. Und die Rechenleistung (MADD) stieg von 66,560 Gflops/s auf 476,800 GFlops/s. Der r600 wird sich in Spielen mit einem hohen Rechenaufwand von der 8800GTX absetzen können, da sie eine ca. 30% höhrere Rechenleistung besitzt - solange alle Einheiten ausgelastet werden. Wenn jedoch welche Brachliegen, wird sich der Vorsprung deutlich verringern. Setzt man dann noch AF und TSAA ein, wird die 8800GTX sehr, sehr konkurrenzfähig sein - sprich deutlich schneller.
Der r600 wird zwei Gesichter haben: Eines für "ältere" Spiele wie Oblivion, wo es auf die Texturleistung ankommt und jenes für Xbox360 Portierungen, die sehr stark auf die Rechenleistung setzt.
Dabei muss jedoch immernoch beachtet werden, dass die Karte deutlich mehr Strom aufnehmen wird.
Mit R580 vs. G71 scheint sich das schon wieder ähnlich zu entwickeln.
Der G71 war nVidia "Moneymaker". Und für den Kunden hat er neben dem geringeren Stromverbrauch auch eine absolute Topkühlung als Argument. Nicht nur Leistung zählt, sondern auch andere Faktoren.
w0mbat
2007-05-09, 11:25:27
[...]
Auch wenn meine CPU rund 10% schneller ist. Bei den Game-Tests fällt das kaum ins Gewicht. Von daher ist die HD2900XT zumindest in den 3DMark06 Games und aktuellem Treiber langsamer als eine G8800GTX.
Die Benches waren mit dem alten 8.361 Treiber.
Ich denke auch, dass mit den neuen Treibern der R600 noch schneller wird.
Was ist eigtl. aus dem Physikkram von AMD und nVidia geworden? Was letztes Jahr als PhysX-Killer angesehen wurde.
deekey777
2007-05-09, 12:19:44
Wenn ich den Nv30 als Vergleich nutzte, dann eher im hinblick auf grundsätzliche Desingentscheidungen, Verspätungen und auch Rentabilität.
(Designentscheidung : neuer Prozess, hoher Takt... )
Ich habe so ein Gefühl, dass der Vergleich zum NV30 insbesondere bei dem Aufbau des R600 im Vergleich zum G80 sehr passend ist.
Andererseits kann man davon ausgehen, dass ATi weiß, warum sie sich gerade für diesen Aufbau des R600 entschieden haben und darauf vorbereitet sind (Shader-Compiler, mit dem die Shader-Einheiten optimal ausgelastet werden).
Mal sehen, was die Zukunft bringt.
Viper;5476722']Find ich eher uninteressant (3dmurks03)
Dann lieber:
http://www.kinc.se/06.JPGAlt und wie schon Festgestellt wurde ist ne GTX non OC mit der cpu fixer
AnarchX
2007-05-09, 12:50:59
VR-Zone scheint wohl schon einen Test vorzubereiten:
http://www.vr-zone.com/?i=4946&s=1
"UnReal Overclocking!" :D
http://img243.imageshack.us/img243/4377/200hotdd4.jpg
http://forums.vr-zone.com/showpost.php?p=3676801&postcount=14
200°C :|
R600XT overclocks to 840 MHz (http://www.fudzilla.com/index.php?option=com_content&task=view&id=895&Itemid=1)
Superheld
2007-05-09, 12:56:29
:rolleyes: nett
[dzp]Viper
2007-05-09, 12:56:55
http://img243.imageshack.us/img243/4377/200hotdd4.jpg
http://forums.vr-zone.com/showpost.php?p=3676801&postcount=14
200°C :|
nix da ;)
Err... it's 203°F imho. Thats around 95°C.
http://img243.imageshack.us/img243/4377/200hotdd4.jpg
http://forums.vr-zone.com/showpost.php?p=3676801&postcount=14
200°C :|
schon auf der seite vorher gepostet und das sin mit sicherheit FARENHEIT
Oder ein Fake ;)
Der Score einer Default GTX liegt bei ca 15400 also alles nicht der hit
PapercutGT
2007-05-09, 12:57:32
was ja nicht extrem viel ist
AnarchX
2007-05-09, 13:02:19
Viper;5477412']nix da ;)
Nur seltsam, dass andere Temperatur von dem AMD Clock Tool in °C angegeben wird. Aber nunja 200°C wäre schon wirklich etwas zu viel des guten... :biggrin:
Der score einer default GTX liegt bestimmt nicht bei 15400 Punkte mit der verwendeten CPU!!!!!!!!!!!!!!!!!!!!!Verwende einfach mal den 3Dmark Rechner und Du kannst es sehen.!
mfg
deekey777
2007-05-09, 13:23:46
Ich habe mal die Diskussion R420 vs. NV40 gesplitet: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=361646
Henroldus
2007-05-09, 13:30:04
Nur seltsam, dass andere Temperatur von dem AMD Clock Tool in °C angegeben wird. Aber nunja 200°C wäre schon wirklich etwas zu viel des guten... :biggrin:
ab wann schmilzt eigentlich ein PCB?
Freiwillige Tester anwesend? :uexplode:
seahawk
2007-05-09, 13:32:22
Viper;5477412']nix da ;)
Und was sollen dann die 19° darunter sein ?
19°F = -7.222 ° C
Stock Cooling ?
m.sch
2007-05-09, 13:35:14
Wieviel Entwicklungszeit steckt wohl in so einem Chip ?
3-4 Jahre,oder ist dass zu hoch gegriffen.
AnarchX
2007-05-09, 13:41:46
Radeon HD 2900XTX to appear in late July (http://www.tweaktown.com/news/7469/radeon_hd_2900xtx_to_appear_in_late_july/index.html)
[...]
It will most likely not be out until late July or early August, but it should be on display at Computex by at least a couple of ATI’s partners from what our Taiwan spies are telling us. This is the consumer version of the XTX and will look pretty much identical to the HD 2900XT except with a different sticker and more and faster GDDR-4 RAM under the cooler, i.e. this is not the 12.4in full length cards that will be available from OEM’s although both PCB length versions are floating around. The model name hasn’t been set as yet and it might be called XT GDDR4 or XTX, but we’ll stick with XTX for now. ATI partners have the option of ordering either the GDDR-3 XT or GDDR-4 version right now.
http://img243.imageshack.us/img243/3320/newshd2900xtxspecsmu3.jpg
It will feature 1GB of GDDR memory and this means a higher memory clock, up from 1650MHz DDR for the HD 2900XT to 2020MHz DDR. The core will also be boosted, but only a laughable 10MHz from 740 to 750MHz. It seems like there will be as much point in buying the Radeon HD 2900XTX as it is to buy a GeForce 8800 Ultra. Maybe the era of the super high-end cards is finally over and we will all get decent performance from an affordable graphics card, but then again, miracles doesn't happen that easily.
[...]
Godmode
2007-05-09, 13:45:03
Wieviel Entwicklungszeit steckt wohl in so einem Chip ?
3-4 Jahre,oder ist dass zu hoch gegriffen.
Die Entwicklung des G80 dauerte anscheinend 4 Jahre, es wurde also 2002 begonnen. Ob diese lange Entwicklungszeit jetzt an der Verspätung von Vista lag kann ich dir allerdings nicht sagen.
deekey777
2007-05-09, 13:53:55
Irgendwie ist das mir zu hoch: ATI overdrive secret uncovered (http://www.fudzilla.com/index.php?option=com_content&task=view&id=894&Itemid=34)
Mit einem 2x3-Connector kann die HD2900XT normal laufen, Dh sie bekommt 75+75 W (über PEG und über 2x3). Will man aber Overdirve nutzen, reichen diese 150 W nicht aus, man braucht für die zusätzlichen MHz weitere 75 W? :|
AnarchX
2007-05-09, 13:56:16
Irgendwie ist das mir zu hoch: ATI overdrive secret uncovered (http://www.fudzilla.com/index.php?option=com_content&task=view&id=894&Itemid=34)
Mit einem 2x3-Connector kann die HD2900XT normal laufen, Dh sie bekommt 75+75 W (über PEG und über 2x3).
Da steht doch eindeutig "2x3Pin + 2x3Pin". :|
Normal wird sie wohl im 190W-Berreich liegen und mit Overdrive kommt sie dann in einen kritischen Bereich für eine maximale theoretische Versorgung mit 225W.
Nakai
2007-05-09, 14:13:29
Der R600 verbraucht nicht soviel wie immer gesagt wird.
Ich gehe immernoch von 160 bis etwa 180 Watt aus.
Der 8 Pin Anschluß macht erst bei etwa 200 Watt Sinn. Für mich sieht das eher so aus als wolle man den neuen 8 Pin-Standart verbreiten.
mfg Nakai
€: Normal wird sie wohl im 190W-Berreich liegen und mit Overdrive kommt sie dann in einen kritischen Bereich für eine maximale theoretische Versorgung mit 225W.
Ich könnte was dazu sagen...mach ich aber nicht^^
Für mich sieht das eher so aus als wolle man den neuen 8 Pin-Standart verbreiten.
Man will nicht sondern muß, wenn die Karten mehr als 225W verbrauchen.
Aber villeicht kannst du ja ein Argument liefern, warum man einen Stecker verbreiten will, der nur dazu dient, das Limit von 225W zu überschreiten.
Nakai
2007-05-09, 14:22:55
Ich hab keine Ahnung! @Stock wird die Karte wohl noch nicht soviel verbrauchen, dass man an die 200 Watt rankommt...
mfg Nakai
um auf diesen standard in zukunft zurückgreifen zu können
StefanV
2007-05-09, 14:59:43
200°C :|
[ ] du weißt, was bei 200°C mit Integrierten Schaltungen auf Siliziumbasis passiert
[x] du weißt nicht, was bei 200°C mit integerierten Schaltungen auf Siliziumbasis passiert.
Ich will mal nicht so sein: sie tun bei 200°C nicht so ganz gut mehr funktionieren
Ich könnte was dazu sagen...mach ich aber nicht^^
Langsam wird es lächerlich - für euch beide.
Aber zum Glück wird es wohl bald bei Fudo stehen...
Nakai
2007-05-09, 15:03:57
Mag sein^^
Ob es bei Fudo steht, kann ich nicht sagen.^^
Ich will mal nicht so sein: sie tun bei 200°C nicht so ganz gut mehr funktionieren
Er wird praktisch zu einem Widerstand^^;D
mfg Nakai
seahawk
2007-05-09, 15:10:13
225 Watt hat man aber nur wenn man die volle Leistung aus dem Steckplaz abgreift. AFAIK tut NV das definitv nicht. Mehr als ca. 60-65W zieht NV imho nicht aus dem Steckplatz.
Er wird praktisch zu einem Widerstand^^;D
mfg Nakai
also quasi ein PTC ;D
Halbleiter sind aber NTCs.
225 Watt hat man aber nur wenn man die volle Leistung aus dem Steckplaz abgreift. AFAIK tut NV das definitv nicht. Mehr als ca. 60-65W zieht NV imho nicht aus dem Steckplatz.
Nividia zieht garnix über den Steckplatz sondern nur über den Connector.
So long
der_guru
evtl. möchte man problemen aus dem weg gehen, kann ja wenn die karte direkt die max. leistung vom board nimmt es dann zu komplikationen kommt(bluescreens oder so).
MFG
Gast
san.salvador
2007-05-09, 15:39:11
Nividia zieht garnix über den Steckplatz sondern nur über den Connector.
So long
der_guru
Ja, vorallem bei den Karten ohne Connector. ;D
Toppas:-)
2007-05-09, 15:40:10
und hier ist schon ein Review:
http://it-review.net/index.php?option=com_content&task=view&id=1314&Itemid=1&limit=1&limitstart=0
mhhh...Karte da so mittelprächtig, weitere Reviews mit anderen Boards ect. kommen dann die nächsten Tage. Leider fehlen
die genauen Treiber-Versionen mit denen Gebencht wurde. Laut diesen Tests,nur bezogen auf diese, kann die 2900XT nicht
gegen eine 8800GTS640 ankommen richtig (Company of Heros abgesehen, Treiber Problem-siehe letzte Seite Review).
Der_Korken
2007-05-09, 15:46:39
Oh mann, wenn das stimmt, wäre das ne Niederlage für ATI. Vor allem bei Stalker ... was ist da los?
Oh mann, wenn das stimmt, wäre das ne Niederlage für ATI. Vor allem bei Stalker ... was ist da los?
Bei FarCry auch nicht unbedingt brilliant.
Toppas:-)
2007-05-09, 15:54:04
Oh mann, wenn das stimmt, wäre das ne Niederlage für ATI. Vor allem bei Stalker ... was ist da los?
Ja das war mir auch sehr aufgefallen, das kann aber auch ein Treiberproblem sein (evtl!?!)Muß man mal andere Reviews evtl. mit dem ganz aktuellen Treiber abwarten..
was ist da los?
Der Karte fehlt es einfach an der Texturleistung.
Mal gucken wie es in Spielen aussieht, welche von der Xbox360 kommen. Dort sollte sie sehr gut abgehen.
Hm nicht so prall die 2900XT!
Hoffentlich kommen da bessere Treiber!
In Stalker ist sie mit HQ-Settings deutlichst hinten und mit der FPS ist das Spiel schon bedingt spielbar.
Auch in Oblivion, Fear deutlichst hinter den Karten von NV!
Also wenn die Benches stimmen, nadann gute Nacht ATI/AMD!
Einzig im SPiel Company of Hereos kann die HD2900XT auftrumpfen.
Wenn man noch den Fakt hinzuzieht, dass die Karte mehr Strom! verbraucht bei weniger Leistung als eine 8800GTX, dann kann mir diese Karte erspart bleiben!
Die 2900XTX kommt irgendwann mal vllt. Ende Juli......
Also wenn NV die Preise ihrer High-End-Grakas senken vor allem die der 8800GTX, dann sehe ich eigentlich keinen Grund eine HD2900XT zu kaufen.
Damit ist klar NVDIA > ATI/AMD im HIghend-sektor
Wie es im Midend-Sektor ( wohl der entscheidende für den Umsatz) aussieht, weiß wohl auch keiner, da ATI nach vielen Gerüchten wieder! einmal mehr einen Paperlaunch hinlegt!
Aber die 2900XL wird schon die 8600GTS toppen, was nicht schwer ist, da diese ein Flopp ist bzgl. ihrer Leistung.
teilweise doch arg weit von dem G80 entfernt. irgendwie kann ich das nicht glauben, auch sieht der "test" eher dahingeschmirt aus.
Toppas:-)
2007-05-09, 15:57:28
Hm nicht so prall die 2900XT!
Einzig im SPiel Company of Hereos kann die HD2900XT auftrumpfen.
Siehe letzte Seite vom Review, hat wohl ein TreiberProblem mit Company of Heros gegeben, deswegen liegt sie da wohl vorn.
ich gaube eher da wollte jemand seine klicks erhöhen
ich gaube eher da wollte jemand seine klicks erhöhen
Immerhin wirkt das "seriöser" als die News von Fudzilla -.-xD.
James Ryan
2007-05-09, 16:08:30
Naja, sollte der Test wirklich stimmen... :eek:
Der G80 scheint für ATi wohl eine ziemlich hohe Hürde zu sein welche man nicht mal eben mit einem gepimpten R3xx + DX10 schlagen kann.
MfG :cool:
deekey777
2007-05-09, 16:08:51
Immerhin wirkt das "seriöser" als die News von Fudzilla -.-xD.
Aber nicht viel seriöser als der R520-Test vond Sassen (http://www.hardwareanalysis.com/content/article/1813/)...
Hat jemand gestern "Monk" auf RTL gesehen? Da gab es auch einen bösen Buben, der viel schreiben musste. ;(
Entweder sie wollen ihre Klicks erhöhen oder benutzen einen alten Treiber. Der R500 kam auch erst mit dem 5.11 oder so ans laufen.
w0mbat
2007-05-09, 16:14:23
Huch, wo ist mein Posting hin?
deekey777
2007-05-09, 16:15:01
Huch, wo ist mein Posting hin?
Siehe PM!
Ronny145
2007-05-09, 16:20:48
Die Werte können doch schon hinkommen. Ein paar Fear Werte hatte wir im Vorfeld schon gesehen. Die waren auch nur auf GTS Niveau, könnte also übereinstimmen. Dann vergleicht doch mal die Benches mit denen von Ailuros. Far Cry, Prey und X3. Prey und X3 ist da auch ähnlich, nur Far Cry nicht. Aber wir wissen nicht welches savegame benutzt wurden ist.
Huch, wo ist mein Posting hin?
Ist der Test real oder nicht? Ein einfaches Ja oder Nein reicht mir schon.
w0mbat
2007-05-09, 16:24:04
Nein - Ja / 1 - 10
7
Godmode
2007-05-09, 16:25:57
Ist der Test real oder nicht? Ein einfaches Ja oder Nein reicht mir schon.
Mit neueren Treibern wird wohl noch etwas mehr Performance möglich sein. Der G80 Killer wird es nicht werden, das wurde schon vor Millionen Seiten in diesem Thread gepostet. Mit entsprechender Preisgestaltung könnte die Karte aber trotzdem sehr attraktiv werden.
OMG das heißt er ist nich komplett gefaked -.-
Nur wahrscheinlich haben sie einen alten Treiber oder so verwendet.
Man, man man wenn sich noch bewahrheitet, dass die Karte bei Vollast 180Watt zieht, also schon deutlich mehr als eine 8800GTX!!, dann frage ich mich schon was ATI die ganze Zeit gemacht hat......
Godmode
2007-05-09, 16:30:11
OMG das heißt er ist nich komplett gefaked -.-
Nur wahrscheinlich haben sie einen alten Treiber oder so verwendet.
Man, man man wenn sich noch bewahrheitet, dass die Karte bei Vollast 180Watt zieht, also schon deutlich mehr als eine 8800GTX!!, dann frage ich mich schon was ATI die ganze Zeit gemacht hat......
Es wurden eventuell die falschen Designentscheidungen am Anfang der Planung getroffen und diese können in der Halbleiterfertigung nicht kurz vor der Produktvorstellung über den Haufen geworfen werden. Ich denke AMD/ATI versuchte die fehlende Leistung über Takterhöhungen durch Respins auszugleichen, was aber anscheinend nicht ganz gelang. IMO hat ATI mit einer weiteren Cine FX Architektur gerechnet und die Lage etwas zu sehr unterschätzt.
Alles IMHO
Mit neueren Treibern wird wohl noch etwas mehr Performance möglich sein. Der G80 Killer wird es nicht werden, das wurde schon vor Millionen Seiten in diesem Thread gepostet. Mit entsprechender Preisgestaltung könnte die Karte aber trotzdem sehr attraktiv werden.
Nun, da ist mir schon klar, mir ging es um die Position gegen die 8800GTS 640MB. GTX/Ultra oder XTX interessieren mich nicht wirklich.
Es wurden eventuell die falschen Designentscheidungen am Anfang der Planung getroffen und diese können in der Halbleiterfertigung nicht kurz vor der Produktvorstellung über den Haufen geworfen werden. Ich denke AMD/ATI versuchte die fehlende Leistung über Takterhöhungen durch Respins auszugleichen, was aber anscheinend nicht ganz gelang. IMO hat ATI mit einer weiteren Cine FX Architektur gerechnet und die Lage etwas zu sehr unterschätzt.
Alles IMHO
Jo das könnte sein, denn immerhin wird so ein Chip net in ein paar MOnaten entwickelt.
Da kann man sehen was für eine tolle Arbeit die von Nvidia geleistet haben.
Einzig was zu bemängeln ist, sind die noch eher unasugereiften Treiber und der fehlende 2D-Modus! um mal den Stromverbrauch zu senken.
Klar kann man das modden etc., aber nicht jeder will die Risiken hinnehmen.
w0mbat
2007-05-09, 16:49:21
Wie wärs mit einem K10 und einem R600 auf einem RD790 (hoffentlich)?
http://ati.amd.com/online/getall3/
Mr. Lolman
2007-05-09, 16:50:15
Manche Benches zeigen schon recht schön das Potential des R600. Der z.B (2560x1600, 8xAA/16xAF):
BTW: wiedermal nett zu sehen, wie ATi mit steigender Last deutlich weniger einbricht, als NV.
Noebbie
2007-05-09, 16:52:09
Manche Benches zeigen schon recht schön das Potential des R600. Der z.B:
Das sagt mir garnix. Da sind nur Balken und Zahlen. Keine Systemdetails, Einstellungen, etc...
Was nützen solche Grafiken? Ok Marketing.. :rolleyes:
Mr. Lolman
2007-05-09, 16:53:42
Das sagt mir garnix. Da sind nur Balken und Zahlen. Keine Systemdetails, Einstellungen, etc...
Was nützen solche Grafiken? Ok Marketing.. :rolleyes:
Ist aus dem zuvor verlinkten Review. Die Einstellungen hab ich noch dazu geschrieben...
Manche Benches zeigen schon recht schön das Potential des R600. Der z.B (2560x1600, 8xAA/16xAF):
BTW: wiedermal nett zu sehen, wie ATi mit steigender Last deutlich weniger einbricht, als NV. Dir ist schon klar, dass das wahrscheinlich ein Problem mit dem NV-Treiber ist?
Mr. Lolman
2007-05-09, 16:55:51
Dir ist schon klar, dass das wahrscheinlich ein Problem mit dem NV-Treiber ist?
Wie lang gibts das Spiel schon und wie lang gibts die Karten und dazu gehörige Treiber? Für die heftigen Settings ist die G80-Performance durchaus im Normalbereich...
Blaire
2007-05-09, 16:56:16
Manche Benches zeigen schon recht schön das Potential des R600. Der z.B (2560x1600, 8xAA/16xAF):
BTW: wiedermal nett zu sehen, wie ATi mit steigender Last deutlich weniger einbricht, als NV.
Das Gegenteil scheint der Fall ;) Man darf sich eben nicht nur 1 Benchmark herauspicken aber das kennt man ja von dir.
dildo4u
2007-05-09, 16:57:58
Manche Benches zeigen schon recht schön das Potential des R600. Der z.B (2560x1600, 8xAA/16xAF):
BTW: wiedermal nett zu sehen, wie ATi mit steigender Last deutlich weniger einbricht, als NV.
Das ist eher ein Treiber Problem bei ATI da dort das 8XAA nicht wirklich funzt unter 4XAA sinds die selben FPS. ;)
4xAA/16xAF, 2560x1600
http://it-review.net/images/stories/A/AMD/R600/NF590/4x/2560/CoH.png
http://it-review.net/index.php?option=com_content&task=view&id=1314&Itemid=1&limit=1&limitstart=3
Mr. Lolman
2007-05-09, 16:59:40
Das Gegenteil scheint der Fall ;) Man darf sich eben nicht nur 1 Benchmark herauspicken aber das kennt man ja von dir.
Zumindest zeigt der Benchmark das Potential (in Form von möglicher Leistung) des R600. FEAR rennt ähnlich gut (2560x1600, 8xAA/16xAF):
Mr. Lolman
2007-05-09, 17:00:40
Das ist eher ein Treiber Problem bei ATI da dort das 8XAA nicht wirklich funzt unter 4XAA sinds die selben FPS. ;)
Oder es kostet einfach nüx X-D. Bei FEAR scheints ja auch zu funzen....
w0mbat
2007-05-09, 17:01:27
Kann über high-res Benches nicht viel sagen da ich selber nur max 1280x1024 gehen kann und die Karte bald wieder abgeben muss :(
san.salvador
2007-05-09, 17:02:08
Zumindest zeigt der Benchmark das Potential des R600. FEAR rennt ähnlich gut (2560x1600, 8xAA/16xAF):
Vergleich mal bitte die 8xAA-Werte mit den 4xAA-Werten.
Da ist doch was faul, ich glaub nicht das der R600 unter 2560x1600 8xAA for free bringt.
Blaire
2007-05-09, 17:02:59
Zumindest zeigt der Benchmark das Potential (in Form von möglicher Leistung) des R600. FEAR rennt ähnlich gut (2560x1600, 8xAA/16xAF):
Schau dir mal den Score unter 1920x1200 8xAA/16xAF an ;) Fällt dir was auf?
Mr. Lolman
2007-05-09, 17:03:40
Vergleich mal bitte die 8xAA-Werte mit den 4xAA-Werten.
Da ist doch was faul, ich glaub nicht das der R600 unter 2560x1600 8xAA for free bringt.
Bei FEAR ist ja auch nicht 4free :|
Schau dir mal den Score unter 1920x1200 8xAA/16xAF an ;) Fällt dir was auf?
Ok. Irgendwas ist da anscheinend schon faul. NV bricht von 1920 auf 2560 derbstens ein, und ATi überhaupt nicht...
dildo4u
2007-05-09, 17:05:54
Vieleicht ist bei den extremen Auflösungen also bei 2560 bei manchen Games mit hohem V-Ram Bedarf gar kein 8XAA möglich wegen den 512mb.
Irgendwie ernüchternd.....von den Ergebnissen her. Aber auf Grund der Test Dokumentation, naja....
Mir wäre es z.B. wichtig bei meinem 4400+->4800+ x2 S939 System, ob ne GTS 640 oder ne xt Karte ihre Leistung besser umsetzen kann. Und wo ich länger etwas von hätte.
Von den Feature die so anklingen, ist die ATI Interessant, aber falls das mit der Lautstärke > 7800GTX wird, naja.......dann doch lieber ne GTS640.
Ronny145
2007-05-09, 17:06:28
Bei FEAR ist ja auch nicht 4free :|
Auch dort nur 3 fps. Schau dir mal den Verlust bei der GTS/GTX an. Ich kann mir nicht vorstellen, dass bei den settings kein Verlust auftritt. Entweder ein Treiberproblem oder zwischen 4x/8x AA ist kaum ein Unterschied in der Praxis zu sehen. Was dann nicht vergleichbar wäre.
StefanV
2007-05-09, 17:09:14
Vergleich mal bitte die 8xAA-Werte mit den 4xAA-Werten.
Da ist doch was faul, ich glaub nicht das der R600 unter 2560x1600 8xAA for free bringt.
Warum nicht??
DIe TMUs scheinen ja ordentlich zu limitieren, da wäre sowas durchaus möglich.
san.salvador
2007-05-09, 17:09:42
Auch dort nur 3 fps. Schau dir mal den Verlust bei der GTS/GTX an. Ich kann mir nicht vorstellen, dass bei den settings kein Verlust auftritt. Entweder ein Treiberproblem oder zwischen 4x/8x AA ist kaum ein Unterschied in der Praxis zu sehen. Was dann nicht vergleichbar wäre.
Vielleicht ist 8xAA nur 4xAA mit a bisserl Blur (CFAA)?
Was wieder dazu führt, dass Benchmarkwerte ohne jegliche Angabe zur Bildqualität inkl. Screenshot wertlos sind.
[dzp]Viper
2007-05-09, 17:10:07
Ich finde den Test sehr sehr komisch. Vor allem z.b. das Stalker Ergebniss. Es gab doch hier schon ein Stalker Bild mit FPS Werten und da waren es wesentlich mehr.
Ich denke der Test ist zum Teil nur für Publicity da... Die Ergebnisse schwanken einfach zu krass...
reunion
2007-05-09, 17:11:30
und hier ist schon ein Review:
http://it-review.net/index.php?option=com_content&task=view&id=1314&Itemid=1&limit=1&limitstart=0
mhhh...Karte da so mittelprächtig, weitere Reviews mit anderen Boards ect. kommen dann die nächsten Tage. Leider fehlen
die genauen Treiber-Versionen mit denen Gebencht wurde. Laut diesen Tests,nur bezogen auf diese, kann die 2900XT nicht
gegen eine 8800GTS640 ankommen richtig (Company of Heros abgesehen, Treiber Problem-siehe letzte Seite Review).
Ohne Bilder, ohne Treiberinfo, und ohne auch nur irgend eine wirklich Information über die Testmethoden kann sich das jeder aus den Fingern saugen. Die Werte widersprechen jedenfalls deutlich den angeblich zu 100% verlässlichen Werten von Ailuros, welche ich persönlich um ein vielfaches höher gewichte als diese Publicityaktion. Noch dazu sind die Zahlen selbst äußerst seltsam, selbst bei den nV-Karten. Aber wers braucht.
Blaire
2007-05-09, 17:12:28
Auch dort nur 3 fps. Schau dir mal den Verlust bei der GTS/GTX an. Ich kann mir nicht vorstellen, dass bei den settings kein Verlust auftritt. Entweder ein Treiberproblem oder zwischen 4x/8x AA ist kaum ein Unterschied in der Praxis zu sehen. Was dann nicht vergleichbar wäre.
Ich vermute das anstatt 8xAA der Treiber auf 4xAA zurückschaltete. Das würde schon eher passen wenn ich mir die anderen Ergebnisse so ansehe.
Ronny145
2007-05-09, 17:13:36
Ohne Bilder, ohne Treiberinfo, und ohne auch nur irgend eine wirklich Information über die Testmethoden kann sich das jeder aus den Fingern saugen. Die Werte widersprechen jedenfalls deutlich den angeblich zu 100% verlässlichen Werten von Ailuros, welche ich persönlich um ein vielfaches höher gewichte als diese Publicityaktion.
Nein, da liegst du falsch. Bis auf Far Cry wiedersprechen sich die Werte eben nicht.
laser114
2007-05-09, 17:21:10
Ok. Irgendwas ist da anscheinend schon faul. NV bricht von 1920 auf 2560 derbstens ein, und ATi überhaupt nicht...
Von 8xAA/16xAF, 1920x1200 auf 8xAA/16xAF, 2560x1600 im Surpreme Commander gewinnt die 2900 XT sogar 3 FPS. So eine Karte will ich auch. :D
Da ist irgendwas faul. Warten wir lieber einen Bench von bekannteren Seiten ab...
Haben die ATi Karten nicht das nette Feature, dass sie ab und zu einfach kein AA mehr zulassen - wenn der Speicher ausgeht?
Manche Benches zeigen schon recht schön das Potential des R600. Der z.B (2560x1600, 8xAA/16xAF):
BTW: wiedermal nett zu sehen, wie ATi mit steigender Last deutlich weniger einbricht, als NV.
Hättest du villeicht mal weiter gelesen, wüsstest du, daß der ATi Treiber da ein Problem hat und gar kein 8xAA funktioniert.
Oder es kostet einfach nüx X-D. Bei FEAR scheints ja auch zu funzen....
Es scheint eher generell nicht zu funktionieren, weil bei allen Games die 4xAA fps und 8xAA fps praktisch identisch sind.
reunion
2007-05-09, 18:09:17
Nein, da liegst du falsch. Bis auf Far Cry wiedersprechen sich die Werte eben nicht.
Wie viele Widersprüche brauchst du denn? Es sind auch nur drei Werte. X3 und Prey könnte ev. hinkommen, wenn man gutmütig ist, aber spätestens bei FarCry zeigt sich, dass die Werte BS sind. Laut Ail liegt die XT hier nah an der GTX, und bei dem Test geht sie selbst gegen die GTS aber sowas von unter.
LovesuckZ
2007-05-09, 18:10:54
Farcry, sowie viele andere Spiele, bestehen nicht nur aus einer Szene.
Unterschiedliche Szenarien, Timedemos, Frapsdurchläufe - es ist einfach falsch zu behaupten, die Werte würden nicht stimmen, weil eine andere Seite andere Werte hätte.
Ronny145
2007-05-09, 18:13:00
Wie viele Widersprüche brauchst du denn? Es sind auch nur drei Werte. X3 und Prey könnte ev. hinkommen, wenn man gutmütig ist, aber spätestens bei FarCry zeigt sich, dass die Werte BS sind. Laut Ail liegt die XT hier nah an der GTX, und bei dem Test geht sie selbst gegen die GTS aber sowas von unter.
Prey und X3 sind ähnlich. Einzig und allein Far Cry fällt raus. Aber da gibt es so viele unterschiedliche timedemos, wie kannst du dir da so sicher sein?
w0mbat
2007-05-09, 18:13:12
Wie viele Widersprüche brauchst du denn? Es sind auch nur drei Werte. X3 und Prey könnte ev. hinkommen, wenn man gutmütig ist, aber spätestens bei FarCry zeigt sich, dass die Werte BS sind. Laut Ail liegt die XT hier nah an der GTX, und bei dem Test geht sie selbst gegen die GTS aber sowas von unter.
Die haben alte Treiber, wahrscheinlich nicht mal den 8.361er. Mit dem 8.374er sieht es schon besser aus, aber immer noch keine Chance gegen die GTX (außer in ausgewählten Benches).
san.salvador
2007-05-09, 18:17:42
Die haben alte Treiber, wahrscheinlich nicht mal den 8.361er. Mit dem 8.374er sieht es schon besser aus, aber immer noch keine Chance gegen die GTX (außer in ausgewählten Benches).
Kannst du vielleicht etwas Licht in die 8xAA-Problematik bringen?
reunion
2007-05-09, 18:17:45
Prey und X3 sind ähnlich. Einzig und allein Far Cry fällt raus. Aber da gibt es so viele unterschiedliche timedemos, wie kannst du dir da so sicher sein?
Ich bin mir nicht sicher. War vielleicht etwas forsch ausgedrückt. Nur wie schon gesagt: Ohne Bilder, ohne Treiberinfo, und ohne auch nur irgend eine wirklich Information über die Testmethoden kann sich das jeder aus den Fingern saugen. Warum fehlt das alles, wenn man annehmen würde, dass die Werte authentisch sind?
w0mbat
2007-05-09, 18:21:58
Kannst du vielleicht etwas Licht in die 8xAA-Problematik bringen?
Ich sehe in low-res Benches schon einen Unterschied zwischen 4x und 8x, es könnte also wirklich sein das die Karte bei ausgehemden Vram das AA runterschaltet.
Ich bin mir nicht sicher. War vielleicht etwas forsch ausgedrückt. Nur wie schon gesagt: Ohne Bilder, ohne Treiberinfo, und ohne auch nur irgend eine wirklich Information über die Testmethoden kann sich das jeder aus den Fingern saugen. Warum fehlt das alles, wenn man annehmen würde, dass die Werte authentisch sind?
und kein Vergleich zur alten Generation -> Test unbrauchbar.
Ronny145
2007-05-09, 18:26:00
Ich bin mir nicht sicher. War vielleicht etwas forsch ausgedrückt. Nur wie schon gesagt: Ohne Bilder, ohne Treiberinfo, und ohne auch nur irgend eine wirklich Information über die Testmethoden kann sich das jeder aus den Fingern saugen. Warum fehlt das alles, wenn man annehmen würde, dass die Werte authentisch sind?
Deine letzte Frage kann nur it-review beantworten. Aber ich habe mir ein paar ältere Tests von denen dort angesehen, die Angaben fehlen überall. Also kein Argument in dem Fall. Mir sind die Werte realistisch und decken sich fast überall mit den bereits bekannten.
PCGH_Carsten
2007-05-09, 18:27:31
Ich sehe in low-res Benches schon einen Unterschied zwischen 4x und 8x, es könnte also wirklich sein das die Karte bei ausgehemden Vram das AA runterschaltet.
2560x1600 sollten bei 8xMSAA nicht viel mehr als 320 MByte Buffer-Platz belegen - wenn ich das gerade korrekt überschlagen habe. :) Ohne FP-Sources oder -targets.
w0mbat
2007-05-09, 18:28:20
@PCGH_Carsten: Mit welchem Treiber benched ihr?
Der_Korken
2007-05-09, 18:48:59
Mal ne These, die mit dem R600 nicht unbedingt was zu tun hat:
CoH ist ja ein ziemlicher Speicherfresser (jedenfalls bricht hier die GTS 320 stark ein) und könnte es nicht sein, dass den großen G80 unter 2560x1600 8xAA der VRAM ausgeht und die fps da von 4xAA auf 8xAA so stark einbrechen? Die 320er bricht ja auch manchmal radikal ein. Könnte das stimmen (unter der Voraussetzung, dass wenigstens die Werte des G80 in dem Artikel stimmen).
Darf ich eine Frage stellen? Wer ist w0mbat und was sollen diese Andeutungen, als hätte er bereits eine HD 2900 XT? Ist er ATi-Mitarbeiter?
PCGH_Carsten
2007-05-09, 19:11:47
@PCGH_Carsten: Mit welchem Treiber benched ihr?
Hm? Was hat die AA-Buffersize mit dem Treiber zu tun? ;)
deekey777
2007-05-09, 19:11:57
Darf ich eine Frage stellen? Wer ist w0mbat und was sollen diese Andeutungen, als hätte er bereits eine HD 2900 XT? Ist er ATi-Mitarbeiter?
Alles, was ich weiß, ist, dass w0mbat und Nakai zwei verschiedene Personen sind.
w0mbat
2007-05-09, 19:14:59
Hm? Was hat die AA-Buffersize mit dem Treiber zu tun? ;)
Keinen Plan, mich interessiert aber welche Treiber ihr habt =)
w0mbi ist nur gut informiert und kein mitarbeiter des grün/roten chipherstellers.
horn 12
2007-05-09, 19:18:35
Daran war und IST NIE zu zweifeln gewesen!:eek: :cool:
Meiner Meinung nach!
Hvoralek
2007-05-09, 19:18:44
Wenn 320 MiB allein für den Framebuffer verwendet werden müssten, blieben bei insgesamt 512 MiB keine 200 mehr für Texturen. Das mag in Far Cry oder Oblivion noch genügen, in Stalker, COH oder Prey mit Maximaleinstellungen aber wohl nicht mehr.
Mal ne These, die mit dem R600 nicht unbedingt was zu tun hat:
CoH ist ja ein ziemlicher Speicherfresser (jedenfalls bricht hier die GTS 320 stark ein) und könnte es nicht sein, dass den großen G80 unter 2560x1600 8xAA der VRAM ausgeht und die fps da von 4xAA auf 8xAA so stark einbrechen? Die 320er bricht ja auch manchmal radikal ein. Könnte das stimmen (unter der Voraussetzung, dass wenigstens die Werte des G80 in dem Artikel stimmen).Angenommen, die 768 MiB einer 8800 GTX reichen bei den Einstellungen nicht mehr aus, müsste es bei einer 2900 XT (512 MiB) noch viel schlimmer aussehen.
reunion
2007-05-09, 19:23:26
Keinen Plan, mich interessiert aber welche Treiber ihr habt =)
Das du darauf keine Antwort bekommst, sollte klar sein. Es ist aber wohl anzunehmen, dass der NDA-Treiber nicht der älteste ist.
AnarchX
2007-05-09, 19:23:58
w0mbi ist nur gut informiert und kein mitarbeiter des grün/roten chipherstellers.
Naja, ein paar Äußerungen von ihm selbst klangen schonmal aber etwas anders (Livepoints ;)). Aber natürlich kann es nur ein Gag gewesen sein...
Angenommen, die 768 MiB einer 8800 GTX reichen bei den Einstellungen nicht mehr aus, müsste es bei einer 2900 XT (512 MiB) noch viel schlimmer aussehen.
NV scheint momentan noch ein Problem mit dem Adressieren von zusätzlichen Speicher bei GF8 zu haben, wenn der VRAM ausgeht, wie man an der 8600GTS sieht, die teilweise hinter eine 7600GS/GT fällt. Vielleicht besteht da ein Zusammenhang.
w0mbat
2007-05-09, 19:30:30
Nunja, bei 16x CFAA sieht man ein wenig blurring. Leider.
san.salvador
2007-05-09, 19:31:24
Hatte nicht Ati ein ähnliches Problem mit den x800er mit 256MB?
Der_Korken
2007-05-09, 19:39:36
NV scheint momentan noch ein Problem mit dem Adressieren von zusätzlichen Speicher bei GF8 zu haben, wenn der VRAM ausgeht, wie man an der 8600GTS sieht, die teilweise hinter eine 7600GS/GT fällt. Vielleicht besteht da ein Zusammenhang.
Genau das meine ich. Das ist mir bei der 320MiB GTS auch schon aufgefallen, dass die bei massiver Auslagerung hinter die Vorgängergeneration zurückfällt (selbst wenn diese noch weniger VRAM hat). Da hab ich mich dann schon immer gefragt, ob das nicht auch bei der 640MiB GTS passieren müsste und mit CoH scheint sich da vllt eine Testmöglichkeit gefunden zu haben.
Zu den 512MiB bei ATI: Häufig sehe ich, dass die avg-fps bei ATI im Falle einer Auslagerung kaum einbrechen (256 vs 512 MiB). So vielleicht auch hier, wobei man ja noch nicht mal weiß, ob die Werte für den R600 überhaupt stimmen.
(Bitte jetzt nicht den Test von dargo posten mit der GTS320 und X1900 256MiB. Den kenne ich bereits und er widerspricht einigen anderen Tests im Netz, was nicht heißen muss, dass er falsch liegt).
Nakai
2007-05-09, 20:23:07
Der neue Treiber funktioniert.
Jedenfalls bei mir und meiner X800XT.
mfg Nakai
PCGH_Carsten
2007-05-09, 20:26:01
Nunja, bei 16x CFAA sieht man ein wenig blurring. Leider.
Und wie sieht's mit 24xCFAA aus?
w0mbat
2007-05-09, 20:27:29
Und wie sieht's mit 24xCFAA aus?
Noch nicht probiert.
LovesuckZ
2007-05-09, 20:28:21
Und nun etwas für die nicht eingeweihten:
Yeah Sampsa, thats true, but seeing these scores lately, i don't think that even hard clocked GTS can match 29XT. And new drivers will bring better performance for 29XT, that will make GTS fall behind by large margin.
True in 3dmark, not true in games.
http://www.xtremesystems.org/forums/showpost.php?p=2180185&postcount=34
PCGH_Carsten
2007-05-09, 20:29:27
Noch nicht probiert.
Probier mal...
laser114
2007-05-09, 20:30:30
Probier mal...
Das kann ja nichts gutes heißen. X-D
Toppas:-)
2007-05-09, 20:31:50
Ohne Bilder, ohne Treiberinfo, und ohne auch nur irgend eine wirklich Information über die Testmethoden kann sich das jeder aus den Fingern saugen. Die Werte widersprechen jedenfalls deutlich den angeblich zu 100% verlässlichen Werten von Ailuros, welche ich persönlich um ein vielfaches höher gewichte als diese Publicityaktion. Noch dazu sind die Zahlen selbst äußerst seltsam, selbst bei den nV-Karten. Aber wers braucht.
Das ist korrekt!! Die fehlenden Angaben zu den Treibern ect finde ich auch etwas merkwürdig,worauf ich auch hingewiesen habe.Man muß erstmal abwarten was andere Reviews dazu sagen.Zu den NV-Karten kann ich nichts sagen
w0mbat
2007-05-09, 20:31:55
Hm, ich habe auch sehr schlechte Augen und will hier ATI nicht extra schlecht machen. Deshalb traue ich mir jetzt mal keine endgültige Aussage zu CFAA zu.
LovesuckZ
2007-05-09, 20:34:31
Hm, ich habe auch sehr schlechte Augen und will hier ATI nicht extra schlecht machen. Deshalb traue ich mir jetzt mal keine endgültige Aussage zu CFAA zu.
Dann mach Bilder, schicke sie Fudo. ;)
w0mbat
2007-05-09, 20:35:55
Frag mal razor1.
LovesuckZ
2007-05-09, 20:41:30
Abgesehen das mein Englisch mies ist:
Er wird mir als fremde Person wohl auch keine Bilder schicken...
w0mbat
2007-05-09, 20:43:19
Ok, ihm traue ich eine kompetentere Aussage zum CFAA zu:
[...]CFAA x16 mode (x8 box and tent) there is definilty blurring going on in the tent mode[...]
LovesuckZ
2007-05-09, 20:44:55
Ah, muss ich wohl überlesen haben -> Quelle?
w0mbat
2007-05-09, 20:46:07
Ah, muss ich wohl überlesen haben -> Quelle?
Kann PMs nicht verlinken :smile:
san.salvador
2007-05-09, 20:47:41
Und wie groß ist der Performanceeinbruch? Am besten im Vergleich zu Nvidia FSAA <--> CSAA
Hvoralek
2007-05-09, 21:24:06
Hm, ich habe auch sehr schlechte Augen und will hier ATI nicht extra schlecht machen. Deshalb traue ich mir jetzt mal keine endgültige Aussage zu CFAA zu.Dann muss das wohl ziemlich übel sein, wenn es sogar jemandem mit "sehr schlechte[n] Augen" auffällt.
AnarchX
2007-05-09, 21:25:35
Radeon X1000-Recycling -> Physikbeschleuniger (http://www.chiphell.com/viewthread.php?tid=3859&extra=page%3D1)
Unsymmetrical Physics Acceleration Mode of Radeon HD 2000
Though the AMD ATI enounce Radeon HD 2900 series VPU has already integrated strong physics acceleration ability, but it seems AMD ATI want to endow Radeon HD 2000 series VPUs with stronger physics acceleration ability, so they put forward unsymmetrical physics acceleration mode, composed of a Radeon HD 2000 graphic card and a Radeon X1900 graphic card, among them the Radeon HD 2000 graphic card is responsible for 3D rendering, the Radeon X1900 graphic card is responsible for physical acceleration.
The unsymmetrical physics acceleration mode can make up the relative weak physics acceleration ability of Radeon HD 2600/2400 series, it also can let Radeon HD 2900 graphic card be free from physics acceleration, and concentrate on 3D rendering tasks. The unsymmetrical physics acceleration mode has already been supported by catalyst driver.
However, if there will be a DX9 game supports ATI physics acceleration in the future, another mode in which X1900 is responsible for 3D rendering, HD 2600/2400 is responsible for physical acceleration is also a quite good choice. But AMD ATI possibly don’t support this kind of mode right now and in the near future.
Radeon X1000-Recycling -> Physikbeschleuniger (http://www.chiphell.com/viewthread.php?tid=3859&extra=page%3D1)
Eine X1900XT nur für Physik? Welch eine Verschwendung :rolleyes:
Godmode
2007-05-09, 21:51:42
Eine X1900XT nur für Physik? Welch eine Verschwendung :rolleyes:
Naja wenn man von einer X1900 auf ne 2900 umsteigt kann man die alte weiternützen, IMO keine schlechte Idee. Die Frage ist eher ob und wieviel das bringt (siehe PhysX;D )
Moralelastix
2007-05-09, 21:52:39
Vielleicht reicht ja schon ne x1600?
Ich glaub aber nicht daran das wir zu Lebzeiten des R600 sowas noch Ingame bewundern dürfen.
Vielleicht reicht ja schon ne x1600?
Ich glaub aber nicht daran das wir zu Lebzeiten des R600 sowas noch Ingame bewundern dürfen.
Wieso, ATI hatte doch des öfteren schon so etwas demonstriert, mit dem R6oo ist die Zeit ist reif.
X16oo für Physik? Locker! :smile: Ich kann m,ich erinnern irgendwo gelesen zu haben, O Ton ATI, eine X16oo wäre doppelt so schnell wie der PhysX.
Hauwech
2007-05-09, 22:32:14
Kann man diese Physikgeschichte schon in irgendeinem Spiel bewundern?
w0mbat
2007-05-09, 22:37:05
Cellfactor
Moralelastix
2007-05-09, 22:37:12
Wieso, ATI hatte doch des öfteren schon so etwas demonstriert, mit dem R6oo ist die Zeit ist reif.
X16oo für Physik? Locker! :smile: Ich kann m,ich erinnern irgendwo gelesen zu haben, O Ton ATI, eine X16oo wäre doppelt so schnell wie der PhysX.
Hör blos auf! Gleich kommt DK777 und schlägt uns tot.:biggrin:
Irgendwelche Techdemos sind eine Sache. Bis wir das Ingame haben dauert es sicher noch ewig(bis dahin wächst mir n Bart länger als der von Osamerl B.:biggrin:).
Und zudem ja immer nur Effektphysik.
deekey777
2007-05-09, 22:37:26
Radeon X1000-Recycling -> Physikbeschleuniger (http://www.chiphell.com/viewthread.php?tid=3859&extra=page%3D1)
Though the AMD ATI enounce Radeon HD 2900 series VPU has already integrated strong physics acceleration ability, but it seems AMD ATI want to endow Radeon HD 2000 series VPUs with stronger physics acceleration ability, so they put forward unsymmetrical physics acceleration mode, composed of a Radeon HD 2000 graphic card and a Radeon X1900 graphic card, among them the Radeon HD 2000 graphic card is responsible for 3D rendering, the Radeon X1900 graphic card is responsible for physical acceleration.
Was für ein Schwachsinn...
Und meine X1950GT hat aktuell eine intergrierte Proteinfalt-Einheit?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=252495
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4121924#post4121924
http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/juni/ati_crossfire_physics/
Hör blos auf! Gleich kommt DK777 und schlägt uns tot.:biggrin:
Irgendwelche Techdemos sind eine Sache. Bis wir das Ingame haben dauert es sicher noch ewig(bis dahin wächst mir n Bart länger als der von Osamerl B.:biggrin:).
Und zudem ja immer nur Effektphysik.
Ich ließ mir nur viel Zeit für mein Posting.
Und da ist der Link: http://www.theinquirer.net/default.aspx?article=32208
Moralelastix
2007-05-09, 22:38:55
loool!:biggrin:
Was für ein Schwachsinn...
Und meine X1950GT hat aktuell eine intergrierte Proteinfalt-Einheit?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=252495
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4121924#post4121924
http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/juni/ati_crossfire_physics/
Ich ließ mir nur viel Zeit für mein Posting.
Und da ist der Link: http://www.theinquirer.net/default.aspx?article=32208
"already integrated strong physics acceleration ability"
Hast du das Wort "ability" (Fähigkeit) überlesen?
deekey777
2007-05-09, 22:45:37
"already integrated strong physics acceleration ability"
Hast du das Wort "ability" (Fähigkeit) überlesen?
Nein, denn das ist keine "integrierte Fähigkeit". :smile:
Was für ein Schwachsinn...
Und meine X1950GT hat aktuell eine intergrierte Proteinfalt-Einheit?
Wenn du es so nennen willst, ja. Und meine hat sogar eine integrierte Einheit für Grafik, sogar eine für HDR Rendering.
Es ist also alles eine Frage der Definition, für was der Chip dann eigentlich gebraucht wird.
Hauwech
2007-05-09, 22:50:55
Wenn du es so nennen willst, ja. Und meine hat sogar eine integrierte Einheit für Grafik, sogar eine für HDMR Rendering.
Es ist also alles eine Frage der Definition, für was der Chip dann eigentlich gebraucht wird.
Das nennt man Marketing :biggrin:
Nein, denn das ist keine "integrierte Fähigkeit". :smile:
Selten sind die 1:1 übersetzten Texte richtig.
deekey777
2007-05-09, 23:04:38
Das nennt man Marketing :biggrin:
Und das ist sehr ärgerlich, insbesondere wenn man hier im Forum einige interessante Threads zu diesem Thema findet.
http://www.xbitlabs.com/news/video/display/20051005202331.html
Raja Kodouri, a senior architect at ATI Technologies told X-bit labs that the company’s graphics processors, including the RADEON 9700, which is the world’s first DirectX 9.0 graphics processing unit (GPU), are capable of processing arrays of vertexes, similar type of operation that AGEIA’s physics processing units (PPUs) can perform. The arrays of data should be processed using pixel shader processors within a chip, the architect said
:smile:
Kann man diese Physikgeschichte schon in irgendeinem Spiel bewundern?
Cellfactor
Ich glaube, er meint Physikberechnungen auf Grafikkarten.
Moralelastix
2007-05-09, 23:11:55
Vielleicht meint er ja auch Physikberechnungen auf Phyiskkarten oder Gafikberechnungen auf Physikkarten?:biggrin:
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.