Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 6
dargo
2007-03-24, 11:25:27
Und wer sagt, dass die Ultra nur soetwas sein wird?
AFAIK bietet Qimonda im Q2 0.83ns GDDR3 an. ;)
Und deswegen soll man sich die Ultra kaufen, nur weil sie etwas mehr Bandbreite hat, wo am Ende +~5% bei rumkommen?
Da kann man gleich bei der GTX bleiben.
reunion
2007-03-24, 11:26:19
Ich hab das Gefühl bei der R600XTX GDDR4 könnte es ähnlich sein.
Glaube ich nicht. Immerhin wird man sogar eine extra OEM-Version der XTX anbieten. Das würde keine Sinn machen, wenn man die Karte gar nicht liefern kann. Auch ist ja dies die einzige Karte, mit >512MB VRAM, was sie nicht nur als Prestigeobjekt für ATi wichtig macht.
Naja, schlappe 9700 zu 9500 3DM06-Punkte (16x12) für die R600. Und das bei krassen 800mhz. Irgendwas hat Nvidia mit der shader clock domain richtig gemacht ;)
OK- waren ja nur Betatreiber usw, aber für mich zeigt das schon mal ganz klar, daß die R600 den G80 auf keinen Fall "ownen" wird.
Ich schätze mal, die 8800GTX ULTRA und die X2900XTX werden auf ähnlichem Niveau sein- also eh so wie es immer war bei den beiden "Raufbolden" :)
Heißt für mich und einige andere hier: zurücklehnen und abwarten- schlimmstenfalls verkaufen wir unsere 8800GTX und holen uns Ultras. Aber auch das ist ned wirklich notwendig, denn moderne games hängen eh praktisch alle an der CPU, weniger an der GPU.
Bei Stalker zb langweilen sich meine 8800er zu Tode, weil sie immer auf die CPU warten müssen ;)
Die Treiber von Nvidia kann man eigentlich auch nicht guten Gewissens "final" nennen. ;) Und neben der "Ultra" hat Nvidia doch noch eine Geheimwaffe. MUL, right? Der R600 muss schon was können, um dagegen bestehen zu können. Ich hoffe, er tut es.
MfG,
Raff
dargo
2007-03-24, 11:32:58
Auch ist ja dies die einzige Karte, mit >512MB VRAM, was sie nicht nur als Prestigeobjekt interessant macht.
Bei ATI schon. NV bietet aber schon länger mit der GTS/GTX >512MB.
reunion
2007-03-24, 11:35:26
Bei ATI schon. NV bietet aber schon länger mit der GTS/GTX >512MB.
Das war natürlich auf ATi bezogen, denn was hat ATi davon, wenn nV auch Karten >512Mb VRAM anbietet? :|
War vielleicht auch etwas schlecht formuliert, werde das mal korrigieren.
Die Treiber von Nvidia kann man eigentlich auch nicht guten Gewissens "final" nennen. ;) Und neben der "Ultra" hat Nvidia doch noch eine Geheimwaffe. MUL, right? Der R600 muss schon was können, um dagegen bestehen zu können. Ich hoffe, er tut es.
MfG,
Raff
Inzwischen sind fast fünf Monate vergangen seit dem G80-Launch, und es gibt weder die versprochene MUL, noch den versprochenen idle-Modus. Ich bin gespannt, ob da noch was kommt, oder ob es ähnlich wie beim defekten Videoprozessor im NV40 ablaufen wird, und dies erst mit dem Refresh gefixt wird.
AnarchX
2007-03-24, 11:41:25
Und deswegen soll man sich die Ultra kaufen, nur weil sie etwas mehr Bandbreite hat, wo am Ende +~5% bei rumkommen?
Da kann man gleich bei der GTX bleiben.
Ob bei gleichzeitger GPU-Takt-Erhöhung bei einer möglichen Bandreitenerhöhung bis zu 33% nur 5% herauskommen mag ich mal zu bezweifeln.
Aber natürlich lohnt sich der Umstieg von einer GTX, wenn man nicht gerade der absolut leistungsüchtige, nicht mehr rational denkende und im Geld schwimmende HighEnd-Freak ist, eher nicht.
Imo ist es mehr ein symbolisches Zeichen, dass man ATi nicht kampflos den Thron übergeben will und sie vielleicht noch etwas demütigen will indem man noch eine HighEnd-Karte auf den Markt bringt, während ATi hier seit August 2006 nichts neues präsentieren konnte.
Das glaube ich nicht. Immerhin wird man sogar eine extra OEM-Version der XTX anbieten. Das würde keine Sinn machen, wenn man die Karte gar nicht liefern kann, auch ist ja dies die einzige Karte, mit >512MB VRAM, was sie nicht nur als Prestigeobjekt interessant macht.
Das werden wir wohl im Mai sehen, ich hab jedenfalls den Eindruck dass die 1GB GDDR4-Variante ein Benchmarktiger sein wird, während die 512MB GDDR3 Karte(die den vollen GPU-Takt haben wird, da XTX und XT abgeschafft wurden), die im Handel erhältliche Karte sein wird, die wohl zu einem ziemlich attraktiven Preis über die Ladentheke gehen könnte. (... ein Eindruck aus den Gerüchten der letzten Wochen).
Natürlich wäre eine Karte mit mehr als 512MB sinnvoll, aber der Sprung auf 1GB ist nunmal ein ganzes Stück teurer als der von 512MB auf 640MB oder 768MB, zudem erst recht wenn es GDDR4 sein könnte.
Zudem gibt es auch Gerüchte, dass eine X2900XT 256MB gegen die GTS 320MB konkurrieren könnte. ;)
Inzwischen sind fast fünf Monate vergangen seit dem G80-Launch, und es gibt weder die versprochene MUL, noch den versprochenen idle-Modus. Ich bin gespannt, ob da noch was kommt, oder ob es ähnlich wie beim defekten Videoprozessor im NV40 ablaufen wird, und dies erst mit dem Refresh gefixt wird.
Nur war damals zeitgleiche Konkurrenz mit dem R420 vorhanden, am verzögerten Midrange-Launch von NV sieht man durchaus, dass man sich in Santa Clara wohl momentan etwas zurücklegt und abwartet was die Konkurrenz macht.
dargo
2007-03-24, 11:47:13
Das war natürlich auf ATi bezogen, denn was hat ATi davon, wenn nV auch Karten >512Mb VRAM anbietet? :|
Weniger Kunden. Ich finde mittlerweile den Schachzug von NV besser was den Vram (bedingt durch das SI) angeht. Bei der letzten Genaration (ATI/NV) war man bei max. 512MB. Jetzt gabs ne Steigerung auf 640/768MB Vram. Bei ATI soll es leider nur eine Variante mit 1GB Vram geben. Ich würde es viel besser finden wenn ATI auch eine X2900XT mit 512 und 1GB Vram rausbringen würde. Denn was nutzt mir eine gewaltige Rohleistung (wobei das noch ungewiss ist) + viel Bandbreite (512Bit SI) wenn mir nachher der Vram ausgeht?
Inzwischen sind fast fünf Monate vergangen, seit dem G80-Launch, und es gibt weder die MUL, noch den idle-Modus. Ich bin gespannt, ob da noch was kommt, oder es ähnlich wie beim defekten Videoprozessor im NV40 ablaufen wird.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5351838&postcount=56
Deswegen verstehe ich nicht warum NV die Karten in Idle nicht schon mal stak untertaktet. Ist es etwa schädlich?
Bin auch gespannt ob da noch was kommt, starke Untertaktung, Abschalten von Einheiten und eventuell Reduzierung der Vcore. Dann wäre man schnell bei 20-25W in Idle. Das wäre schon toll.
dargo
2007-03-24, 11:53:46
Ob bei gleichzeitger GPU-Takt-Erhöhung bei einer möglichen Bandreitenerhöhung bis zu 33% nur 5% herauskommen mag ich mal zu bezweifeln.
Ich habe nur von eine Erhöhung der Bandbreite gesprochen. Natürlich wird NV bei der Ultra auch den GPU-Takt erhöhen. Aber mehr als 650Mhz würde ich da nicht erwarten. Gehen wir mal davon aus eine Ultra hätte 650/1000Mhz (eventuell 1100Mhz beim Speicher). Mehr als 10-13% wird da nicht an Mehrleistung rauskommen. Und das ist imho ein Witz. Wer da von einer GTX auf eine Ultra umsteigt der hat sie nicht mehr alle.
OK- waren ja nur Betatreiber usw, aber für mich zeigt das schon mal ganz klar, daß die R600 den G80 auf keinen Fall "ownen" wird.
wer das heute noch glaubt der tut mir echt leid, wenn die karte ach soviel schneller wäre, dann wäre sie doch schon längst auf dem markt.
reunion
2007-03-24, 12:06:13
Das werden wir wohl im Mai sehen, ich hab jedenfalls den Eindruck dass die 1GB GDDR4-Variante ein Benchmarktiger sein wird, während die 512MB GDDR3 Karte(die den vollen GPU-Takt haben wird, da XTX und XT abgeschafft wurden), die im Handel erhältliche Karte sein wird, die wohl zu einem ziemlich attraktiven Preis über die Ladentheke gehen könnte. (... ein Eindruck aus den Gerüchten der letzten Wochen).
Natürlich wäre eine Karte mit mehr als 512MB sinnvoll, aber der Sprung auf 1GB ist nunmal ein ganzes Stück teurer als der von 512MB auf 640MB oder 768MB, zudem erst recht wenn es GDDR4 sein könnte.
Zudem gibt es auch Gerüchte, dass eine X2900XT 256MB gegen die GTS 320MB konkurrieren könnte. ;)
Deine Einrücke in Ehren, aber eine extra OEM-Karte, die man dann nicht liefern kann, wäre so ziemlich das dümmste, was man machen könnte. Auch sagts du ja selber, dass die XT mit der gleichen Taktfrequenz kommen soll, was das ganze ja noch skurriler machen würde. Aber ich weiß schon, du willst wieder auf den GDDR4 hinaus, bei dem du nicht glaubst, dass man diesen in ausreichenden Mengen liefern kann, weil nV den nicht verbauen kann/will. Ich erinnere nochmal an die X1950XTX.
Nur war damals zeitgleiche Konkurrenz mit dem R420 vorhanden, am verzögerten Midrange-Launch von NV sieht man durchaus, dass man sich in Santa Clara wohl momentan etwas zurücklegt und abwartet was die Konkurrenz macht.
Auch R420 kam deutlich später.
Und nV lehnt sich natürlich nicht zurück, die sind doch auch nicht ganz blöd.
Weniger Kunden. Ich finde mittlerweile den Schachzug von NV besser was den Vram (bedingt durch das SI) angeht. Bei der letzten Genaration (ATI/NV) war man bei max. 512MB. Jetzt gabs ne Steigerung auf 640/768MB Vram. Bei ATI soll es leider nur eine Variante mit 1GB Vram geben. Ich würde es viel besser finden wenn ATI auch eine X2900XT mit 512 und 1GB Vram rausbringen würde. Denn was nutzt mir eine gewaltige Rohleistung (wobei das noch ungewiss ist) + viel Bandbreite (512Bit SI) wenn mir nachher der Vram ausgeht?
Was spricht gegen die 1GB-Variante?
dargo
2007-03-24, 12:14:43
Was spricht gegen die 1GB-Variante?
Eigendlich nichts. Wobei man noch nichts von einer X2900XT 1GB gehört hat. Dazu bräuchte man wieder ein anderes PCB wegen GDDR3.
reunion
2007-03-24, 12:18:20
Deswegen verstehe ich nicht warum NV die Karten in Idle nicht schon mal stak untertaktet. Ist es etwa schädlich?
Es gab Gerüchte, wonach dies durch die clock domains nicht zuverlässig funktionieren würde.
Eigendlich nichts. Wobei man noch nichts von einer X2900XT 1GB gehört hat. Dazu bräuchte man wieder ein anderes PCB wegen GDDR3.
AFAIK ist der einzige Unterschied zwischen der XTX und der XT die Speicherausstattung. Erst die XL ist niedriger getaktet (beim Chip), und die GT dann eben mit tw. deaktivierten Chips.
dargo
2007-03-24, 12:23:15
Es gab Gerüchte, wonach dies durch die clock domains nicht zuverlässig funktionieren würde.
Dann war das wohl eine "billige" Ausrede. Mit dem ATI Tool geht das hervorragend. Ich muss zwar dann immer manuell die Profile wechseln. Aber besser als gar nichts.
AFAIK ist der einzige Unterschied zwischen der XTX und der XT die Speicherausstattung. Erst die XL ist niedriger getaktet (beim Chip), und die GT dann eben mit tw. deaktivierten Chips.
Sollte die XT nicht GDDR3 nutzen?
reunion
2007-03-24, 12:27:10
Sollte die XT nicht GDDR3 nutzen?
Ja natürlich, das meinte ich mit Speicherausstattung. Die XTX mit einem GB GDDR4, und die XT mit 512MB GDDR3, vermutlich etwas niedriger getaktet. Der Coretakt sollte allerdings identisch sein. Spricht trotzdem nichts gegen die XTX, wenn einem 512MB VRAM zu wenig sind, außer vielleicht der Preis, aber für die doppelte VRAM-Menge musste man schon immer zahlen. Durch den GDDR4 könnte der Stromverbrauch sogar niedriger sein als bei der XT.
mapel110
2007-03-24, 12:31:08
Ja natürlich, das meinte ich mit Speicherausstattung. Die XTX mit einem GB GDDR4, und die XT mit 512MB GDDR3, vermutlich etwas niedriger getaktet. Der Coretakt sollte allerdings identisch sein.
Jetzt also doch mit unterschiedlichen Clockdomains? Dachte, die gibts beim R600 nicht?! Oder beziehst du das niedriger getaktet auf GDDR3?
GDDR4 zu verwenden, wenn man bei der GDDR3-Variante die selben Taktraten für Speicher nimmt, ist wohl reichlich sinnlos.
reunion
2007-03-24, 12:32:17
War auf den Speicher bezogen. Schreib' ich wirklich so undeutlich?
deekey777
2007-03-24, 12:33:41
:cop:FUDzilla:cop: meinte, dass die XTX einfach mehr Speicher haben wird als die XT.
Andererseits: Ich finde das Posting bzw. die Newsmeldung nicht, aber TT (?) hat mal berichtet, dass die alte Tabelle mit einzelnen Versionen weiterhin gültig ist, sprich die X2900XT kommt mit 512 MB GDDR3 und 10-15 % weniger Takt.
Ich denke, beides wird eintreffen: Es wird zwei GDDR4-Versionen mit 512 bzw. 1024 MB geben und dann kleine Version(-en) mit GDDR3.
mapel110
2007-03-24, 12:34:10
War auf den Speicher bezogen. Schreib' ich wirklich so undeutlich?
war (für mich) ziemlich missverständlich, ja. Einfach weil der Nebensatz unnötig war.
Ich denke, beides wird eintreffen: Es wird zwei GDDR4-Versionen mit 512 bzw. 1024 MB geben und dann kleine Version(-en) mit GDDR3.
Kann ich mir auch gut vorstellen, wobei .. gab es jemals soviele High End Modelle von einem Hersteller?! :uponder:
dargo
2007-03-24, 12:37:15
Ja natürlich, das meinte ich mit Speicherausstattung. Die XTX mit einem GB GDDR4, und die XT mit 512MB GDDR3, vermutlich etwas niedriger getaktet. Der Coretakt sollte allerdings identisch sein. Spricht trotzdem nichts gegen die XTX, wenn einem 512MB VRAM zu wenig sind, außer vielleicht der Preis, aber für die doppelte VRAM-Menge musste man schon immer zahlen.
Ich glaube du hast mich nicht ganz verstanden. Ich würde es begrüßen wenn es eine X2900XT mit 1GB GDDR3 Vram geben würde. Und nicht nur eine X2900XTX mit 1GB GDDR4.
Dazu bräuchte ATI aber wiederum ein anderes PCB für die X2900XT 1GB weil GDDR3 nicht pinkompatibel zu GDDR4 ist.
Durch den GDDR4 könnte der Stromverbrauch sogar niedriger sein als bei der XT.
Das hängt von dem Taktunterschied zwischen GDDR3 und GDDR4 ab. Wenn der GDDR4 Vram mit 250-300Mhz höher taktet verpufft der Vorteil beim Stromverbrauch.
deekey777
2007-03-24, 12:42:00
war (für mich) ziemlich missverständlich, ja. Einfach weil der Nebensatz unnötig war.
Kann ich mir auch gut vorstellen, wobei .. gab es jemals soviele High End Modelle von einem Hersteller?! :uponder:
Es gab von ATi eine X1900XTX mit 512 MB, eine X1900XT mit 512 MB und nach einer Riesenverzögerung eine X1900XT 256 MB. Dazu kommt noch die X1900AIW/X1900GTAIW und die X1900GT.
Andererseits ist eine X2900 mit 512 MB und GDDR4 unmöglich. ;( Es gibt bei Samsung nur 512-Mbit-Chips. Für eine Version mit 512 MB und 512bit-SI braucht man 16 Chips.
reunion
2007-03-24, 12:42:19
Ich glaube du hast mich nicht ganz verstanden. Ich würde es begrüßen wenn es eine X2900XT mit 1GB GDDR3 Vram geben würde. Und nicht nur eine X2900XTX mit 1GB GDDR4.
Dazu bräuchte ATI aber wiederum ein anderes PCB für die X2900XT 1GB weil GDDR3 nicht pinkompatibel zu GDDR4 ist.
Ich habe dich in der Tat falsch verstanden. Bleibt nur eine Frage: was erhoffst du dir von einer XT mit einem GB GDDR3, was du von der XTX nicht haben kannst? Zumal der Coretakt vermutlich sogar identisch sein soll.
Ich habe dich in der Tat falsch verstanden. Blbibt nur eine Frage: was erhoffst du dir von einer XT mit einem GB GDDR3, was du von der XTX nicht haben kannst?Einen billigeren Preis? ;)
dargo
2007-03-24, 12:44:58
Bleibt nur eine Frage: was erhoffst du dir von einer XT mit einem GB GDDR3, was du von der XTX nicht haben kannst? Zumal der Coretakt vermutlich sogar identisch sein soll.
Einen günstigeren Preis und zwei ATI Produkte mit >512MB Vram.
reunion
2007-03-24, 12:49:14
Das ist natürlich ein Argument. Allerdings hat man dann ganz schnell eine Unzahl an verschiedenen Produkten alleine im High-End-Bereich, wo man noch dazu für GDDR4 ein anderes Platinenlayout benötigt. Ich denke ATi fährt so am besten, zumal eine GDDR3-Variante mit einem GB VRAM sicherlich auch nur marginal billiger wäre. Auch der Performanceunterschied wäre durch das 512-bit SI in den meisten Fällen gleich null, was die XTX natürlich sehr unattraktiv machen würde. So hat man eben den Vorteil der doppelten VRAM-Menge.
mapel110
2007-03-24, 12:51:02
Einen günstigeren Preis und zwei ATI Produkte mit >512MB Vram.
Ich bezweifle, dass der Speicher viel vom Endpreis ausmacht. Und nvidia hat sicher zu GDDR3 gegriffen, weil es in größeren Mengen verfügbar war. Imo der einzige, echte Grund.
Es gab Gerüchte, wonach dies durch die clock domains nicht zuverlässig funktionieren würde.
es könnte zu irgendwelchen instabilitäten führen, NV ist da eben bei einer neuen generation vorsichtig, genauso wie beim NV40, der im gegensatz zu den nachfolgenden produkten auf gleicher basis standardmäßig auch keinen 2D-modus hatte.
man braucht eben langzeiterfahrung mit dem neuen design, und die hat es zum 8800er-start noch nicht gegeben.
eXistence
2007-03-24, 13:03:11
es könnte zu irgendwelchen instabilitäten führen, NV ist da eben bei einer neuen generation vorsichtig, genauso wie beim NV40, der im gegensatz zu den nachfolgenden produkten auf gleicher basis standardmäßig auch keinen 2D-modus hatte.
man braucht eben langzeiterfahrung mit dem neuen design, und die hat es zum 8800er-start noch nicht gegeben.
OT:
aber selbstverständlich hatte der NV40 einen 2D-Modus. (die ersten Karten wurden allerdings teilweise mit nem fehlerhaften BIOS ausgeliefert, das regelmäßig Freezes verursachte, wenn zwischen 2D und 3D umgeschaltet wurde, mit dem richtigen BIOS flutschte das aber auch)
OT:
aber selbstverständlich hatte der NV40 einen 2D-Modus. (die ersten Karten wurden allerdings teilweise mit nem fehlerhaften BIOS ausgeliefert, das regelmäßig Freezes verursachte, wenn zwischen 2D und 3D umgeschaltet wurde, mit dem richtigen BIOS flutschte das aber auch)
aber standardmäßig hatte der die gleichen taktraten wie der 3D-modus.
dass man mit RivaTuner oder einem anderen bios auch "echte" 2D-taktraten einstellen konnte ist ja außer zweifel, das geht ja beim G80 auch.
dargo
2007-03-24, 13:07:33
Allerdings hat man dann ganz schnell eine Unzahl an verschiedenen Produkten alleine im High-End-Bereich, wo man noch dazu für GDDR4 ein anderes Platinenlayout benötigt.
Mir erscheint die X2900XT etwas unattraktiv mit den 512MB Vram (erst recht wenn die GPU gleich schnell getaktet werden sollte wie die XTX). Denn ein schneller R600 fühlt sich erst in hohen Auflösungen + viel AA wohl. Ich denke da an Bereiche von 1680x1050 mit 8xAA. Einige Spiele werden die 512MB schon überschreiten. Und bei neuen Spielen die erst kommen wird es zum grossen Teil sicherlich nicht besser aussehen.
Das 512Bit SI hat also nicht nur Vorteile. Wenn man mich fragt, wäre es besser wenn ATI ebenfalls ein 384Bit SI rausbringen würde und eben eine Graka mit 768MB Vram (von mir aus mit schnelleren GDDR4 um auf mehr Bandbreite zu kommen). Mit 1,2Ghz wäre man da auch schon bei 115,2GB/s.
aber standardmäßig hatte der die gleichen taktraten wie der 3D-modus.
Die Vcore war aber beim NV40 in Idle geringer. Afaik warens bei der G6800NU 1,1V in Idle und 1,3V bei Last.
puntarenas
2007-03-24, 13:24:14
Denn ein schneller R600 fühlt sich erst in hohen Auflösungen + viel AA wohl.
Das hast du schön gesagt, ich geh jetzt meine Grafikkarte streicheln :D
Das 512Bit SI hat also nicht nur Vorteile. Wenn man mich fragt, wäre es besser wenn ATI ebenfalls ein 384Bit SI rausbringen würde und eben eine Graka mit 768MB Vram
Am Ende zählt für mich, inwieweit die "überflüssigen" 256MB auf den Preis durchschlagen. Schade fände ich aber sehr wohl, wenn ATI (aus Preisgründen oder einfach nur zur Positionierung in der Modellreihe) auf eine 2900XT mit 1GB verzichtet und man so nur mit einer 2900XTX an eine Karte mit großzügigem VRam kommt. Ob allerdings die preisliche Differnz im Einkauf und Verbauen zwischen 768MB und 1GB wirklich so schwer ins Gewicht fällt, dass eine 2900XT mit vollem Speicher nicht machbar wäre, wage ich zu bezweifeln. ATI muss nur wollen :)
reunion
2007-03-24, 13:30:36
Ich verstehe noch immer nicht, was ihr euch von einer XT mit einem GB GDDR3 erwartet. Der Coretakt soll mit der XTX identisch sein, einzig der Speicher wird sich unterschieden. Eine XT mit einem GB GDDR3 würde also vermutlich so ziemlich genau das gleiche kosten wie die XTX. Sinn?
dargo
2007-03-24, 13:47:11
Ich verstehe noch immer nicht, was ihr euch von einer XT mit einem GB GDDR3 erwartet. Der Coretakt soll mit der XTX identisch sein, einzig der Speicher wird sich unterschieden. Eine XT mit einem GB GDDR3 würde also vermutlich so ziemlich genau das gleiche kosten wie die XTX. Sinn?
Denke mal in die andere Richtung:
X2900XT 512MB
G8800GTS 640MB
Nehmen wir mal an die XT ist von der Rohleistung schneller als die GTS. Der XT fehlt einfach etwas an Vram.
Das hast du schön gesagt, ich geh jetzt meine Grafikkarte streicheln :D
Sag bloss du hast schon einen R600. :D
sklave_gottes
2007-03-24, 14:09:24
Denke mal in die andere Richtung:
X2900XT 512MB
G8800GTS 640MB
Nehmen wir mal an die XT ist von der Rohleistung schneller als die GTS. Der XT fehlt einfach etwas an Vram.
@dargo
Also was ich so in den letzten test gesehen habe geht der 8800gts 320MB eher der speicher aus als der x1900xt 256MB.
Also einfach mal abwarten. Ich glaube nicht das zwischen der 512MB und der 1GB so ein grosser unterschied sein wird.
mapel110
2007-03-24, 14:18:59
@dargo
Also was ich so in den letzten test gesehen habe geht der 8800gts 320MB eher der speicher aus als der x1900xt 256MB.
Also einfach mal abwarten. Ich glaube nicht das zwischen der 512MB und der 1GB so ein grosser unterschied sein wird.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/9/#abschnitt_call_of_duty_2
liegt wohl an der AA-Methode von nvidia. Ohne AA verliert die 1900er mehr bei hohem Speicherverbrauch des Games.
Aber du hast schon recht. Bei ATI macht die Speichermenge nicht so viel aus. Ohne AA zockt man ja heutzutage mit High End Hardware eh nicht.
Die Vcore war aber beim NV40 in Idle geringer. Afaik warens bei der G6800NU 1,1V in Idle und 1,3V bei Last.
nö war es nicht (zumindest nicht am anfang), die 6800Ultra hatte 1,4V, die GT 1,3V, die 6800 1,2V, die 6800LE 1,1V oder 1,2V.
vielleicht hatte man bei den späteren NV41-basierenden 6800/6800LE-modellen einen echten 2D-modus eingeführt, das weiß ich nicht, bei den ersten NV40-basierenden modellen gab es jedenfalls keinen echten 2D-modus.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/9/#abschnitt_call_of_duty_2
liegt wohl an der AA-Methode von nvidia. Ohne AA verliert die 1900er mehr bei hohem Speicherverbrauch des Games.
Das definitiv ein Treiberbug oder warum sollte in 1600x1200 4xAA/16xAF die GTS 320 hinter einer 7900GS liegen. ;)
Moralelastix
2007-03-24, 15:07:13
Dann war das wohl eine "billige" Ausrede. Mit dem ATI Tool geht das hervorragend. Ich muss zwar dann immer manuell die Profile wechseln. Aber besser als gar nichts.
...
Aber kannste die Spannung auch ändern?
dargo
2007-03-24, 15:09:13
@dargo
Also was ich so in den letzten test gesehen habe geht der 8800gts 320MB eher der speicher aus als der x1900xt 256MB.
Also einfach mal abwarten. Ich glaube nicht das zwischen der 512MB und der 1GB so ein grosser unterschied sein wird.
Das stimmt nicht, dachte ich auch zuerst. Deswegen hatte ich diesen Thread aufgemacht:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=352877
Schau dir mal die min. fps an. Ich würde grundsätzlich mittlerweile zu Karten mit mehr Vram raten. Selbst bei einer X1950Pro noch zu 512MB. Bei schwächeren Grakas ist man mit 256MB gut bedient.
nö war es nicht (zumindest nicht am anfang), die 6800Ultra hatte 1,4V, die GT 1,3V, die 6800 1,2V, die 6800LE 1,1V oder 1,2V.
Stimmt, wenn man sich die Verlustleistung einer G6800NU anschaut war bei dieser Karte auch keine Spannungssenkung in Idle nötig:
http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_4.html
Aber kannste die Spannung auch ändern?
Nein, leider nicht. Das wäre auch viel wichtiger als reine Taktsenkung.
Ich finds lustig, das hier schon darüber diskutiert wird, das 512MB nicht mehr ausreichen;)
Die werden sicher ausreichen, die nächsten paar Jahre. Zum einen kann sich kein Entwickler erlauben am Massenmarkt vorbei zu entwickeln und zum anderen halten sich die Steigerungen in Grenzen.
Schon in der Vorgängergeneration wurde 1920x1200 bei 4x AA genutzt, da reichte diese Menge locker.
Was wollt ihr denn noch? Selbst für 6xAA sollt es noch reichen, denn die Auflösung steigt nur noch marginal/gar nicht.
Alles darüber ist sowieso nur für Käufer von 30" TFT interessant und die haben dann auch das Geld, sich eine oder zwei High End Karten zu kaufen, bzw. sollten es von Anfang an gewusst haben, das sie es müssen, wenn sie solche Auflösungen nutzen.
Dazu kommt, das die Architektur gar nicht bekannt ist. In der vorherigen Generation wurden die ATI Karten in hohen Auflösungen und Qualitätssettings besser und verloren weniger an Leistung. Wie das zustande kam, wissen die wenigsten. Gewisse Optimierungen an der Architektur helfen schon einiges, wer weiß was da kommt!
dargo
2007-03-24, 15:20:17
Ich finds lustig, das hier schon darüber diskutiert wird, das 512MB nicht mehr ausreichen;)
Die werden sicher ausreichen, die nächsten paar Jahre. Zum einen kann sich kein Entwickler erlauben am Massenmarkt vorbei zu entwickeln und zum anderen halten sich die Steigerungen in Grenzen.
Wollen wir wetten? ;)
Du sprichst auch vom Massenmarkt. Dieser spielt bestimmt nicht in 1680x1050 mit 8xAA bzw. 1920x1200 4xAA. Die Masse nimmt immer noch 1280x1024 4xAA, bzw. 1xAA. Und dafür reichen selbstverständlich 512MB Vram. Wir reden hier aber von einem XT/XTX Kaliber. In 1280x1024 4xAA wird sich die Karte nahezu langweilen.
nö war es nicht (zumindest nicht am anfang), die 6800Ultra hatte 1,4V, die GT 1,3V, die 6800 1,2V, die 6800LE 1,1V oder 1,2V.
vielleicht hatte man bei den späteren NV41-basierenden 6800/6800LE-modellen einen echten 2D-modus eingeführt, das weiß ich nicht, bei den ersten NV40-basierenden modellen gab es jedenfalls keinen echten 2D-modus.
Später gab es afaik auch keinen. Was allerdings natürlich ging, war die Spannung manuell zwischen den Werten 1,1; 1,2; 1,3 und 1,4 zu verändern.
Bei der heutigen GTS und GTX würde ich schon fast meinen Arsch drauf verwetten, dass es nie eine Spannungsabsenkung geben wird. Bei einer neuen Ultra könnte es mir schon vorstellen, dass nV ein paar Euro für ne Schaltung auf dem PCB investiert um verschiedene Spannungen zu ermöglichen. Hätten dann neben der gestiegenen Leistung einen weiteres Verkaufsargument.
Wollen wir wetten? ;)
Ja.
Du sprichst auch vom Massenmarkt.
Massenmarkt ist 1920x1200 sicher noch nicht. Solche Auflösungen sind nur Besitzern von qualitäts CRTs oder >23" TFTs vorbehalten.
Wir reden hier aber von einem XT/XTX Kaliber. In 1280x1024 4xAA wird sich die Karte nahezu langweilen.
Wo willst du denn noch hin? 1920x1200 ist kurz vor dem oberen Limit. Danach kommt nur noch 2560x1600, welches eine sehr geringe Verbreitung hat und solche Käufer kaufen generell High End oder CF.
Ich kann mich nur wiederholen, VRAM ist nicht alles. Selbst wenn irgendeines bescheidenes Tool 600MB Verbrauch anzeigen sollte, bedeutet dies nicht, das es zu Einbußen kommt. Es kommt darauf an, wieviel davon aktiv genutzt werden.
Das >512MB allein kein Allheilmittel sind, ist klar zu sehen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/9/#abschnitt_anno_1701
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/11/#abschnitt_call_of_duty_2
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/13/#abschnitt_company_of_heroes
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/17/#abschnitt_oblivion
etc.
Wenn ihr meint, das VRAM alles sei, warum sägt dann die eigentlich langsamere und schlechter ausgestattete X1950XTX selbst bei 2560x1600 trotz ihrer 512MB an der 8800GTS 640?
Die GTX ist mit ihren 768MB auch nicht wirklich schneller, sondern setzt lediglich die vorhandene Mehrpower um. Ein klares Indiz dafür, das der VRAM noch nicht genutzt wird.
Und wenn das schätzungsweise nächstes Jahr tut, gibt es schon 1,2,3 Refreshkarten mit womöglich standardmäßig 1 GB. Wer weiß. :)
Wie aus gewöhnlich gut informierten Kreisen verlautet:
23. April ist der Launch für Presse&Co, 2 Wo. später Lieferung!
Hauwech
2007-03-24, 15:36:53
Dazu muss man allerdings auch sagen, dass die Treiberentwicklung bei R(V)5xx und G7x doch sehr weit fortgeschritten ist, während sie für R(V)6xx und auch G8x noch am Anfang steht. Kann mir gut vorstellen, dass im Laufe der Zeit der Unterschied zwischen 1950XTX und 8800GTS zugunsten der 88er zunehmen wird.
horn 12
2007-03-24, 15:38:12
@Up
Kannst du dies zu 100 Prozent garantieren?
Dies wäre sicherlich ein Image Schaden für A/A. Hoffe das dem nicht so ist, denn dies wäre ein Paperlauch ähnlich wie bei NV am 8 November 2006.
Dann sollten sie doch lieber auf den 7/ 8 Mai als Release warten.
Werde mir sowieso nur die X2900 XL 512 MB kaufen, welche wohl die 8800 GTS als Gegenpart sieht. Hoffe die ATI zieht dieser davon.
boxleitnerb
2007-03-24, 15:43:48
Mehr VRAM ist immer gut. Wenn man detaillierte Texturen haben will, ist der Speicher schnell voll. Es gibt für Oblivion ein paar nette Texturmods, die den Speicherverbrauch an die 700MB hochtreiben. Dem ist nur eine GTX gewachsen. 512MB sind bei einer neuen Karte von dem Kaliber einfach zu wenig.
Mehr VRAM ist immer gut. Wenn man detaillierte Texturen haben will, ist der Speicher schnell voll. Es gibt für Oblivion ein paar nette Texturmods, die den Speicherverbrauch an die 700MB hochtreiben. Dem ist nur eine GTX gewachsen. 512MB sind bei einer neuen Karte von dem Kaliber einfach zu wenig.
VRAM Verbrauch hat nichts, ich wiederhole, rein gar nichts mit der am Ende ankommenden Leistung zu tun !!!
Liefer erstmal praxistaugliche Benchmark für deine These.
Zudem ist ein Vergleich zwischen zwei Herstellern humbug. Andere Architektur, andere Ergebnisse.
Mehr VRAM ist immer gut. Wenn man detaillierte Texturen haben will, ist der Speicher schnell voll. Es gibt für Oblivion ein paar nette Texturmods, die den Speicherverbrauch an die 700MB hochtreiben. Dem ist nur eine GTX gewachsen. 512MB sind bei einer neuen Karte von dem Kaliber einfach zu wenig.
Das sehe ich anders.
boxleitnerb
2007-03-24, 15:51:44
Dann erklär mir mal bitte, was genau passiert, wenn ich ein Spiel auf Karte mit X MB VRAM spiele, das 1.5*X MB verbraucht. Es wird ruckeln, und das schlägt sich sehr wohl auf die am Ende ankommende Leistung nieder!
Dann erklär mir mal bitte, was genau passiert, wenn ich ein Spiel auf Karte mit X MB VRAM spiele, das 1.5*X MB verbraucht. Es wird ruckeln, und das schlägt sich sehr wohl auf die am Ende ankommende Leistung nieder!
Nein, das ist nicht so. Außerdem lässt sich das pauschal nicht sagen. Es hängt davon ab, wie ATI, nVidia und die Spieleentwickler vorgegangen sind.
Es ist durchaus üblich, das Texturen geladen sind, obwohl sie aktuell nicht genutzt werden. Folglich kann daraus kein Performancenachteil entstehen.
@Up
Kannst du dies zu 100 Prozent garantieren?
Dies wäre sicherlich ein Image Schaden für A/A. Hoffe das dem nicht so ist, denn dies wäre ein Paperlauch ähnlich wie bei NV am 8 November 2006.
Dann sollten sie doch lieber auf den 7/ 8 Mai als Release warten.
Werde mir sowieso nur die X2900 XL 512 MB kaufen, welche wohl die 8800 GTS als Gegenpart sieht. Hoffe die ATI zieht dieser davon.
Halte die quelle für zuverlässig, garantieren kann keiner was :wink:
A/A werkelt ja an der "Mutter aller Launches" - was soll man dazu sagen. am besten nix mehr und abwarten!
dargo
2007-03-24, 16:02:22
Ja.
Call of Duty 2 mit max. Details - DDay_Timedemo
800x600 16xQ-CSAA/16xAF = 417MB
1024x768 16xQ-CSAA/16xAF = 452MB
1280x1024 4xAA/16xAF = 450MB
1280x1024 8xQ-AA/16xAF = 474MB
1280x1024 16xQ-CSAA/16xAF = 516MB
Von dem Vram Verbrauch gehen immer ~44MB auf den Arbeitsspeicher.
In 1680x1050 mit 8xAA wirds schon eng. Und was passiert wenns eng wird habe ich schon verlinkt. Außerdem ist CoD2 nicht das Game was am meisten Vram verschlingt.
Ich kann mich nur wiederholen, VRAM ist nicht alles.
Das sicherlich. Wenn die Rohleistung für hohe Auflösung + viel AA nicht reicht nützt mehr Vram auch nichts, das ist klar.
Selbst wenn irgendeines bescheidenes Tool 600MB Verbrauch anzeigen sollte, bedeutet dies nicht, das es zu Einbußen kommt. Es kommt darauf an, wieviel davon aktiv genutzt werden.
Richtig, in meinem Fall ~44MB vom Arbeitsspeicher.
Das >512MB allein kein Allheilmittel sind, ist klar zu sehen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/9/#abschnitt_anno_1701
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/11/#abschnitt_call_of_duty_2
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/13/#abschnitt_company_of_heroes
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/17/#abschnitt_oblivion
etc.
Die Benchmarks von CB sind leider unbrauchbar. Denn die kritischen Situationen (min. fps) erfasst CB gar nicht.
Wenn ihr meint, das VRAM alles sei, warum sägt dann die eigentlich langsamere und schlechter ausgestattete X1950XTX selbst bei 2560x1600 trotz ihrer 512MB an der 8800GTS 640?
Höchstwahrscheinlich weil CB mit TSAA und AAA bencht. Und wenn du damit Anno 1701 in 2560x1600 4xAA/16xAF meinst
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/9/#abschnitt_anno_1701
frage ich mich was dieser Vergleich überhaupt soll? Die 7-8 fps sind auch schön flüßig spielbar. :rolleyes:
Von dem Vram Verbrauch gehen immer ~44MB auf den Arbeitsspeicher.
In 1680x1050 mit 8xAA wirds schon eng. Und was passiert wenns eng wird habe ich schon verlinkt. Außerdem ist CoD2 nicht das Game was am meisten Vram verschlingt.
Völlig wertlos diese Zahlen, denn wo ist zu sehen, wieviel aktiv genutzt werden?
Deine These hat einen gehörigen Haken: In 2560x1600 4xAA ist die X1950XTX trotz ihrer 512MB nicht langsamer als die GTS640.
Wie kann das bloß sein? ;D
Deiner Auflistung nach ist das unmöglich, da die Auflösung erheblich höher ist und der Verbrauch schon vorher nahe der Grenze lag.
Die Benchmarks von CB sind leider unbrauchbar. Denn die kritischen Situationen (min. fps) erfasst CB gar nicht.
min fps können auch CPU Limits sein. Das muss man speziell ausloten, nicht einfach auf irgendwelche Werte schauen.
Am besten wäre ein mitgeloggtes framediagramm.
frage ich mich was dieser Vergleich überhaupt soll? Die 7-8 fps sind auch schön flüßig spielbar. :rolleyes:
Das tut nichts zur Sache. Mit zwei dieser Karten ist es spielbar und darauf kommt es an und das obwohl sie 512MB haben.
dargo
2007-03-24, 16:17:47
Völlig wertlos diese Zahlen, denn wo ist zu sehen, wieviel aktiv genutzt werden?
Könntest du bitte auch meine Links lesen?
Nochmal für dich:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5318178&postcount=11
Die Diagramme der 256MB X1900XT habe ich noch nicht fertiggestellt. Die Frames kann man aber ablesen.
Deine These hat einen gehörigen Haken: In 2560x1600 4xAA ist die X1950XTX trotz ihrer 512MB nicht langsamer als die GTS640.
Wie kann das bloß sein? ;D
Nochmal für dich:
Höchstwahrscheinlich weil CB mit TSAA und AAA bencht.
Schau dir andere Benchmarks ohne TSAA und AAA an.
min fps können auch CPU Limits sein. Das muss man speziell ausloten, nicht einfach auf irgendwelche Werte schauen.
Am besten wäre ein mitgeloggtes framediagramm.
Was für CPU Limit?
Bei dem Link von mir wurden im Prinzip gleiche Systeme verglichen. Einmal eine X1900XT 256MB und X1900XT 512MB.
Das tut nichts zur Sache. Mit zwei dieser Karten ist es spielbar und darauf kommt es an und das obwohl sie 512MB haben.
Und ob es zur Sache tut. Seit wann sind 8fps spielbar? :|
Könntest du bitte auch meine Links lesen?
Völlig wertlos diese Links, denn wir reden hier von 512MB vs. 640,768,1024MB und nicht weniger. Das ein gewisser Grundstock nötig ist, erklärt sich von selbst. Der liegt aber nicht allzu hoch, weil die Masse an Karten mit weniger daher kommt und sich der Markt daran orientiert.
Liefer doch erstmal Benches mit der gleichen Karte und 512, 768, 1024MB. Viel Spaß, gibt es nämlich noch nicht. :)
Den bisherigen Benchmark nach, war bisher nirgendwo ein überdeutlicher Vorteil von 640, 768MB Karten zu ermitteln. Der Unterschied kam fast ausnahmslos durch die höhere Rohpower zustande.
Und ob es zur Sache tut. Seit wann sind 8fps spielbar? :|
Was ist daran so schwer zu verstehen, das man zwei 512MB kombinieren kann und so die Leistung durch SLI; CF deutlich erhöht?
Je nach Genre sind 15-20fps sehr wohl ausreichend. Bei einem rundenbasiertem Strategiespiel sind mir die frames schlichtweg egal.
dargo
2007-03-24, 16:42:38
Völlig wertlos diese Links, denn wir reden hier von 512MB vs. 640,768,1024MB und nicht weniger.
Anscheinend kannst du doch nicht lesen. Bei dem Test mit extra Texturen wurden auf beiden Systemen! 356MB Vram inkl. Arbeitsspeicheranteil (der meist bei ~44MB liegt) gebraucht (steht ebenfalls im Link). Macht bei mir 100MB über der X1900XT 256MB.
Nimmst du also eine Auflösung + AA Stufe wo 612MB Vram bei einer 512MB Graka benötigt werden kommt es ebenfalls zu starken Einbrüchen (und dazu sind selbst keine 100MB über max. nötig).
Außerdem geht es hier eher um eine G8800GTX 768MB gegen X2900XT 512MB. Da kommt die Geforce noch später an ihr Limit was den Vram angeht.
Liefer doch erstmal Benches mit der gleichen Karte und 512, 768, 1024MB. Viel Spaß, gibt es nämlich noch nicht. :)
Wenn du mir eine X2900XT 512MB und eine X2900XTX 1GB schenkst, gerne. ;)
Die XTX kann man dann mit den gleichen Taktraten wie die XT betreiben (sollten sich Diese unterscheiden).
Was ist daran so schwer zu verstehen, das man zwei 512MB kombinieren kann und so die Leistung durch SLI; CF deutlich erhöht?
Hehe, bei SLI/CF ist es noch viel schlimmer. Man verdoppelt fast die Leistung, nicht aber den Vram. ;)
Je nach Genre sind 15-20fps sehr wohl ausreichend.
Na klar, viel Spass mit 15-20fps bei einem Shooter.
Anscheinend kannst du doch nicht lesen.
Das lass mal meine Sorge sein, ich gebe nichts auf wilde Spekulationen.
Wenn wir jetzt mal rechnen:
640MB-100MB=540MB
Nimmst du also eine Auflösung + AA Stufe wo mehr als 612MB Vram benötigt werden kommt es ebenfalls zu starken Einbrüchen (und dazu sind selbst keine 100MB über max. nötig).
Das ist arg theoretisch und nicht einfach 1:1 auf die Praxis übertragbar. Genau wie Betriebssysteme zusätzlichem RAM nutzen wenn er da ist, können auch Treiber und Spieleentwickler so vorgegangen sein, das erst bei größeren Mengen VRAM freigeschaufelt bzw. wieder freigegeben wird.
Gewissheit bietet die Theorie nicht.
Die XTX kann man dann mit den gleichen Taktraten wie die XT betreiben (sollten sich Diese unterscheiden).
So wird es hoffentlich sein, damit wäre ein erster direkter Vergleich ohne Architekturunterschiede möglich.
Hehe, bei SLI/CF ist es noch viel schlimmer. Man verdoppelt fast die Leistung, nicht aber den Vram. ;)
Wie die Leistung zustande kommt, interessiert schlichtweg nicht, solange sie in vernünftigen frameraten resultiert.
dargo
2007-03-24, 17:01:07
Das lass mal meine Sorge sein, ich gebe nichts auf wilde Spekulationen.
Was für Spekulationen ???
Ich liefere dir Benchmarks, du mir im Gegenbeispiel gar nichts außer unbrauchbare Benchmarks der CB. Beweise mir erstmal das Gegenteil dann können wir uns über dieses Thema weiter unterhalten. In Zukunft werde ich versuchen jemanden mit einer 320MB G8800GTS zu finden. Dann kann ich mit dem jenigen meine 640MB GTS vergleichen.
Das ist arg theoretisch und nicht einfach 1:1 auf die Praxis übertragbar. Genau wie Betriebssysteme zusätzlichem RAM nutzen wenn er da ist, können auch Treiber und Spieleentwickler so vorgegangen sein, das erst bei größeren Mengen VRAM freigeschaufelt bzw. wieder freigegeben wird.
Gewissheit bietet die Theorie nicht.
Du mit deiner Theorie, ich lach mich gleich weg. Nur mal zur Info, es wurde auch in beiden Fällen der Cat. 7.2 benutzt.
So wird es hoffentlich sein, damit wäre ein erster direkter Vergleich ohne Architekturunterschiede möglich.
Ja, genau. Die X1900XT 256 und X1900Xt 512 haben auch unterschiedliche Architekturen. :ugly:
Wie die Leistung zustande kommt, interessiert schlichtweg nicht, solange sie in vernünftigen frameraten resultiert.
Dann denke mal an 2x G8800GTS 320MB im SLI Verbund. Sag mir mal welchen Sinn so eine Kombination überhaupt machen sollte. Leistung > G8800GTX und dann krepiert diese Kombination an 320MB Vram Begrenzung. :uhammer:
Das >512MB allein kein Allheilmittel sind, ist klar zu sehen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/9/#abschnitt_anno_1701
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/11/#abschnitt_call_of_duty_2
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/13/#abschnitt_company_of_heroes
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/17/#abschnitt_oblivion
etc.
Mit Computerbase Benchmarks brauchste nicht antanzen, da ist nur sicher das das TSSAA/TMSAA viel an den Benchmarks verfälscht.
4xAA/8xAA Benches ohne die Transparency AA Modi ist viel interessanter, da unabhängiger. Du kannst in Serious Sam2 jede Grafikkarte (auch mit SLI) an die Wand fahren wenn du TSSAA aktivierts... Hat aber rein gar nichts mit dem GrakaRam verbrauch zu tun...
Das GrakaRam doch etwas am Preis ausmacht sieht man an den beiden GTS Karten, 50€ immerhin *g
XTX: 1GB (max Clockrate)
XT: 512MB / 1GB? (50MHz darunter)
XL: 256B / 512MB (Ein Quad deaktiviert, XT Takt ggf.)
Is die Frage ob AMD einen Markt für die XT-1GB sieht, vieleicht setzt man sie gegen die GTX und die XT-512MB gegen die GTS. Die XTX muss es dann mit der Ultra aufnehmen, deren Leistung ja quasi schon gebencht ist (eVGA hat ja eine 625/1600/1000) Karte.
Zumindest kann man über die Ram Größe ja ein Preissegment erstellen.
XTX=600€ / XT-1GB=500€ / XT-512MB=450€
Was für Spekulationen ???
Das du versuchst, aus 256vs512 einen Vergleich zwischen 512MB und >512MB zu ziehen, welcher humbug ist.
Ich liefere dir Benchmarks
Du hast mir keine Benchmarks geliefert, die zur Diskussion gepasst haben.
Stattdessen kam nur viel Offtopic.
du mir im Gegenbeispiel gar nichts außer unbrauchbare Benchmarks der CB.
Welche sich ausschließlich auf hohe Auflösungen und 512 vs >512MB beschränkt haben, was genau dem Teil meiner Diskussion trifft, den ich angefangen habe.
Du mit deiner Theorie, ich lach mich gleich weg.
Welche Theorie? Ich hatte nie eine. Vielleicht solltest du die Texte erstmal richtig intepretieren. Ich sagte, das deine Theorie, die du versuchst hast, von einem Test auf einem ganz anders gelagerten Fall zu übertragen, nicht die Realität abbildet.
Ja, genau. Die X1900XT 256 und X1900Xt 512 haben auch unterschiedliche Architekturen. :ugly:
Offensichtlich hast du Schwierigkeit zu verstehen, das es hier nicht um Karten mit weniger als 512MB geht.
1680*1050 bei 4xAA sollte mit einer 512MB Karte ohne Leistungsabfall aufgrund der RAM Größe immer machbar sein.
Es sei denn das Spiel frisst in max Details schon in der VGA Auflösung mehr als 512MB. Beispiel wäre wohl FEAR Extraction Point, http://www.forum-3dcenter.org/vbulletin/showthread.php?t=298823
Gut zu benchen sollte Dark Messiah of Might and Magic gehen, HL2 Engine, da brauch es bei 1680*1050 grade so 500MB Ram, wenn man 4xAA und mehr dazuschaltet, sollten die Karten nicht so stark einbrechen aufgrund ihrer hohen Füllrate.
Ich gebe zu das wird etwas schwer sein am anfang auszutesten, macht die Karte in einem Benchmark jetzt schlapp weil der RAM ausgeht oder weil die Füllrate wegbricht. Deswegen verfälscht TSAA (egal welcher Modus) diese Ergebnisse nur noch mehr, und somit sind CB Benchmarks für diese Betrachtung ungeeignet. Heist nicht das sie obsolet sind.
dargo
2007-03-24, 17:17:23
Mit Computerbase Benchmarks brauchste nicht antanzen, da ist nur sicher das das TSSAA/TMSAA viel an den Benchmarks verfälscht.
4xAA/8xAA Benches ohne die Transparency AA Modi ist viel interessanter, da unabhängiger. Du kannst in Serious Sam2 jede Grafikkarte (auch mit SLI) an die Wand fahren wenn du TSSAA aktivierts... Hat aber rein gar nichts mit dem GrakaRam verbrauch zu tun...
Danke für die ausführliche Erklärung. Das versuche ich schon die ganze Zeit dem anderen Gast zu erklären.
Zumindest kann man über die Ram Größe ja ein Preissegment erstellen.
XTX=600€ / XT-1GB=500€ / XT-512MB=450€
Ja, und hier ist eben das Problem. Dafür bräuchte ATI ein neues PCB. Oder meinst du 1GB GDDR4?
horn 12
2007-03-24, 17:19:02
Der Preis wäre zu hoch!
Wenn eine XT 512 gegen eine 8800 GTS antreten sollte, wird der Preis unter 400 Euro sein müssen, und nach 2-3 Wochen schon an der 350 Euro Marke.
Vielmehr gehe ich davon aus, dass die X2900 XL 650/800 daherkommt, mit wie bereist richtig gesagt ein Quad deaktiviert und dies zu einem Preis um die 330-370 Euro.
Die XT sehe ich schon eher als Konkurrent zur 8800 GTX, mit ca. 5-10% Mehrperformance. Die XTX wird sich wohl an der 8800 Ultra messen müssen, oder gar am G90.
A/A wird versuchen die XL als P/L König zu etablieren und hoffe die schaffen dies.
dargo
2007-03-24, 17:22:16
Das du versuchst, aus 256vs512 einen Vergleich zwischen 512MB und >512MB zu ziehen, welcher humbug ist.
Dieser Vergleich ist momenten fair einfach nicht möglich. Das weißt du genauso gut wie ich.
Offensichtlich hast du Schwierigkeit zu verstehen, das es hier nicht um Karten mit weniger als 512MB geht.
Und du hast offensichtlich Schwierigkeiten zu verstehen, dass sobald der Vram einer Graka im gewissen Masse überschritten wird es je nach Game zu starken Einbrüchen kommen kann.
"Leider" begrenzt mich mein TFT auf 1280x1024. Ich würde dir zugern beweisen, dass selbst meine 640MB GTS bei CoD2 stark einbricht sobald ihr der Vram ausgeht. Dazu bräuchte ich aber mindestens 1600x1200.
Der Preis wäre zu hoch!
Wenn eine XT 512 gegen eine 8800 GTS antreten sollte, wird der Preis unter 400 Euro sein müssen, und nach 2-3 Wochen schon an der 350 Euro Marke.
Vielmehr gehe ich davon aus, dass die X2900 XL 650/800 daherkommt, mit wie bereist richtig gesagt ein Quad deaktiviert und dies zu einem Preis um die 330-370 Euro.
Die XT sehe ich schon eher als Konkurrent zur 8800 GTX, mit ca. 5-10% Mehrperformance. Die XTX wird sich wohl an der 8800 Ultra messen müssen, oder gar am G90.
A/A wird versuchen die XL als P/L König zu etablieren und hoffe die schaffen dies.
Leider ist ja nicht bekannt was passiert wenn man ein Quad beim R600 abschaltet, was ist dann mit dem SI, kann man weiterhin 512Bit fahren, speckt man dann auf 384Bit ab oder ist man auf 256Bit gezwungen. Was wiederum eine höhere RAM Taktrate nach sich zieht, und GDDR3 langt da nicht. Muss also GDDR4 kommen, was dann nahelegen würde, das alle X2900 Series Karten mit GDDR4 kommen.
Dieser Vergleich ist momenten fair einfach nicht möglich. Das weißt du genauso gut wie ich.
Aus diesem Grunde sind die bisherigen Messungen deinerseits nicht relevant bei diesem anders gelagerten Thema.
Und du hast offensichtlich Schwierigkeiten zu verstehen, dass sobald der Vram einer Graka im gewissen Masse überschritten wird es je nach Game zu starken Einbrüchen kommen kann.
Das ist deine Theorie, aber wo liegt die Grenze? Das kannst du so pauschal nicht sagen, nur durch genaue Messungen jedes einzelnen Games herausfinden.
Wenn schon jetzt die ziemlich speicherhungrigen Games wie CoD2 oder CoH keine deutlichen Unterschiede hervorrbingen, wie lange dürfte es dann dauern, bis die Unterschiede bei >50% aller neuen Games zu sehen sind?
Das ist die einzig relevante Frage für mich.
Wenn die Karte in den nächsten 2 Jahren gut mit 512MB auskommt und nur in Ausnahmefällen andere Ergebnisse zeigt, dann hat sie ihr Soll mehr als erfüllt.
dargo
2007-03-24, 17:30:58
1680*1050 bei 4xAA sollte mit einer 512MB Karte ohne Leistungsabfall aufgrund der RAM Größe immer machbar sein.
Es sei denn das Spiel frisst in max Details schon in der VGA Auflösung mehr als 512MB. Beispiel wäre wohl FEAR Extraction Point, http://www.forum-3dcenter.org/vbulletin/showthread.php?t=298823
Hier muss man aber Einiges auseinander halten. Es gibt durchaus Spiele die den Vram unnötig auslasten. Zb. werden Texturen unnötig im Vram gehalten. Man sieht es daran, dass vergleichbare Grakas mit weniger Vram keine starken Einbrüche vorweisen. Wie sich FEAR da verhält weiß ich nicht. Es muss also nicht unbedingt bei jedem Game was mehr Vram verschlingt als max. der Graka vorhanden, zu starken Einbrüchen kommen.
Ich gebe zu das wird etwas schwer sein am anfang auszutesten, macht die Karte in einem Benchmark jetzt schlapp weil der RAM ausgeht oder weil die Füllrate wegbricht.
Das sollte man in der Regel gut erkennen können. Die min. Frames brechen zum Teil um größer 50% ein wenn der Vram ausgeht.
Kinman
2007-03-24, 17:32:02
Der Preis wäre zu hoch!
Wenn eine XT 512 gegen eine 8800 GTS antreten sollte, wird der Preis unter 400 Euro sein müssen, und nach 2-3 Wochen schon an der 350 Euro Marke.
Vielmehr gehe ich davon aus, dass die X2900 XL 650/800 daherkommt, mit wie bereist richtig gesagt ein Quad deaktiviert und dies zu einem Preis um die 330-370 Euro.
Die XT sehe ich schon eher als Konkurrent zur 8800 GTX, mit ca. 5-10% Mehrperformance. Die XTX wird sich wohl an der 8800 Ultra messen müssen, oder gar am G90.
A/A wird versuchen die XL als P/L König zu etablieren und hoffe die schaffen dies.
Wenn Sie probleme haben alle Chips auf XT/XTX Takt zu bekommen, denke ich, das die XL eher mit allen Pipes aber weitaus geringeren Takt daherkommt. Afair auch für die Temps besser, da ein deaktiverter Quad noch immer Saft zieht (hab ich mal gelesen, kann aber sein das die Info falsch war).
mfg Kinman
dargo
2007-03-24, 17:39:26
Wenn schon jetzt die ziemlich speicherhungrigen Games wie CoD2 oder CoH keine deutlichen Unterschiede hervorrbingen, wie lange dürfte es dann dauern, bis die Unterschiede bei >50% aller neuen Games zu sehen sind?
Das ist die einzig relevante Frage für mich.
Ich wollte damit doch nicht sagen, dass 512MB Vram für einen R600 grundsätzlich zu wenig sind. Um Gottes Willen. Ich wollte damit nur zum Ausdruck bringen, dass es bei einzelnen Games in sehr hoher Auflösung + viel AA in einigen Szenen eng werden kann. Dem kann man natürlich entgegenwirken, einfach eine Stufe weniger AA oder kleinere Auflösung wählen, oder eben die Texturdetails etwas reduzieren. Nur wenn man schon solche Abstriche bei einer 500-600€ Graka machen muss finde ich es nicht gerade toll. Und ich bin echt gespannt welche Texturen Crysis und UT3 nutzt.
Ich wollte damit doch nicht sagen, dass 512MB Vram für einen R600 grundsätzlich zu wenig sind. Um Gottes Willen. Ich wollte damit nur zum Ausdruck bringen, dass es bei einzelnen Games in sehr hoher Auflösung + viel AA in einigen Szenen eng werden kann. Dem kann man natürlich entgegenwirken, einfach eine Stufe weniger AA oder kleinere Auflösung wählen, oder eben die Texturdetails etwas reduzieren. Nur wenn man schon solche Abstriche bei einer 500-600€ Graka machen muss finde ich es nicht gerade toll. Und ich bin echt gespannt welche Texturen Crysis und UT3 nutzt.
Genau, unter Umständen sind 512MB RAM vieleicht zuwenig, da ja heutige Spiele auch schon darüber hinaus mehr brauchen, egal ob sauber Programmiert oder Speicherverschwender.
Und gerade beim "1 unter absolut Highend" denke ich das viele eine 1GB Karte da gerne hätten. Quasi alle die eine GTS gekauft haben oder damit geliebäugelt haben (oder auch nicht, die aber in das Segment fallen), denen war GTX zu teuer. Denen war auch eine X1900XTX zu teuer, die haben sich mit ner X1900XT oder 7950GT begnügt.
Gibt ja nen Poll hier, wann Grakas gewechselt werden ;) Jene die immer Top of the Pops sind und dann noch jene die quasi bei einer neuen Generation immer die hmm, 2. Karte kaufen.
Genau das ist die Käuferschicht der XT Serie (denke das sind sehr viele X1900 Besitzer die keine NV Karte haben möchten), und bei 1GB kann man da glaube ich eher Schwach werden.
Ich kann mich nur wiederholen, VRAM ist nicht alles. Selbst wenn irgendeines bescheidenes Tool 600MB Verbrauch anzeigen sollte, bedeutet dies nicht, das es zu Einbußen kommt. Es kommt darauf an, wieviel davon aktiv genutzt werden.
Das >512MB allein kein Allheilmittel sind, ist klar zu sehen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/13/#abschnitt_company_of_heroes
Wenn ihr meint, das VRAM alles sei, warum sägt dann die eigentlich langsamere und schlechter ausgestattete X1950XTX selbst bei 2560x1600 trotz ihrer 512MB an der 8800GTS 640?
Hier (meine Kürzung) hast du dein eigenes Argument erschlagen - oder wieso sollte eine GTX auf einmal doppelt so schnell wie eine GTS sein? VRAM ist, wenn es ausgeht, eben durch nichts zu ersetzen.
Deine These hat einen gehörigen Haken: In 2560x1600 4xAA ist die X1950XTX trotz ihrer 512MB nicht langsamer als die GTS640.
Wie kann das bloß sein? ;D
Ganz einfach: Auch 640 MByte sind noch zuwenig. Und wenn ich erstmal 100+ MByte pro Bild hin und herschieben muss, ist es auch nahezu egal, ob das nun 100 oder 150 sind.
Kommt auch dazu das in der Auflösung mit 4xAA die Speicherbandbreite und Füllrate extrem genutzt werden.
foenfrisur
2007-03-24, 18:46:18
(achtung, unnutzes posting)
toll, das hier mal wieder dialoge geführt werden^^
und ich dachte schon ich hätte was verpasst...
aber es ging hier die letzten 3 seiten nur um 512mb oder 1024mb vram, ja oder nein...
ich sage ja bei größeren karten und nein bei karten wie der fx 5200 ;) ...
mfg
(achtung, unnutzes posting)
toll, das hier mal wieder dialoge geführt werden^^
und ich dachte schon ich hätte was verpasst...
aber es ging hier die letzten 3 seiten nur um 512mb oder 1024mb vram, ja oder nein...
ich sage ja bei größeren karten und nein bei karten wie der fx 5200 ;) ...
mfg
(achtung, und noch ein unnützes Posting - aber das scheint hier ja nichts aus zu machen)
Ich hab selten meine Zeit so unnütz verschwendet, wie mit den letzten drei Seiten. Danke Jungs, danke.
Naja, schlappe 9700 zu 9500 3DM06-Punkte (16x12) für die R600. Und das bei krassen 800mhz. Irgendwas hat Nvidia mit der shader clock domain richtig gemacht ;)
OK- waren ja nur Betatreiber usw, aber für mich zeigt das schon mal ganz klar, daß die R600 den G80 auf keinen Fall "ownen" wird.
Ich schätze mal, die 8800GTX ULTRA und die X2900XTX werden auf ähnlichem Niveau sein- also eh so wie es immer war bei den beiden "Raufbolden" :)
Heißt für mich und einige andere hier: zurücklehnen und abwarten- schlimmstenfalls verkaufen wir unsere 8800GTX und holen uns Ultras. Aber auch das ist ned wirklich notwendig, denn moderne games hängen eh praktisch alle an der CPU, weniger an der GPU.
Bei Stalker zb langweilen sich meine 8800er zu Tode, weil sie immer auf die CPU warten müssen ;)
Was sagt schon 3DMark? Null und gar nichts. In Spielen könnte der R600 den G80 trotzdem 20-30 % distanzieren.
deekey777
2007-03-25, 13:15:52
Ich habe so ein Gefühl, dass man bei ATi/AMD sehnlichst auf 3D 2007 wartet.
3D 2007 soll mit D3D10-Unterstützung kommen, bei ATi entsteht der Eindruck, dass das D3D10 gegenüber dem G80 ihre Stärke ist.
Cleaner
2007-03-25, 13:26:10
Was sagt schon 3DMark? Null und gar nichts. In Spielen könnte der R600 den G80 trotzdem 20-30 % distanzieren.
genau,
ich weiss noch wo der G80 raus kam und ich locker ne 8800GTS mit ner 1950XTX weg gehauen hab, weil sie scheiss Treiber hatten, heute sieht da natürlich anders aus.
dargo
2007-03-25, 13:40:07
Ich habe so ein Gefühl, dass man bei ATi/AMD sehnlichst auf 3D 2007 wartet.
3D 2007 soll mit D3D10-Unterstützung kommen, bei ATi entsteht der Eindruck, dass das D3D10 gegenüber dem G80 ihre Stärke ist.
Sorry, aber das halte ich für Quatsch. Man lässt sich Markanteile vergreifen wegen 3DMark07? :|
So dämlich kann doch AMD/ATI gar nicht sein.
seahawk
2007-03-25, 14:18:09
Das macht schon Sinn, wenn der Unterschied im 07 mal 20%+ wäre, während es in realen Spiel nur 5-10% wäre.
Mr. Lolman
2007-03-25, 14:18:39
Wenn Ati mit ihrem EATM ihr AAA ablöst, dann gewinnen sie ohnehin alle (TRSSAA/AAA) Benchmarks. Oder man vergleicht ein fast wirkungsloses TRMSAA mit einem sehr schönem EATM.
BTW: Seit Cat. 7.2 ists am R580 schöner geworden. Vorher hab ich nur max. dem AA-Modus entsprechende Abstufungen gehabt (also max. 4 Stufen, bei 4xAA), jetzt sinds viel mehr...
Also wenn schon die Rohleistung keine Offenbahrung sein wird, dann hat man zumindest treiberseitig nen Vorteil (wenn sonst nichts schiefgeht)
Wenn Ati mit ihrem EATM ihr AAA ablöst, dann gewinnen sie ohnehin alle (TRSSAA/AAA) Benchmarks. Oder man vergleicht ein fast wirkungsloses TRMSAA mit einem sehr schönem EATM.Ich bezweifle, dass irgendeine seriöse Seite EATM gegen Transparenz-AA im Supersampling-Modus bencht. Auch wenn EATM eine feine Sache ist, kann man das nicht einfach mit TSSAA zusammen in ein Balkendiagramm packen.
Also wenn schon die Rohleistung keine Offenbahrung sein wird, dann hat man zumindest treiberseitig nen Vorteil (wenn sonst nichts schiefgeht)Wer sagt, dass ATI mit den R600-Treibern anfangs nicht auch einige Probleme haben wird?
dargo
2007-03-25, 14:23:03
Das macht schon Sinn, wenn der Unterschied im 07 mal 20%+ wäre, während es in realen Spiel nur 5-10% wäre.
Welchen Sinn soll das machen? Sobald 3DMark07 erscheint wird eh jede Seite im Netz das Ding mit verschiedenen Grakas testen. Und dann kann man immer noch die Vorteile vom R600 in D3D10 (falls Welche vorhanden) zeigen.
Ich bezweifle, dass irgendeine seriöse Seite EATM gegen Transparenz-AA im Supersampling-Modus bencht. Auch wenn EATM eine feine Sache ist, kann man das nicht einfach mit TSSAA zusammen in ein Balkendiagramm packen.
Ich hatte letztens das EATM mit TRSSAA bei TDU verglichen. Das EATM hat die Felgen der Autos deutlich besser geglättet. Von der Performance wollen wir erst gar nicht sprechen.
Wenn Ati mit ihrem EATM ihr AAA ablöst, dann gewinnen sie ohnehin alle (TRSSAA/AAA) Benchmarks. Oder man vergleicht ein fast wirkungsloses TRMSAA mit einem sehr schönem EATM.
BTW: Seit Cat. 7.2 ists am R580 schöner geworden. Vorher hab ich nur max. dem AA-Modus entsprechende Abstufungen gehabt (also max. 4 Stufen, bei 4xAA), jetzt sinds viel mehr...
Also wenn schon die Rohleistung keine Offenbahrung sein wird, dann hat man zumindest treiberseitig nen Vorteil (wenn sonst nichts schiefgeht)
Solange man oft das berüchtigte "Fischernetz" zu Gesicht bekommt, ist das unfair:
http://666kb.com/i/amxcx9su8r59y8xqp.jpg
Entstanden mit einem R360 in World of Warcraft. 4x EATM, Sharpen Bias aus.
MfG,
Raff
Sorry, aber das halte ich für Quatsch. Man lässt sich Markanteile vergreifen wegen 3DMark07? :|
So dämlich kann doch AMD/ATI gar nicht sein.
Das wäre kein Quatsch, wenn R600 langsamer oder nur gleich schnell wäre in DX9 aber dafür in D3D10 gegenüber G80 punkten könnte. Und ein 3DMark ist dazu ideal. Es wird zwar immer gesagt, dass er immer realitätsferner wird, aber trotzdem würde der Stachel bei den G80 Usern ziemlich sitzen, wenn sie vom R600 dort gedemütigt werden. Kann ich mich noch an die Dual Core CPUs erinnern, die besonders stark im 3dmark06 gewichtet wurden. Da hat es die SC Besitzer auch gewurmt und viele konnten der Versuchung nicht widerstehen und haben gleich einen X2 geordert, obwohl es in Spielen damals so gut wie keinen Vorteil gab.
Mr. Lolman
2007-03-25, 14:30:47
Solange man oft das berüchtigte "Fischernetz" zu Gesicht bekommt, ist das unfair:
http://666kb.com/i/amxcx9su8r59y8xqp.jpg
Entstanden mit einem R360 in World of Warcraft. 4x EATM, Sharpen Bias aus.
MfG,
Raff
Naja,dafür ist die Glättung stw. auch besser als mit normalen AAA. ZB in HL², oder auch in TDU. Gothic3 sieht zB nur dann gut aus, wenn alle ATM Werte auf 1 stehen. Jedenfalls, freuts mich, dass ATi in die richtige Richtung entwickelt. Sowas ist viel vernünftiger, als 64xAA, oder Supersampling ansich (auch für Alphatests). Mit Alpha2Coverage lässt sich außerdem eine viel konstantere Performance erreichen, als mit Supersampling. Dadurch, dass der 7.2 schon ein besseres Ergebnis bringt, als der 7.1 gehe ich davon aus, dass da fleissig dran weiterentwickelt wird.
Mal sehen, wie das Endergebnis aussehen wird. :)
dargo
2007-03-25, 14:33:17
Das wäre kein Quatsch, wenn R600 langsamer oder nur gleich schnell wäre in DX9 aber dafür in D3D10 gegenüber G80 punkten könnte. Und ein 3DMark ist dazu ideal.
Ich habe schon mal gesagt, wenn der R600 marktreif wäre hätte man ihn zb. auch schon im März veröffentlichen können. Auch wenn er nur gleichschnell in DX9 ist wie der G80. Sobald eine D3D10 Anwendung erscheint (zb. 3DMark07) würde man eh überall im Netz die Stärken/Schwächen beider GPUs unter D3D10 erkennen können. In diesem Zeitraum aber hätte man schon einige GPUs unters Volk bringen können.
PS: und ja, man hat auch in Games so viele Vorteile heute von D3D10. :rolleyes:
PCGH_Raffael
2007-03-25, 14:35:07
Naja,dafür ist die Glättung stw. auch besser als mit normalen AAA. ZB in HL², oder auch in TDU. Gothic3 sieht zB nur dann gut aus, wenn alle ATM Werte auf 1 stehen. Jedenfalls, freuts mich, dass ATi in die richtige Richtung entwickelt. Sowas ist viel vernünftiger, als 64xAA, oder Supersampling ansich (auch für Alphatests). Mit Alpha2Coverage lässt sich außerdem eine viel konstantere Performance erreichen, als mit Supersampling. Dadurch, dass der 7.2 schon ein besseres Ergebnis bringt, als der 7.1 gehe ich davon aus, dass da fleissig dran weiterentwickelt wird.
Mal sehen, wie das Endergebnis aussehen wird. :)
Damit liegst du richtig. Im Interview mit Terry Makedon verriet er uns, dass man bei Ati momentan daran arbeitet, ein neues Multisampling-Transparenz-AA massentauglich zu bekommen. Es soll in den nächsten Monaten im Treiber verfügbar sein. Ist also nicht verwunderlich, dass sich da was tut. :)
R600 soll zum Start gutes TMSAA bekommen.
MfG,
Raff
Und selbst wenn das kommt ist es eine reine Treibersache für nVIDIA dagegen zu halten.
A2C bleibt A2C, egal wie gut man die Parameter einstellt.
deekey777
2007-03-25, 14:52:08
Sorry, aber das halte ich für Quatsch. Man lässt sich Markanteile vergreifen wegen 3DMark07? :|
So dämlich kann doch AMD/ATI gar nicht sein.
Was soll daran dämlich sein, wenn man mit dem vermeintlichen 3D 2007 mehr Punkte erreicht als die Konkurrenz? Der 3DMark war schon immer ein Verkaufsschlagwort bei Fertig-PCs.
Was klingt besser:
[] Unsere Grafikkarte beherrscht vollständig die neueste Technologie des DirectX 10 und erreicht in 3D 2006 mehr Punkte als die Konkurrenz.
[] Unsere Grafikkarte beherrscht vollständig die neueste Technologie des DirectX 10 und erreicht im renomierten 3DMark 2007, welcher die DX10-Technologie im Vergleich zu seinem Vorgänger 3DMark 2006* (*der nur DX9 und somit nicht die aktuellste Technologie beherrscht) nutzt, mehr Punkte als das Konkurrenzprodukt.
Natürlich macht AMD/ATi den Start des R600 nicht von dem Release des 3D2007 abhängig, das steht ja außer Frage. Ist auch nicht nötig, wenn der R600 mit zwei Spielen gebundelt wird, die D3D10 (nachträglich) beherrschen: Call of Juarez und Just Cause.
(Gilt aber nur, wenn sich Digitimes nicht irrt.)
Hauwech
2007-03-25, 15:33:20
Selbst wenn ein neuer 3D 2007 erscheint, Nvidia wird doch ebenso darauf auf Teufel komm raus optimieren, oder nicht?
dargo
2007-03-25, 15:46:01
Was soll daran dämlich sein, wenn man mit dem vermeintlichen 3D 2007 mehr Punkte erreicht als die Konkurrenz? Der 3DMark war schon immer ein Verkaufsschlagwort bei Fertig-PCs.
Dämlich wäre, wenn man ein Produkt wegen 3DMark07 zurückhält. Somit kaufen noch mehr Leute (wie ich übrigens auch) einen G80 in der Zwischenzeit.
reunion
2007-03-25, 16:01:22
Das tut man auch sicherlich nicht (nur) wegen dem 3dmark07. Ich bezweifle, dass dies überhaupt in den Überlegungen berücksichtigt wurde, immerhin scheint dieser ja noch länger auf sich warten zu lassen. Einerseits kann man so eben neben RV610/630 und Barcelona auch R600 beim "größten Launch aller Zeiten" unterbringen, andererseits können so die Treiber weiter reifen. Vermutlich hätte man ohne diese Verschiebung auch kein Bundle mit zwei D3D10-Spiele anbieten können. Außerdem dürfte der ursprüngliche Termin Ende März höchstens als Paperlaunch zu halten gewesen sein, wodurch man davon im Grunde auch nichts gehabt hätte. Auf jeden Fall ist die Entscheidung verdammt kurzfristig gefallen, nachdem die ganzen Hotels, etc. schon gebucht waren, gerademal 20 Tage vorm geplanten Launch, wodurch es sich höchstwahrscheinlich um eine taktische Maßnahme gehandelt hat.
mapel110
2007-03-25, 16:05:34
Jetzt gibts doch auch einen Paperlaunch, oder hab ich das falsch verstanden?! Karten zu kaufen gibts erst im Mai.
reunion
2007-03-25, 16:06:09
Das NDA fällt vermutlich auch erst im Mai. Das wird wahrscheinlich ein ähnlicher "TechDay" wie ursprünglich Anfang März geplant.
horn 12
2007-03-25, 16:24:53
Was nützt uns dann die Vorstellung am 23./24 April? Wenn da nicht der eigentliche Launch stattfinden wird, sondern nur TechDay, und alles wieder verheimlicht wird bis Anfang Mai, dann macht sich A/A sprich ATI langsam aber sicher zum Affen. Es darf keinen weiteren Termin ohne Kartenverfügbarkeit mehr geben, ansonsten gute Nacht. Haben bis dato schon viele ihrer treuen Stammkunden verloren,- und wenn sie es nochmals verscherzen mit den übriggebliebenen....:mad: Ich möchte nicht den Teufel an die Wand malen;( :( ;(
seahawk
2007-03-25, 17:11:40
ATI braucht DX10 Produkte um die besser Zukunftsfähigkeit der R600 darstellen zu können. So wie die bisherigen Grafikkarten von NV, seit NV30, in Speilen, die zum Launch aktuell waren, relativ gut mithielten, so sehr verloren sie auch mit kommenden Games. ATI muss darstellen, dass R600 die erste echte und performante DX10 Karte ist, die auch unter DX10 Bedingungen performant ist und kein DX9 Chip mit angehängter DX10 Funktionalität.
Undertaker
2007-03-25, 17:13:36
bleibt nur die frage, wie bedeutsam dx10 für den high-end käufer zu lebzeiten der karte werden wird...
deekey777
2007-03-25, 17:15:11
bleibt nur die frage, wie bedeutsam dx10 für den high-end käufer zu lebzeiten der karte werden wird...
Anders als beim G80 soll der R600 mit zwei D3D10-Spielen ausgeliefert werden.
dargo
2007-03-25, 17:19:21
bleibt nur die frage, wie bedeutsam dx10 für den high-end käufer zu lebzeiten der karte werden wird...
Eben, wenn ich das schon lese. Nachdem der R600 erscheint wird es höchswahrscheinlich ein halbes Jahr später schon den G90 geben. Ich bin gespannt wie lange ein R700 brauchen wird. Und bis wir vermehrt D3D10 Titel sehen sind eh wieder neue Karten auf dem Markt.
Um nochmal auf die D3D10 Thematik zurückzukommen - sollte D3D10 nicht hauptsächlich die CPU entlasten? Welche neuen Effekte sollen mit D3D10 überhaupt kommen?
Anders als beim G80 soll der R600 mit zwei D3D10-Spielen ausgeliefert werden.
Welche Games waren das nochmal?
Edit:
Achja, habe ich schon erwähnt was die Games einem WinXP User nutzen? X-D
Welche Games waren das nochmal?Call of Juarez und Just Cause.ATI muss darstellen, dass R600 die erste echte und performante DX10 Karte ist, die auch unter DX10 Bedingungen performant ist und kein DX9 Chip mit angehängter DX10 Funktionalität.G80 ist also ein D3D9-Chip mit "angehängter D3D10-Funktionalität"?
reunion
2007-03-25, 17:23:59
So wie die bsiherigen Grafikkarten von NV, seit NV30, in Soeilen, die zum LAunch aktuell waren, relativ gut mithielten, so sehr verlroen sie auch mit kommenden Games.
Das ist mindestens schon seit R100 so. Eine R7500 macht heute jede GF2U platt, und eine R8500 kann sich selbst gegen eine neuere GF4 gut behaupten. Das war damals ganz anders.
Eben, wenn ich das schon lese. Nachdem der R600 erscheint wird es höchswahrscheinlich ein halbes Jahr später schon den G90 geben. Ich bin gespannt wie lange ein R700 brauchen wird. Und bis wir vermehrt D3D10 Titel sehen sind eh wieder neue Karten auf dem Markt.
Was hast du als Käufer eines G80 davon, wenn es bis dahin schon einen G90 gibt (der vermutlich sehr stark auf G80 aufbauen wird), außer, dass du dir eine neue Graka kaufen darfst?
seahawk
2007-03-25, 17:25:14
Um nochmal auf die D3D10 Thematik zurückzukommen - sollte D3D10 nicht hauptsächlich die CPU entlasten? Welche neuen Effekte sollen mit D3D10 überhaupt kommen?
Geometrie-Sahder-Leistung, ermäglicht neue Effekte.
Call of Juarez und Just Cause.G80 ist also ein D3D9-Chip mit "angehängter D3D10-Funktionalität"?
Es geht nicht darum was G80 ist, es geht darum wie ATI den R600 vermarkten muss.
dargo
2007-03-25, 17:27:44
Call of Juarez und Just Cause.
Danke. Aus Performancesicht laufen beide Games butterweich schon mit einer G8800GTS. Und sollten diese Games mit dem D3D10 Pfad besser aussehen sieht das für mich wieder nach Marketingblub aus genauso wie damals der 64Bit Content von Farcry. Und von D3D10 Games zu sprechen ist schon fast lächerlich. Das sind weiterhin DX9 Games mit einem D3D10 Renderpfad. Wenn man mich fragt würde ich es viel sinnvoller finden Just Cause rauszuschmeißen und dafür Stalker zu nehmen. Dann könnte man wenigstens Antialiasing in dem Game gut verkaufen können.
Was hast du als Käufer eines G80 davon, wenn es bis dahin schon einen G90 gibt (der vermutlich sehr stark auf G80 aufbauen wird), außer, dass du dir eine neue Graka kaufen darfst?
Warum muss ich mir dann eine neue Graka kaufen? :|
Eine neue kommt erst rein wenn die "alte" nicht mehr für meine Ansprüche reicht. Dass wäre min. 4xAA/16xAF. Vergiss bitte nicht, dass ich auf 1280x1024 begrenzt bin.
Kleiner CeBit Nachtrag :biggrin:
http://img58.imageshack.us/img58/4866/picture1cj5bp5.jpg
Irgendwer wird da wohl Ärger bekommen (haben)
reunion
2007-03-25, 17:50:36
Warum muss ich mir dann eine neue Graka kaufen? :|
Eine neue kommt erst rein wenn die "alte" nicht mehr für meine Ansprüche reicht. Dass wäre min. 4xAA/16xAF. Vergiss bitte nicht, dass ich auf 1280x1024 begrenzt bin.
Naja, nachdem du auf die Frage wie wichtig D3D10 zu Lebzeiten des G80 sein wird sinngemäß geantwortet hast, "bis dahin gibt es eh schon einen G90", frage ich mich schon, was dir das als G80 Käufer bringt, falls dieser unter D3D10 eine Schwäche haben sollte.
Kleiner CeBit Nachtrag :biggrin:
http://img58.imageshack.us/img58/4866/picture1cj5bp5.jpg
Irgendwer wird da wohl Ärger bekommen (haben)
Hihi, leider nur ein Ausschnitt aus dem NDA, interessant wären noch die Konsequenzen bei Nichtbeachtung. :D
dargo
2007-03-25, 17:55:18
Naja, nachdem du auf die Frage wie wichtig D3D10 zu Lebzeiten des G80 sein wird sinngemäß geantwortet hast, "bis dahin gibt es eh schon einen G90", frage ich mich schon, was dir das als G80 Käufer bringt, falls dieser unter D3D10 eine Schwäche haben sollte.
Achso meinst du das. Um ehrlich zu sein ist mir das fast völlig egal wie der G80 in D3D10 Games performt. Ich wechsle die Graka eh meistens nach 6-12 Monaten aus. Fast egal deswegen, weil das den Wiederverkaufswert drücken würde was natürlich nicht so toll wäre.
Das ist mindestens schon seit R100 so. Eine R7500 macht heute jede GF2U platt, und eine R8500 kann sich selbst gegen eine neuere GF4 gut behaupten. Das war damals ganz anders.
Das halte ich für ein Gerücht. Die 7500 ist übrigens neuer als die GF2-Serie (Ti ausgenommen). Wo kann eine 8500 denn eine GF4 schlagen, Shaderlängen mal ausgenommen?
MfG,
Raff
Welche Games waren das nochmal?
Edit:
Achja, habe ich schon erwähnt was die Games einem WinXP User nutzen? X-D
Na dann lieblings Spiel>Call of Juarez.;)
dargo
2007-03-25, 18:30:20
Na dann lieblings Spiel>Call of Juarez.;)
Schauen wir erstmal ob es grafisch einen gut erkennbaren Unterschied gibt. :)
reunion
2007-03-25, 18:39:48
Das halte ich für ein Gerücht. Die 7500 ist übrigens neuer als die GF2-Serie (Ti ausgenommen). Wo kann eine 8500 denn eine GF4 schlagen, Shaderlängen mal ausgenommen?
MfG,
Raff
Ich sagte gut behaupten, zumindest sahen so meine Erinnerungen aus. Ich habe jetzt allerdings länger gesucht, aber leider keinerlei Tests gefunden, bei denen eine R8500 mit einer GF4 bei neueren Spielen verglichen wird. Deshalb ziehe ich diese Behauptung zurück.
Fetza
2007-03-25, 19:14:01
Geometrie-Sahder-Leistung, ermäglicht neue Effekte.
Es geht nicht darum was G80 ist, es geht darum wie ATI den R600 vermarkten muss.
Soll nicht gerade die geometrie shaderleistung des r600 so beeindruckend sein? Zumindest laut einem programmierer des flight simulators x.
Nakai
2007-03-25, 19:59:05
Naja er sollte etwa 50% schneller sein.;)
mfg Nakai
dargo
2007-03-25, 20:12:53
Naja er sollte etwa 50% schneller sein.;)
Die Frage ist nur was von den 50% am Ende übrig bleibt. ;)
Nakai
2007-03-25, 20:18:34
Naja ich würde sogar "relativ viel" sagen, da die R600 ALUs typische 5D-Dinger sind. Der G80 hat da schon ein paar Nachteile mit seinen 128 1D-ALUs, ist zwar ganz nützlich für Pixelberechnungen, aber für Vertex und Geo relativ ungeeignet.
Schlimmer wirds wohl bei Pixelberechnungen, da muss der R600 ziemlich flexibel werden.
mfg Nakai
seahawk
2007-03-25, 20:26:28
Soll nicht gerade die geometrie shaderleistung des r600 so beeindruckend sein? Zumindest laut einem programmierer des flight simulators x.
Das ist der Gedanke. Kein heutiges Speil nutzt die Technik, der 3DM07 hingegen wird diese Technik sicher ausgiebig nutzen.
Naja ich würde sogar "relativ viel" sagen, da die R600 ALUs typische 5D-Dinger sind. Der G80 hat da schon ein paar Nachteile mit seinen 128 1D-ALUs, ist zwar ganz nützlich für Pixelberechnungen, aber für Vertex und Geo relativ ungeeignet.Inwiefern sollen skalare ALUs ungeeignet für Vertexberechnungen sein?
Kleiner CeBit Nachtrag :biggrin:
http://img58.imageshack.us/img58/4866/picture1cj5bp5.jpg
Irgendwer wird da wohl Ärger bekommen (haben)
Niemand wird ärger bekommen, da bis heute niemand den r600 (das finale sample) gesehen hat.
Nakai
2007-03-25, 20:48:18
Inwiefern sollen skalare ALUs ungeeignet für Vertexberechnungen sein?
Es müssten 5 ALUs benutzt werden um eine Vertexberechnung durchzuführen.
(Oder eine ALU in 5 Takten)
Der R600 hat 64 5D-ALUs. Also können 64 Vertexberechnungen pro Takt durchgeführt werden(theoretisch). Der G80 schafft nur 25,6 solcher Berechnungen, dafür sind die Shader aber höher getaktet.
Mal schauen ob ich alles richtig interpretiert habe...
mfg Nakai
Ich sagte gut behaupten, zumindest sahen so meine Erinnerungen aus. Ich habe jetzt allerdings länger gesucht, aber leider keinerlei Tests gefunden, bei denen eine R8500 mit einer GF4 bei neueren Spielen verglichen wird. Deshalb ziehe ich diese Behauptung zurück.
Hmkay. Ich zehre von den V5-6000-Benchmarks, die auch R8500 und Ti-4200 - fast ohne CPU-Limitierung - enthalten: http://3dcenter.de/artikel/voodoo5-6000/index8.php. Aber gut, das ist eh offtopic. Dass spätestens NV30 "in der Zukunft" unterlegen war, stimmt aber.
MfG,
Raff
robbitop
2007-03-25, 22:35:12
Es müssten 5 ALUs benutzt werden um eine Vertexberechnung durchzuführen.
(Oder eine ALU in 5 Takten)
Nochmal: Das stimmt nicht.
Fetza
2007-03-25, 22:46:30
Das ist der Gedanke. Kein heutiges Speil nutzt die Technik, der 3DM07 hingegen wird diese Technik sicher ausgiebig nutzen.
wie siehts mit crysis aus? Glaube das zerstörbare terrain müsste doch das arbeitsfeld des geometrie shaders sein oder?
deekey777
2007-03-25, 22:52:00
Es müssten 5 ALUs benutzt werden um eine Vertexberechnung durchzuführen.
(Oder eine ALU in 5 Takten)
Der R600 hat 64 5D-ALUs. Also können 64 Vertexberechnungen pro Takt durchgeführt werden(theoretisch). Der G80 schafft nur 25,6 solcher Berechnungen, dafür sind die Shader aber höher getaktet.
Mal schauen ob ich alles richtig interpretiert habe...
mfg Nakai
4D: xyzw.:)
5D: 4D-Operationen und eine skalare.
Ailuros
2007-03-25, 23:06:08
Es müssten 5 ALUs benutzt werden um eine Vertexberechnung durchzuführen.
(Oder eine ALU in 5 Takten)
Der R600 hat 64 5D-ALUs. Also können 64 Vertexberechnungen pro Takt durchgeführt werden(theoretisch). Der G80 schafft nur 25,6 solcher Berechnungen, dafür sind die Shader aber höher getaktet.
Mal schauen ob ich alles richtig interpretiert habe...
mfg Nakai
Ich hoffe Du bist nicht so naiv und glaubst dass selbst D3D10 USCs keinen oberen threshold fuer das triangle setup haben. Es wuerde mich kein bisschen wundern wenn beide chips irgendwo bei =/>150M Vertices/s halt machen und schon das waere ein ziemlich optimistischer und nur ein synthetischer nur fuer Geometrie ausgekapselter Fall.
Ob jetzt der Geometrie Shader effizienter insgesamt bei A oder B ist, ist ein anderes Kapitel, aber die obrige These ist absolut nutzlos. Nebenbei wage ich mal zu behaupten dass es fuer den ersten Schub nur "GS that suck" geben wird, wobei eben der Unterschied bei dem Grad der Nutzlosigkeit liegt.
Ailuros
2007-03-25, 23:10:17
Geometrie-Sahder-Leistung, ermäglicht neue Effekte.
Und die waeren?
Es geht nicht darum was G80 ist, es geht darum wie ATI den R600 vermarkten muss.
Ja aber nur mit D3D9.0 mit D3D10 paths. Scharf nachdenken was ein solcher Path genau mit sich fuehren kann.
Demirug
2007-03-25, 23:22:42
wie siehts mit crysis aus? Glaube das zerstörbare terrain müsste doch das arbeitsfeld des geometrie shaders sein oder?
Eher nicht. Das Terrain hat eine Rückwirkung auf das Spiel. Mit Shadern macht man besser nur Dinge die lediglich visuelle Auswirkungen haben.
micki
2007-03-26, 00:22:32
Eher nicht. Das Terrain hat eine Rückwirkung auf das Spiel. Mit Shadern macht man besser nur Dinge die lediglich visuelle Auswirkungen haben.
nein, das muss nicht so sein, es ist durchaus ok terrain zu verformen, solange die grunddaten dafuer vom spiel selbst kommen wuerden (z.b. ne kleine heightmap). aber im aktuellen interview mit dem crytek ceo bei pcgames sagt er dass das terrain nicht verformbar sein wird wenn ich mich richtig erinnere.
Nebenbei wage ich mal zu behaupten dass es fuer den ersten Schub nur "GS that suck" geben wirdich glaube darauf hat NV bei den nv30 shadern auch gesetzt und wurde von ATI ziemlich in die nuts gekickt.
deekey777
2007-03-26, 00:43:16
Da erinnerst du dich auf richtig. In Far Cry kann man schöne Löcher in den Boden mit Frags reißen, die einen Einfluss auf das Spiel haben (man kann darein fallen :biggrin: ).
Ailuros
2007-03-26, 00:44:18
ich glaube darauf hat NV bei den nv30 shadern auch gesetzt und wurde von ATI ziemlich in die nuts gekickt.
Schlechter Vergleich; eher SM3.0 vs. "SM3.0 done right" und selbst so einen Vergleich schaetze ich als grosszuegig. GS bekommen ihren "nutzvolleren Schub" IMHLO erst ab D3D10.1.
mickii
2007-03-26, 02:27:59
Schlechter Vergleichjo, meinungen sind verschieden...
Ailuros
2007-03-26, 06:04:25
jo, meinungen sind verschieden...
Du kannst Dir von mir aus gerne erhoffen dass G80 von einer sehr merkwuerdigen Perspektive etwas mit NV30 gemeinsam hat, aber dafuer muessten wir erstmal auf G80 und nicht auf R600 ueber 6 Monate warten.
seahawk
2007-03-26, 07:00:20
Und die waeren?
Ja aber nur mit D3D9.0 mit D3D10 paths. Scharf nachdenken was ein solcher Path genau mit sich fuehren kann.
Irgend eine sinnlose Spoielerei wird den Programmieren schon einfallen, natürlich geringste Mengen an Eyecandy aber mehr ist auch nicht zu erwarten.
mickii
2007-03-26, 08:54:52
Du kannst Dir von mir aus gerne erhoffen dass G80 von einer sehr merkwuerdigen Perspektive etwas mit NV30 gemeinsam hatjo und du darfst hoffen dass sein GS das nivea vom SM3 im NV40 hat.
schoen das wir das geklaert haben.
Um etwaigen Taktschwankungen vorzubeugen liegt der Takt der R600XTX bei 1005Mhz.
Greetz an meine HWLuxx Freunde
Ailuros
2007-03-26, 10:02:40
jo und du darfst hoffen dass sein GS das nivea vom SM3 im NV40 hat.
schoen das wir das geklaert haben.
Gar nichts wurde "geklaert" was mich persoenlich betrifft. Fuer ATI heisst es immer noch put up or shut up und sie werden wohl etwas mehr brauchen als hypothetische effizientere GS (wobei es dafuer momentan gleich Null Beweise gibt) um mit R600 wirklich auf allen Fronten ueberzeugen zu koennen.
Und da Du unbedingt mit dem Quark sticheln willst, war das fast nutzlose dynamische branching was nur die NV4x/PS betrifft, eigentlich ein Geschenk Gottes fuer ATI bis in etwa Anfang 2006.
Seit NV30 gibt es keinen "miserablen" chip von beiden IHVs mehr, nur GPUs die frueher oder spaeter ankommen mit ihren jeweiligen Vor- und Nachteilen. Ob und es jetzt angebliche "inflection points" fuer jeweilige Faelle gibt und zu welchen genau Resultaten diese fuehrten ist mehr oder weniger bekannt.
Nakai
2007-03-26, 13:29:09
Nochmal: Das stimmt nicht.
Wieso sind dann Vertexshader 5D?
Oder 4D + Scalar?
Ich hoffe Du bist nicht so naiv und glaubst dass selbst D3D10 USCs keinen oberen threshold fuer das triangle setup haben. Es wuerde mich kein bisschen wundern wenn beide chips irgendwo bei =/>150M Vertices/s halt machen und schon das waere ein ziemlich optimistischer und nur ein synthetischer nur fuer Geometrie ausgekapselter Fall.
Naja daran habe ich nicht gedacht...mhhh
mfg Nakai
Das Vertexshader 4D + Scalar sind hat den einfachen Grund, das Matrixtransformationen in 4D ausgeführt werden (homogener Clipspace)
Daher ist es schon sinnvoll bei einer USA die auf Vektoren arbeitet 5D beizubehalten.
Nochmal: Das stimmt nicht.
Wie oben gesagt, stimmt das in gewisser Weise schon.
Der Neger-Neger
2007-03-26, 14:05:06
Um mal was anderes noch in die Diskussionsrunde zu werfen! Wie siehts mit einer Dual-Chip Karte aus? Radeon X2900XTX2? Ich hab desweiteren noch von einer X2900XTX PE gehört! Es ist kein Scherz ! Man kann ja eventuell wenn man was weiß und unter NDA steht ganz leicht was sagen oder nen Tipp geben!
mfg
der neger-neger
Undertaker
2007-03-26, 14:13:38
ich glaube nicht daran - der stromverbrauch wäre unbeherrschbar, wenn dann mit extremer abspeckung, dann wäre aber die schnellste singlechipkarte wieder besser.... ne, da kommt erstmal bestimmt nix
Vllt schluckt der R600 gar nicht soviel Strom wie alle denken und es wurde als Falschmeldung verstreut! Welche Konsquenzen gibt es eigentlich für den "kleinen Mann" wenn er die NDA bricht?
Cubitus
2007-03-26, 14:19:51
unter Umständen den finanziellen Ruin:D
seahawk
2007-03-26, 14:22:21
Ich sage mal so, nicht alles was 2 Lüfter hat, hat auch 2 GPUs.
Ich sage mal so, nicht alles was 2 Lüfter hat, hat auch 2 GPUs.
Genau, das hatte die Karte ja auf der Cebit!
Der Neger-Neger
2007-03-26, 14:26:24
Wird eigentlich auch am R600 Launch der K10 mit gelauncht?
Anarchy-HWLUXX
2007-03-26, 14:41:44
Wird eigentlich auch am R600 Launch der K10 mit gelauncht?
Also wenn dann höchstens mit dem Barcelona Opteron, die Desktop Chips solln nochmal später kommen ... wobei nen Agena FX auch nice wär :D
micki
2007-03-26, 15:04:07
Gar nichts wurde "geklaert" was mich persoenlich betrifft. Fuer ATI heisst es immer noch put up or shut up und sie werden wohl etwas mehr brauchen als hypothetische effizientere GS (wobei es dafuer momentan gleich Null Beweise gibt) um mit R600 wirklich auf allen Fronten ueberzeugen zu koennen. und was hat das damit zu tun das nvidia beim nv30 eventuell gehoft hatte das ATI erstmal ein schlechtes SM2 bringt und ihr SM2 dann nur ein "SM2 that suck" war, so wie es jetzt beim GS wohl ist?
Und da Du unbedingt mit dem Quark sticheln willst, war das fast nutzlose dynamische branching was nur die NV4x/PS betrifft, eigentlich ein Geschenk Gottes fuer ATI bis in etwa Anfang 2006.ach, ein nutzloses branching das kaum benutzt wird in derzeitigen spielen ist also schlimmer als ein komplett nutzloses SM2 beim NV30 (performance wise) das in den meisten spielen zeigte wie NV30 suckt, oft so sehr das spielehersteller fuer NV30 nur SM1.4 aktivierten?
Seit NV30 gibt es keinen "miserablen" chip von beiden IHVs mehr, nur GPUs die frueher oder spaeter ankommen mit ihren jeweiligen Vor- und Nachteilen. Ob und es jetzt angebliche "inflection points" fuer jeweilige Faelle gibt und zu welchen genau Resultaten diese fuehrten ist mehr oder weniger bekannt.
ich seh nicht was das damit zu tun haben soll das der GeometryShader so suckt wie PixelShader2 bei der ersten NV implementierung.
Es ist doch ein wenig ersichtlich, dass Ailuros ein wenig "Farbenblind" ist, was seine Aussagen angeht. Darf man nicht alles so eng sehen.
The_Invisible
2007-03-26, 16:06:36
was hat denn nv30 mit g80 zu tun bitte?
manche haben anscheinend vergessen wer seit anfang november schon einen DX10 chip liefern kann und wer nicht
mfg
Der Neger-Neger
2007-03-26, 16:47:04
Um etwaigen Taktschwankungen vorzubeugen liegt der Takt der R600XTX bei 1005Mhz.
Greetz an meine HWLuxx Freunde
Was ist eigentlich von diesem Beitrag zu halten? Es gab doch mal jemanden bei Hardwareluxx der doch den R600 schon näher untersuchen konnte und doch was von 1Ghz Takt gesprochen hat.
Was ist eigentlich von diesem Beitrag zu halten? Es gab doch mal jemanden bei Hardwareluxx der doch den R600 schon näher untersuchen konnte und doch was von 1Ghz Takt gesprochen hat.
Nichts.
Und der Typ bei HWL war ein Spinner, der die Leute nur verarschen wollte.
Und jetzt versucht er es wohl hier.
robbitop
2007-03-26, 17:02:42
Wieso sind dann Vertexshader 5D?
Oder 4D + Scalar?
Weil eine Transformationsmatrix 4 Komponenten hat. Und nicht 5.
Das Skalar kann manchmal beschleunigend wirken. Jedoch nichts Konstantes.
AnarchX
2007-03-26, 17:24:40
ATI RV630 delayed again
Until 3rd week of May (http://www.fudzilla.com/index.php?option=com_content&task=view&id=298&Itemid=34)
Das wars dann wohl mit dem Family-Hardlaunch.
Spasstiger
2007-03-26, 17:34:35
Macht der 65-nm-Prozess derartige Probleme bei Grafikchips? Naja, mir ist der RV630 egal, ich interessiere mich ausschließlich für den R600. ;)
reunion
2007-03-26, 17:38:52
Fuad schreibt viel wenn der Tag lang ist. Vorallem jetzt wo AMD dicht gemacht hat, und gesicherte Informationen Mangelware sind. Das gibt dann auch viele tolle Seitenaufrufe.
Fetza
2007-03-26, 17:42:24
Macht der 65-nm-Prozess derartige Probleme bei Grafikchips? Naja, mir ist der RV630 egal, ich interessiere mich ausschließlich für den R600. ;)
Na gemessen, an amd/atis kundenfreundlichkeit und neuer geschäftsphilosophie, kommt gleich bestimmt noch die meldung, das sich r600 ebenfall um 3 weitere wochen verschiebt, damit man wieder alle produktgattungen des r6xx designs gleichzeitig auf den markt werfen kann;D
Obwohl werfen ist ja ein energetischer akt, bei dem was ati aktuell abzieht müsste es eher schleifen heissen;)
Na egal, jetzt hab ich so lange auf den r600 gewartet, die paar wochen halte ich jetzt auch durch. Ich bekomme nur irgendwie so das komische gefühl, das ich zum release feststellen muss, die karte ist kaum besser als g80. Dann würde ich mir schon in den arsch beißen, hättes wohl aber auch nicht anders verdient *auf das gts640 angebot von alternate for 2 wochen schiel*.
greetz
Fetza
AnarchX
2007-03-26, 17:56:40
Fuad schreibt viel wenn der Tag lang ist. Vorallem jetzt wo AMD dicht gemacht hat, und gesicherte Informationen Mangelware sind. Das gibt dann auch viele tolle Seitenaufrufe.
Das Fuad durchaus seine Quellen hat, bewies er imo doch in der Vergangenheit. Aber wie bei jeder Spekulation muss man immer etwas kritisch sein, vielleicht sagte ihm eine Quelle von TSCM: "RV630 has a problem." und er hat daraus sich diese News gedichtet.
Dass 65nm nicht ganz unproblematisch sein kann, wenn ATi vielleicht auch noch hohe Ansprüche an den Prozess stellt, ist schon anzunehmen.
Wenn mehr dran ist, werden sicherlich demnächst auch noch andere Quellen darüber berichten.
Aber so eine Verspätung vom RV630, der sich vielleicht recht gut gegen die Konkurrenz geschlagen hätte, wäre keine gute Situation.
Wie Ailuros schon mal angedeutet hat: 65nm ist sowohl Vorteil als auch Nachteil des RV630.
reunion
2007-03-26, 19:17:31
Das Fuad durchaus seine Quellen hat, bewies er imo doch in der Vergangenheit.
Ja, und er hat auch schon oft genug bewiesen, dass seine Quellen viel BS erzählen.
Das Skalar kann manchmal beschleunigend wirken. Jedoch nichts Konstantes.
Manchmal ist aber "sehr oft". Ein Vertexshader hat praktisch nur Vec4 oder Skalar, wenn du den Skalar nicht mit reinpackst, hast du immer 4D-Einheiten die nur auf einem Wert rumrechnen. Auch nicht gerade optimal.
Weil eine Transformationsmatrix 4 Komponenten hat.
Nein, die hat 16 :devil:
so wie es jetzt beim GS wohl ist?
Könntet ihr mal aufhören darüber zu reden als wäre das schon gesichert? Da hat sich mit dem letzten Treiber in der einen D3D10-Demo schon einiges bewegt. Imho ist das derzeit völlig unoptimiert im Treiber um D3D10 "aus dem Haus" zu bringen.
Bei G8x wurde sonst wirklich an keiner Stelle gespart, ich wüsste nicht warum man es gerade an einer Stelle tun sollte wo man ganz genau weiß dass die ATI-Marktschreier alle gleich wieder drauf stürzen würden wie die Fliegen auf nen Scheißhaufen.
Nakai
2007-03-26, 20:02:50
Nein, die hat 16
Ist das auch der Grund warum der Vertexshader 4 Takte benötigt um ein Dreieck zu zeichnen?
Jedenfalls muss man die Anzahl der Vertexshader mit dem Takt multipliziert, durch 4 teilen um an dieses Ergebnis zu kommen.
mfg Nakai
Ja, und er hat auch schon oft genug bewiesen, dass seine Quellen viel BS erzählen.
falsch,er ist ne gute Quelle
Ist das auch der Grund warum der Vertexshader 4 Takte benötigt um ein Dreieck zu zeichnen?
Du weisst schon wie man einen Vektor an eine Matrix multipliziert?
Und was ein VS mindestens machen muss?
robbitop
2007-03-26, 22:18:00
Manchmal ist aber "sehr oft". Ein Vertexshader hat praktisch nur Vec4 oder Skalar, wenn du den Skalar nicht mit reinpackst, hast du immer 4D-Einheiten die nur auf einem Wert rumrechnen. Auch nicht gerade optimal.
Nun, in dem Fall, dass ein Skalar und ein 4D hintereinanderkommen, spart die 5D Unit einen Takt. Wie oft kommt das vor?
Nein, die hat 16 :devil:
Du meinst 4 Therme a 4 Komponenten? ;)
Nun, in dem Fall, dass ein Skalar und ein 4D hintereinanderkommen, spart die 5D Unit einen Takt. Wie oft kommt das vor?
Genauso oft wie bei einem Pixelshader 3D und 1D vorkommen. Oft.
Du meinst 4 Therme a 4 Komponenten? ;)
Sie hat 16 Komponenten :tongue:
Gast = Ich
Ist das auch der Grund warum der Vertexshader 4 Takte benötigt um ein Dreieck zu zeichnen?
Jedenfalls muss man die Anzahl der Vertexshader mit dem Takt multipliziert, durch 4 teilen um an dieses Ergebnis zu kommen.
mfg Nakai
Nein. Ein Vertexshader zeichnet überhaupt kein Dreieck. Und die Rechnung ist mir auch fremd. Die Anzahl der Dreiecke limitiert höchstens das Triangle-Setup.
Nun, in dem Fall, dass ein Skalar und ein 4D hintereinanderkommen, spart die 5D Unit einen Takt. Wie oft kommt das vor?
Da die Matrixoperationen ein paar Takte dauern, kann man damit auch gut Vec2 und Vec3 Opertionen durchführen und bekommt damit eine bessere Effizienz.
Besonders die Berechnung von Texturkoordinaten oä kann der Compiler dort dazwischenschieben.
Anscheinend kommt dies auch oft genug vor. Ansonsten hätte ATI nicht bisher bei jedem Chip 5D Units verbaut.
Ailuros
2007-03-27, 06:20:08
und was hat das damit zu tun das nvidia beim nv30 eventuell gehoft hatte das ATI erstmal ein schlechtes SM2 bringt und ihr SM2 dann nur ein "SM2 that suck" war, so wie es jetzt beim GS wohl ist?
Der Geschichte zuliebe, NVIDIA hat sich damals nichts dergleichen erhofft; beide hatten ihre eigenen Vorschlaege fuer SM2.0, ATI hatte IMO die praktischere und bessere Loesung und NV viel platt auf die Nase weil sie das Ganze falsch eingeschaetzt hatten.
ach, ein nutzloses branching das kaum benutzt wird in derzeitigen spielen ist also schlimmer als ein komplett nutzloses SM2 beim NV30 (performance wise) das in den meisten spielen zeigte wie NV30 suckt, oft so sehr das spielehersteller fuer NV30 nur SM1.4 aktivierten?
Es ist zwar nett dass Du versuchst so auszuweichen, aber es war damals SM3.0 vs. SM2.0_extended bis Ende 2005. ATI tanzte 1.5 Jahre spaeter mit SM3.0 an aus ihren eigenen Gruenden.
Warum wird denn heute weitlaeufig kein dynamisches branching benutzt? Erstens weil das PS db auf NV4x tatsaechlich nutzlos ist und zweitens weil ATI mit ihrer SM3.0 Loesung zu spaet ankam.
Die bittere Pille mit dem NV30 musste NV mehrmals schlucken aber nach 5 Jahren ist es eher laecherlich dieses immer noch als Punkt zu benutzen.
ich seh nicht was das damit zu tun haben soll das der GeometryShader so suckt wie PixelShader2 bei der ersten NV implementierung.
Hat auch keiner behauptet ausser Du stellst Dir das so vor. Die GS-Implementierung in "D3D10.0" stinkt von vorne herein und hier kann man nur etwas in HW giessen dass etwas leichter oder etwas mehr stinkt. Und hier gibt es wohl nur eher "nutzlos" und "nutzloser" und nichts besonderes dass in den Bereich des "nutzvollen" reichen koennte. "Nutzvoll" kommt mit zukuenftigen API Revisionen, diesem sind sich die IHVs sowieso von Anfang an bewusst denn sie wahren auch alle da als das API festgelegt wurde. Microsoft's Idee ging einen gesunden Schritt weiter als dem heutigen GS als ueber die ersten "DX-Next" drafts verhandelt wurde. Ein grosser und ein kleiner IHV hatten eher einen vollen PPP vorgeschlagen und von da ab wurde Stueck fuer Stueck der Topologie-Bereich beschnitten, Tesselation bekam konstant weniger "Progammierbarkeit" bis zum Grad wo es fuer einige Zeit als ein fixed function optionales Dingsbums wurde und am Ende dann total entfernt wurde.
Das Resultat der kastrierten Topologie ist der heutige GS und der Geschichte zu liebe der originale "R400" hatte eine fixed function Tesselations-Einheit (wobei die Mehrzahl von dem Zeug durch MEMEXPORT in Xenos verschoben wurde).
Das Ganze duerfte ja gleichgueltig sein am Ende, aber ich hoere konstant von Entwicklern dass sie wohl doch etwas besseres haben wollten und wohl doch etwas mehr in Richtung HOS. Leider bekommen sie wohl etwas besseres dann erst mit "D3D11" oder wie auch immer es man nennen wird.
Diese lauwarme Debatte hat genauso viel "Temperatur-Wert" wie die lauwarme Geometry Shader Implementierung in D3D10. Ab +1 wird es wohl etwas besser werden, aber es hoert sich nicht danach an als ob Entwickler irgend etwas besonderes damit anrichten koennen und werden.
Ausreden und Gerechtfertigungen kann man in alle Richtungen werfen, aber IHVs versuchen stets so viel in einen chip reinzuquetschen wie es gerade reinpasst und dabei finde ich auch dass es durchaus normal ist wenn dabei verschiedene Vorstellungen einer Implementierung vorkommen. Es bleibt aber trotzdem immer noch die Frage wo genau es bis jetzt bewiesen wurde dass die GS-calls auf einem G80 USC total nutzlos sind, stets im Vergleich zum direkten Konkurrenten.
Ailuros
2007-03-27, 06:29:26
Das Fuad durchaus seine Quellen hat, bewies er imo doch in der Vergangenheit. Aber wie bei jeder Spekulation muss man immer etwas kritisch sein, vielleicht sagte ihm eine Quelle von TSCM: "RV630 has a problem." und er hat daraus sich diese News gedichtet.
Fuad's Problem ist eher dass er selber nicht versucht etwas weiterzulernen als Laie. Wenn man ein bisschen herumfragt und sich etwas besser informiert kann man so manchen Fallen entgehen. Zu 100% korrekt wird keiner liegen wenn man spekuliert; man kann aber ein besseres Prozentual erreichen wenn man die paar gelieferten Infos etwas besser interpretieren kann und nicht einfach was einem gerade in den Schaedel schiesst loszukritzelt.
Ein Beispiel dieses waere die idiotische Meldung seitens Xbit ueber die angeblichen 50 Profile die angeblich auf "SM5.0" deuten (wobei der newsblurb immer noch so dasteht LOL). Ein Depp macht einen Fehler und man wiederholt den gleichen Mist ohne zu fragen um was es sich handelt?
Dass 65nm nicht ganz unproblematisch sein kann, wenn ATi vielleicht auch noch hohe Ansprüche an den Prozess stellt, ist schon anzunehmen.
AFAIK verlaeuft technisch gesehen die 65nm Entwicklung ausgezeichnet; dass die yields aber momentan immer noch unterirdisch sind halte ich fuer normal bei einem so neuen Prozess.
Wie Ailuros schon mal angedeutet hat: 65nm ist sowohl Vorteil als auch Nachteil des RV630.
Und ich aendere auch nichts daran; wenn die yields in ein paar Monaten besser werden wird es dann wohl nur noch Vorteile haben.
robbitop
2007-03-27, 07:40:06
Genauso oft wie bei einem Pixelshader 3D und 1D vorkommen. Oft.
Hast du mal einen Beispielcode rumliegen, oder wo kann ich das einsehen?
Sie hat 16 Komponenten :tongue:
lol wenn eine 4x4 Matrix aus 16 Komponenten besteht, stimme ich dur zu. Dann wars ne reine Definitionsklauberei.
robbitop
2007-03-27, 07:43:06
Da die Matrixoperationen ein paar Takte dauern, kann man damit auch gut Vec2 und Vec3 Opertionen durchführen und bekommt damit eine bessere Effizienz.
Besonders die Berechnung von Texturkoordinaten oä kann der Compiler dort dazwischenschieben.
Anscheinend kommt dies auch oft genug vor. Ansonsten hätte ATI nicht bisher bei jedem Chip 5D Units verbaut.
Auch Coda? Die Texturoperationen muss man nicht unbedingt durch die ALU Crossbars durchfetchen.
Bei VS bringt das 5D etwas und kostet relativ wenig. NV hats mit dem NV40 auch eingefuehrt. Allerdings hatte der NV3x aus VS Leistungspersketive keine grossen Nachteile von 4D.
Steve1
2007-03-27, 08:03:00
Wann wird denn eigentlich Direct X 11 kommen? In welchen Grafikchip R800 oder G100?
Ailuros
2007-03-27, 08:10:26
Wann wird denn eigentlich Direct X 11 kommen? In welchen Grafikchip R800 oder G100?
Da die drafts fuer >D3D10 erst vor kurzer Zeit begonnen haben, hat wohl weder Microsoft einen Namen fuer das API festgesetzt, noch glaube ich dass die IHVs schon einen festen Codenamen dafuer momentan haben. In ~5 Jahren kann sich viel aendern. Erstmal kommen die 65nm D3D10 Refreshes ab H2 2007 und dann geht es los mit noch zwei "wahren" Generationen innerhalb D3D10 (siehe D3D10.1 & D3D10.2) und natuerlich deren Refreshes/Zwischenschieber.
IMHLO wird die Entwicklung solcher chips erst ab schaetzungsweise Ende 2008 anfangen; ohne nichtmal ein definitives Konzept auf dem Kreideboard zu haben ist jeglicher hypothetische Codename auch nutzlos.
Leonidas
2007-03-27, 08:35:38
Das Fuad durchaus seine Quellen hat, bewies er imo doch in der Vergangenheit. Aber wie bei jeder Spekulation muss man immer etwas kritisch sein, vielleicht sagte ihm eine Quelle von TSCM: "RV630 has a problem." und er hat daraus sich diese News gedichtet.
Ganz exakt. Fuad hat hervorragende Quellen - aber er dichtet zu viel drumherum. D.h. viel von dem was er schreibt ist zweifelhaft, aber manchmal verstecken sich auch harte Fakten drin - wenngleich sie auch schwer zu erkennen sind.
AnarchX
2007-03-27, 09:59:45
RV610 delayed until end of May
One more delayed (http://www.fudzilla.com/index.php?option=com_content&task=view&id=306&Itemid=1)
Hast du mal einen Beispielcode rumliegen, oder wo kann ich das einsehen?
Also bei Pixelshadern sollte dir das eigentlich bekannt sein. Sobald man bei Vertexshadern noch mit skalarem rumrechnet passiert natürlich das gleiche.
lol wenn eine 4x4 Matrix aus 16 Komponenten besteht, stimme ich dur zu. Dann wars ne reine Definitionsklauberei.
Ja ;)
micki
2007-03-27, 12:44:24
Könntet ihr mal aufhören darüber zu reden als wäre das schon gesichert? Da hat sich mit dem letzten Treiber in der einen D3D10-Demo schon einiges bewegt. Imho ist das derzeit völlig unoptimiert im Treiber um D3D10 "aus dem Haus" zu bringen.ich finde es laeuft nicht optimal was die performance angeht, wenn sie in zukunft was aendert, dann kann man die meinung noch wechseln, aber immer keine meinung zu haben weil es ja eventuell mal besser werden koennte ist IMHO void.
Bei G8x wurde sonst wirklich an keiner Stelle gespart, ich wüsste nicht warum man es gerade an einer Stelle tun sollte wo man ganz genau weiß dass die ATI-Marktschreier alle gleich wieder drauf stürzen würden wie die Fliegen auf nen Scheißhaufen.
bei NV bin ich das seit jahren gewohnt, dass sie bei neuer tech erstmal ne solide unperformante implementierung liefern und sich dann erst um die performance kuemmern. sie koennen ja auch erst nutzvoll optimieren wenn sie software sehen die die tech benutzt, ansonsten wuerden sie vorgeben wie die hardware zu nutzen ist.
ich finde dass das ein intelligentes vorgehen von NV ist und sehe das im GS bestaetigt.
(alles ganz unabhaengig wie es bei ATI aussehen wird).
micki
2007-03-27, 12:47:36
Ist das auch der Grund warum der Vertexshader 4 Takte benötigt um ein Dreieck zu zeichnen?
Jedenfalls muss man die Anzahl der Vertexshader mit dem Takt multipliziert, durch 4 teilen um an dieses Ergebnis zu kommen.liegt daran dass man 4 dot4 macht um ein vertex mit einer matrix zu transformieren und dann an das trianglesetup zu geben.
Nakai
2007-03-27, 13:50:53
Ein Vertexshader zeichnet überhaupt kein Dreieck. Und die Rechnung ist mir auch fremd. Die Anzahl der Dreiecke limitiert höchstens das Triangle-Setup.
Mir ist shcon klar, das Vertexshader keine Dreiecke zeichnen, jedoch wird die Dreieckfüllrate theoretisch so berechnet.
Das ist zwar nur der Peakwert und wird nicht immer erreicht...
iegt daran dass man 4 dot4 macht um ein vertex mit einer matrix zu transformieren und dann an das trianglesetup zu geben.
Das hab ich noch nicht gewusst, ist jetzt aber geklärt.
mfg Nakai
robbitop
2007-03-27, 14:05:59
Also bei Pixelshadern sollte dir das eigentlich bekannt sein. Sobald man bei Vertexshadern noch mit skalarem rumrechnet passiert natürlich das gleiche.
Die meisten Skalare bei VS sind eigentlich SFUs. Die kosten mit reinem MAD (z.B. sinus oder cosinus) eh viele Takte. NV hat das mit entsprechender Logik im VS geloest. (zumindest bis zum NV3x)
Die meisten Skalare bei VS sind eigentlich SFUs.
Sind sie nich. Schau dir mal paar Vertexshader aus gängigen Spielen an.
Heimatloser
2007-03-27, 20:35:18
RV610 delayed until end of May
One more delayed (http://www.fudzilla.com/index.php?option=com_content&task=view&id=306&Itemid=1)
Das mag sich jetzt vielleicht bescheuert und auch sehr "unerwachsen" anhören, aber so langsam werde ich auch scharf darauf so ein Ding zu besitzen (wenn es denn dann mal herauskommen sollte).
Irgendwie macht mich das ganze darüber herumrätseln und verschieben ganz spitz auf das Teil.
Ist irgendwie wie bei einer Frau die sich ziert...... :rolleyes:
DerHeimatlose
[MK2]Mythos
2007-03-27, 21:13:28
Das mag sich jetzt vielleicht bescheuert und auch sehr "unerwachsen" anhören, aber so langsam werde ich auch scharf darauf so ein Ding zu besitzen (wenn es denn dann mal herauskommen sollte).
Irgendwie macht mich das ganze darüber herumrätseln und verschieben ganz spitz auf das Teil.
Ist irgendwie wie bei einer Frau die sich ziert...... :rolleyes:
DerHeimatlose
...genau, oder wie ein guter Wein... LOL.
Nein im Ernst, ich kann noch warten, DX10 Content gibts eh noch nicht, insofern ist doch im Moment gar kein dringender Bedarf für so eine GPU da, mal von extremen Auflösungen abgesehen...
horn 12
2007-03-27, 22:11:12
Hoffe zumindest der R600 kommt nun definitiv am 23/24 April raus, bzw. max. Anfang Mai im Laden zu kaufen, ansonsten :mad: :mad:
Dies mit den RV610/630 Karten ist auch schon wieder recht verdächtig, hoffe es bleibt beim Release des R600!
robbitop
2007-03-27, 22:21:06
Sind sie nich. Schau dir mal paar Vertexshader aus gängigen Spielen an.
Ich besitze keinen Debugger oder Aehnliches. Kannst du damit dienen?
R600 to work at 750-800 MHz (http://www.fudzilla.com/index.php?option=com_content&task=view&id=211&Itemid=34)
R700 scheduled for Q1 2008 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=211&Itemid=34)
:eek: nVs G100 soll ja auch schon bald kommen...
Ailuros
2007-03-27, 22:27:38
Hoffe zumindest der R600 kommt nun definitiv am 23/24 April raus, bzw. max. Anfang Mai im Laden zu kaufen, ansonsten :mad: :mad:
Dies mit den RV610/630 Karten ist auch schon wieder recht verdächtig, hoffe es bleibt beim Release des R600!
Techday != Launch.
laser114
2007-03-27, 22:32:14
R700 scheduled for Q1 2008 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=211&Itemid=34)
:eek: nVs G100 soll ja auch schon bald kommen...
Ja, anscheinend geht ATI den Zwischenschritt G90 nicht mit. Das wird interessant, wie sich das dann entwickelt...
Daredevil
2007-03-27, 22:33:04
Was bedeutet in dem Fall denn dann Launch, das die Karten ab dem Launch schon beim Händler zum verkauf liegen oder sie erst ab dem Launch verschickt werden?
robbitop
2007-03-27, 22:39:31
R600 to work at 750-800 MHz (http://www.fudzilla.com/index.php?option=com_content&task=view&id=211&Itemid=34)
R700 scheduled for Q1 2008 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=211&Itemid=34)
:eek: nVs G100 soll ja auch schon bald kommen...
Ja. NV30 sollte Fruehjahr 2002 kommen. R400 mitte 2003. R520 sollte Anfang 2005 kommen. G80 angeblich (laut Jen Hsun Huang) schon Q2 2006 und R600 Ende 2006.
Was lernen wir daraus? Die langfristigen Roadmaptermine sind alle etwas optimistisch.
Erstmal kommen dieses Jahr die Refreshes (R680, G90).
Ailuros
2007-03-27, 22:59:13
Ja, anscheinend geht ATI den Zwischenschritt G90 nicht mit. Das wird interessant, wie sich das dann entwickelt...
Bei den zeitigen yields und Stromverbrauch des R600, hat ATI eigentlich eine 65nm Variante viel mehr noetig als die Konkurrenz.
Sorry, der erste der beiden Links von dem Posting von mir war falsch, hier der Richtige:
R600 to work at 750-800 MHz (http://www.fudzilla.com/index.php?option=com_content&task=view&id=320&Itemid=1)
dargo
2007-03-27, 23:10:17
Ja, anscheinend geht ATI den Zwischenschritt G90 nicht mit. Das wird interessant, wie sich das dann entwickelt...
Was meinst du mit Zwischenschritt G90?
Ist schon was über einen R700 überhaupt bekannt, dass er sich so stark vom R600 unterscheidet?
Moralelastix
2007-03-27, 23:11:03
noch ein Indiz für 65nm?
Ailuros
2007-03-27, 23:13:16
Was meinst du mit Zwischenschritt G90?
Ist schon was über einen R700 überhaupt bekannt, dass er sich so stark vom R600 unterscheidet?
R6x0@65nm. R700= D3D10.1 afaik.
R6x0@65nm. R700= D3D10.1 afaik.
Und wahrscheinlich Multicore. Ziemlich sogar.
Ailuros
2007-03-27, 23:20:28
Und wahrscheinlich Multicore. Ziemlich sogar.
Auf welchen Herstellungsprozess sie zielen wuerde mich mehr interessieren. Fuer alles <65nm = :| :eek:
deekey777
2007-03-27, 23:21:43
Auf welchen Herstellungsprozess sie zielen wuerde mich mehr interessieren. Fuer alles <65nm = :| :eek:
55 nm?
dargo
2007-03-27, 23:22:51
Auf welchen Herstellungsprozess sie zielen wuerde mich mehr interessieren. Fuer alles <65nm = :| :eek:
Meinst du die machen den Fehler schon wieder?
laser114
2007-03-27, 23:25:59
Was meinst du mit Zwischenschritt G90?
Ist schon was über einen R700 überhaupt bekannt, dass er sich so stark vom R600 unterscheidet?
Wenn als Termin Anfang 2008 anvisiert ist, dürfte es wohl kaum ein kleiner Zwischenschritt sein, kann sich ATI bei ihrem derzeitigen Zeitplan wohl ein "kleineres" Update (ala G90, da gehe ich einfach mal von aus) nicht leisten.
Wobei es da ja noch den bereits früher erwähnten R680 geben könnte, das stimmt natürlich. Aber hat sich nicht der R600 schon entsprechend gewandelt...?
w0mbat
2007-03-27, 23:27:12
Wieso redet ihr als R600 Refresh alle von R680? Müsste es nicht R650 heißen, es hab ja keinen R620.
Ailuros
2007-03-27, 23:28:53
Meinst du die machen den Fehler schon wieder?
Das was wir alle als "Fehler" bezeichnen ist Anteil der generellen Strategie von ATI und hoechstwahrscheinlich ein Resultat von verkorksten "Rabbatt-Vertraegen" mit TSMC um auf den neuesten und schnellsten Quark sofort zu steigen.
laser114
2007-03-27, 23:28:53
Wieso redet ihr als R600 Refresh alle von R680? Müsste es nicht R650 heißen, es hab ja keinen R620.
In früheren Infos im Web stand meist R680. Woher die Info von denen kam, kann ich dir allerdings nicht sagen.
deekey777
2007-03-27, 23:29:28
Wieso redet ihr als R600 Refresh alle von R680? Müsste es nicht R650 heißen, es hab ja keinen R620.
Weil es nicht ganz klar ist.
Es gibt zwei Meinungen: Der R650 ist der Shrink der R600 auf 65 nm, und der R680 ist das, was der R580 für den R520 war.
Die anderen sagen, dass der R680 der eigentliche Name des geshrinkten R600 in 65 nm ist.
Ailuros
2007-03-27, 23:33:18
Wenn als Termin Anfang 2008 anvisiert ist, dürfte es wohl kaum ein kleiner Zwischenschritt sein, kann sich ATI bei ihrem derzeitigen Zeitplan wohl ein "kleineres" Update (ala G90, da gehe ich einfach mal von aus) nicht leisten.
Wobei es da ja noch den bereits früher erwähnten R680 geben könnte, das stimmt natürlich. Aber hat sich nicht der R600 schon entsprechend gewandelt...?
G100 wird genausowenig Anfang 2008 kommen wie R700. Irgend jemand hat eine uralte roadmap gesehen die ueberhaupt nichts mehr mit der heutigen Realitaet zu tun hat.
Selbst fuer Refreshes brauchen IHVs heutzutage zumindest 8 Monate. R580 war eine Ausnahme durch die Verspaetung von R520, aber ueberdenk nochmal bitte auf welchen Herstellungsprozessen beide chips jeweils ankamen.
Weil es nicht ganz klar ist.
Es gibt zwei Meinungen: Der R650 ist der Shrink der R600 auf 65 nm, und der R680 ist das, was der R580 für den R520 war.
Die anderen sagen, dass der R680 der eigentliche Name des geshrinkten R600 in 65 nm ist.
Sprich R680 = R600 mit 3-facher Shader Unit?
laser114
2007-03-27, 23:42:38
G100 wird genausowenig Anfang 2008 kommen wie R700. Irgend jemand hat eine uralte roadmap gesehen die ueberhaupt nichts mehr mit der heutigen Realitaet zu tun hat.
Mag richtig sein, aber wenn man beides verschiebt passen die Relationen immer noch. ;)
Ist eben die Frage was nun mit dem R680 genau ist. Da habe ich in letzter Zeit kaum Infos darüber gesehen.
dargo
2007-03-27, 23:56:04
Das was wir alle als "Fehler" bezeichnen ist Anteil der generellen Strategie von ATI und hoechstwahrscheinlich ein Resultat von verkorksten "Rabbatt-Vertraegen" mit TSMC um auf den neuesten und schnellsten Quark sofort zu steigen.
Nun, ATI gibts in der damaligen Form nicht mehr. Von daher ändert sich die Strategie vielleicht endlich mal.
Ailuros
2007-03-28, 00:09:21
Sprich R680 = R600 mit 3-facher Shader Unit?
Wie stellst Du Dir dass denn genau vor? R600 hat 64 5D ALUs; eine 65nm Variante koennte auf keinen Fall Platz fuer 192 5D ALUs haben.
Nun, ATI gibts in der damaligen Form nicht mehr. Von daher ändert sich die Strategie vielleicht endlich mal.
Der Verdacht eines merkwuerdigen Vertrags mit TSMC stammt auf jeden Fall nicht von mir. Falls dieses stimmen sollte aendert das was genau bevor der hypothetische Vertrag auslaeuft?
Mag richtig sein, aber wenn man beides verschiebt passen die Relationen immer noch. ;)
Ist eben die Frage was nun mit dem R680 genau ist. Da habe ich in letzter Zeit kaum Infos darüber gesehen.
Was fuer Infos willst Du denn genau sehen wenn ATI immer noch damit kaempft um R600 auf die Regale zu bekommen und die yields fuer 65nm immer noch beschissen sind. Hoerst Du im Gegensatz was von G90 in letzter Zeit (und ich meine jetzt zuverlaessige Quellen und nicht 0815 trash tabloid Seiten)?
Armaq
2007-03-28, 00:14:16
Am Vertrag muss sich nichts ändern, vll. aber am Produkt?
Ailuros
2007-03-28, 00:22:38
Am Vertrag muss sich nichts ändern, vll. aber am Produkt?
Waere aber generell gegen die Interessen von AMD. Die These auf die ich mich beziehe erwaehnte dass ATI einen Spezialvertrag bei TSMC haben koennte dass sie so und so viel % Rabbat bekommen pro wafer wenn sie auf dem neuesten Herstellungsprozess herstellen.
Ich kann zwar nicht sagen ob das Zeug tatsaechlich so ist oder nicht, aber es wuerde mir zumindest eine logische Erklaerung geben warum ATI ihre Strategie seit sagen wir mal R520 nicht geaendert hat.
Ganz so nebenbei liegt ein jeglicher "R700" erstmal schon seit einiger Zeit unter Entwicklung und faengt nicht in der absehbaren Zukunft an. Dementsprechend wurde die Entscheidung fuer den Herstellungsprozess schon vor einiger Zeit getroffen und natuerlich koennte man dieses aendern, aber es fuehrt dann wieder garantiert zu einer Verschiebung des projezierten Release-Datums.
dargo
2007-03-28, 00:31:18
Der Verdacht eines merkwuerdigen Vertrags mit TSMC stammt auf jeden Fall nicht von mir. Falls dieses stimmen sollte aendert das was genau bevor der hypothetische Vertrag auslaeuft?
Mit der Übernahme von ATI dürften alte Verträge keine Gültigkeit mehr haben.
deekey777
2007-03-28, 00:32:32
Sprich R680 = R600 mit 3-facher Shader Unit?
Nein, keineswegs.
Wenn es einen R680 geben wird, der kein geschrinkter R600 ist, dann kommen eher eine Erweiterung der Cluster-Anzahl. Andererseits wäre eine Vergrößerung der Clusters an sich denkbar, dagegen spricht aber eine schlechtere Skalierbarkeit.
Ailuros
2007-03-28, 00:37:00
Mit der Übernahme von ATI dürften alte Verträge keine Gültigkeit mehr haben.
Gut dass Du Dich so genau mit solchen Einzelheiten auskennst :rolleyes:
dargo
2007-03-28, 00:40:48
Gut dass Du Dich so genau mit solchen Einzelheiten auskennst :rolleyes:
Ich kenne das zumindest von anderen Firmen. Wenn das mit der Übernahme von ATI anders war würde es mich schon wundern. Falls du darüber mehr weißt nur zu ...
Ailuros
2007-03-28, 00:47:10
Ich kenne das zumindest von anderen Firmen. Wenn das mit der Übernahme von ATI anders war würde es mich schon wundern. Falls du darüber mehr weißt nur zu ...
Kein Vertrag entfaellt automatisch bei einer Uebernahme, ausser es wird ausdruecklich im Vertrag erwaehnt. Ich kenn mich zwar zugegeben mit dem legalen System wo anders nicht besonders gut aus, aber ich kontrolliere und unterschreibe mehr als 40 Vertraege pro Jahr selber.
Nein, keineswegs.
Wenn es einen R680 geben wird, der kein geschrinkter R600 ist, dann kommen eher eine Erweiterung der Cluster-Anzahl. Andererseits wäre eine Vergrößerung der Clusters an sich denkbar, dagegen spricht aber eine schlechtere Skalierbarkeit.
Vielleicht drehen sie nur an der Taktschraube.
Hat irgendwer von euch eine Idee, wie schnell der R600 @ 65nm getaktet werden könnte? (Grundlage 750-800mhz @ 80nm)
seahawk
2007-03-28, 07:20:26
55 nm?
Wieder so ein halfnode ? Ich wiess nicht, ob 80nm sie da nicht genug gearnt haben müßte. Ich würde eher nochmal 65nm erwarten und dann direkt 45nm.
robbitop
2007-03-28, 08:25:04
Wie stellst Du Dir dass denn genau vor? R600 hat 64 5D ALUs; eine 65nm Variante koennte auf keinen Fall Platz fuer 192 5D ALUs haben.
Da waere ich mir gar nicht mal so sicher. Wenn man die Granulariaet verschlechtert (wie beim R580) und einfach nur die Anzahl der ALUs pro Quad erhoeht, koennte das machbar sein.
robbitop
2007-03-28, 08:28:11
Wieder so ein halfnode ? Ich wiess nicht, ob 80nm sie da nicht genug gearnt haben müßte. Ich würde eher nochmal 65nm erwarten und dann direkt 45nm.
Mit Halfnote spart man Fertigungskosten wie mit jedem Shrink. Damit kann die Marge erhoeht werden oder der Endkundenpreis gesenkt werden. Das laesst sich sicher kein IHV entgehen. Nebenbei bringen die Halfnodes schon etwas in Richtung Takt oder Leistungsaufnahme.
seahawk
2007-03-28, 08:54:11
Mit Halfnote spart man Fertigungskosten wie mit jedem Shrink. Damit kann die Marge erhoeht werden oder der Endkundenpreis gesenkt werden. Das laesst sich sicher kein IHV entgehen. Nebenbei bringen die Halfnodes schon etwas in Richtung Takt oder Leistungsaufnahme.
Hat aber eben eine Tendenz zu schlechten Yields bei High-End-Chips, da dies Halhnodes oft mehr Value orientiert sind als performance orientiert. Momentan sehe ich eher den Nachfolger der RV6XX in 55nm. Bisher würde ich nur G70 als erfolgrechen High-End-Chip sehen., der in einem Halfnode gefertig wurde.
robbitop
2007-03-28, 09:05:33
Hat aber eben eine Tendenz zu schlechten Yields bei High-End-Chips, da dies Halhnodes oft mehr Value orientiert sind als performance orientiert. Momentan sehe ich eher den Nachfolger der RV6XX in 55nm. Bisher würde ich nur G70 als erfolgrechen High-End-Chip sehen., der in einem Halfnode gefertig wurde.
Das ist eine Pauschalisierung die so nicht stimmen muss. Das kommt extrem auf das Design an. G70 lief, wie du sagtest, sehr gut auf einem half node. NV43 und NV44 ebenfalls. Auch G73B lief damit sehr gut.
Das ist eine Pauschalisierung die so nicht stimmen muss. Das kommt extrem auf das Design an. G70 lief, wie du sagtest, sehr gut auf einem half node. NV43 und NV44 ebenfalls. Auch G73B lief damit sehr gut.
Die letzten drei sind aber, und darum ging Seahawks Aussage ja, keine High-End-Chips.
James Ryan
2007-03-28, 09:25:06
R600 to work at 750-800 MHz (http://www.fudzilla.com/index.php?option=com_content&task=view&id=211&Itemid=34)
Kann es sein dass du was falsches verlinkt hast? Da steht nichts bezüglich den Taktfrequenzen des R600.
MfG :cool:
robbitop
2007-03-28, 09:32:26
Die letzten drei sind aber, und darum ging Seahawks Aussage ja, keine High-End-Chips.
Das spielt keine Rolle. Das ist ja nur eine Frage des Verhaeltnisses.
seahawk
2007-03-28, 10:01:08
Das spielt keine Rolle. Das ist ja nur eine Frage des Verhaeltnisses.
Soielt für mich schon ne Rolle. Der einzige pünktliche und gute High-End-Chip in einem Halfnode war G70 und selbst da soll der Yield im Verlgeich zum in 90nm gefertigten Refresh / Nachfolger relativ enttäsuchend gewesen sein.
AnarchX
2007-03-28, 10:28:26
Some RV630 and RV610 are 80 nanometre
Or 65nm, depends of the customer (http://www.fudzilla.com/index.php?option=com_content&task=view&id=326&Itemid=1)
The big OEM's could not wait for 65 nanometre versions of thr RV630 and RV610 and they placed the order of the 80 nanometre chips.[...]
Inwiefern das glaubwürdig ist, ist natürlich fraglich, wobei es aber in der Vergangenheit ja Gerüchte gab um RV630/610@80nm.
Vielleicht war ja der RV630 den man bisher sah ein solcher 80nm Chip, was einiges erklären könnte?
robbitop
2007-03-28, 11:00:31
Soielt für mich schon ne Rolle. Der einzige pünktliche und gute High-End-Chip in einem Halfnode war G70 und selbst da soll der Yield im Verlgeich zum in 90nm gefertigten Refresh / Nachfolger relativ enttäsuchend gewesen sein.
Da habe ich anderes gehoert.
Some RV630 and RV610 are 80 nanometre
Or 65nm, depends of the customer (http://www.fudzilla.com/index.php?option=com_content&task=view&id=326&Itemid=1)
Inwiefern das glaubwürdig ist, ist natürlich fraglich, wobei es aber in der Vergangenheit ja Gerüchte gab um RV630/610@80nm.
Vielleicht war ja der RV630 den man bisher sah ein solcher 80nm Chip, was einiges erklären könnte?
Ist es notwendig jeden Mist von Fudo hier zu posten?
Das er keine AHnung hat und in vielen Artikel phantasiert sollte doch langsam klar sein.
@seehawk
dann nimm halt den G70 in 110nm
hat auch wunderbar geklappt
san.salvador
2007-03-28, 12:05:53
Ist es notwendig jeden Mist von Fudo hier zu posten?
Das er keine AHnung hat und in vielen Artikel phantasiert sollte doch langsam klar sein.
Es ist aber das einzige, das man noch als "Information" bezeichnen könnte.
Oder hast du bessere Quellen?
Mit der Übernahme von ATI dürften alte Verträge keine Gültigkeit mehr haben.
Wie kommst du auf diesen Unsinn. Verträge müssen eingehalten werden. Es sei den spezielle Klauseln erlauben eine Auflösung.
Es ist aber das einzige, das man noch als "Information" bezeichnen könnte.
Es sind digitale Wörter. Fudo phantasiert einfach und schreibt dazu, dass er das irgendwo gehört hat. Kann ich auch machen.
Oder hast du bessere Quellen?
Hat er irgendwelche Quellen?
Nein, er schreibt soviel, dass irgendwas davon schon richtig sein wird.
dargo
2007-03-28, 12:27:56
Wie kommst du auf diesen Unsinn. Verträge müssen eingehalten werden. Es sei den spezielle Klauseln erlauben eine Auflösung.
Ja, und eben hier ist das grosse Fragezeichen.
Sollten also keine Ausnahmen drin stehen könnte unter Umständen das selbe mit dem R700 passieren wie dem R600. Je nachdem wie lange die Verträge gültig sind.
Da sehe ich kein grosses (sondern nur ein kleines) Fragezeichen, weil solche Klauseln extrem unüblich sind. Ausser bei Verträgen, die über einen sehr langen Zeitraum laufen (z.B. 10 -20 Jahre), was ich hier mal bezweifele.
AlfredENeumann
2007-03-28, 13:04:09
Kleiner CeBit Nachtrag :biggrin:
http://img58.imageshack.us/img58/4866/picture1cj5bp5.jpg
Irgendwer wird da wohl Ärger bekommen (haben)
http://crn.de/showArticle.jhtml?articleID=198001953
MartinRiggs
2007-03-28, 13:36:39
Diesen Scheiss hätte sie ATI echt sparen können, oh gott wir haben ne Graka gebaut aber ja nix davon erzählen, echt peinlich.
Vielleicht hätten sie es mal mit der ehrlichen Variante probieren sollen.
hey leutz, wir hatten probleme aber hier schaut alle her was lange währt wird gut und das schätzchen namens R600 rennt wie die wilde katz, bzw. braucht sich nicht vor der konkurrenz zu verstecken.....
Diesen Scheiss hätte sie ATI echt sparen können, oh gott wir haben ne Graka gebaut aber ja nix davon erzählen, echt peinlich.
Vielleicht hätten sie es mal mit der ehrlichen Variante probieren sollen.
hey leutz, wir hatten probleme aber hier schaut alle her was lange währt wird gut und das schätzchen namens R600 rennt wie die wilde katz, bzw. braucht sich nicht vor der konkurrenz zu verstecken.....
Vielleicht muss er sich ja vor der Konkurrenz verstecken?
MartinRiggs
2007-03-28, 13:50:52
dann würden sie aber auch mit der ehrlichen Variante am besten fahren.
hat zwar "nur" die leistung von G80 aber die Treiber sind ausgereift und die Bildqualität wie gewohnt sehr gut?
Aber wir müssen die Beweggründe ja auch nicht verstehen:rolleyes:
James Ryan
2007-03-28, 14:15:19
dann würden sie aber auch mit der ehrlichen Variante am besten fahren.
hat zwar "nur" die leistung von G80 aber die Treiber sind ausgereift und die Bildqualität wie gewohnt sehr gut?
Aber wir müssen die Beweggründe ja auch nicht verstehen:rolleyes:
Und was ist, wenn die Treiber nicht ausgereift sind und die Bildqualität "nur" auf R580 Niveau stagniert? Dann macht AMD/ATis "Strategie" durchaus Sinn.
MfG :cool:
Armaq
2007-03-28, 14:41:45
Es würde niemanden (mich) verwundern, wenn der R600 "nur" die Quali des Vorgängers bringt. Denn die war eigentlich sehr gut und einen G80 hat man so einfach nicht erwartet. Nach der G70 wird ATI sicherlich auf weitere Chips dieser Art spekuliert haben (Transistorsparer ahoi).
G80 ist nunmal in keinster Weise wie der Vorgänger.
Sphinx
2007-03-28, 14:54:40
Es würde niemanden (mich) verwundern, wenn der R600 "nur" die Quali des Vorgängers bringt. Denn die war eigentlich sehr gut und einen G80 hat man so einfach nicht erwartet. Nach der G70 wird ATI sicherlich auf weitere Chips dieser Art spekuliert haben (Transistorsparer ahoi).
G80 ist nunmal in keinster Weise wie der Vorgänger.
Ati(now AMD) + Nvidia setzen beide unterschiedliche Schwerpunkte und es wurde schon mehrfach angedeuted das die Entwicklungen der beiden auseinander driften werden.
Was für wen von Vorteil und Nachteil sein wird - wird sich hoffentlich bald zeigen lassen.
DirectX 10 is ein Ziel - wie "man" zum Ziel kommt, ob effizient oder brachial, wird sich hoffentlich zeigen warum Amd den launch erst recht um fast eine 1/2 Generation verschob... ~ mal alle gerüchte wegen "Fertigungsproblematiken" ausser acht gelassen, denn unter all den Spekulationen sind auch viele "gewollte" Irreführungen vorhanden...
Es würde niemanden (mich) verwundern, wenn der R600 "nur" die Quali des Vorgängers bringt. Denn die war eigentlich sehr gut und einen G80 hat man so einfach nicht erwartet. Nach der G70 wird ATI sicherlich auf weitere Chips dieser Art spekuliert haben (Transistorsparer ahoi).
G80 ist nunmal in keinster Weise wie der Vorgänger.
8800er sind uninteressant,das 4xAA hat sich null verbessert,also weiterhin miese Bildquali
James Ryan
2007-03-28, 15:07:21
;D 8800er sind uninteressant,das 4xAA hat sich null verbessert,also weiterhin miese Bildquali
:ulol4: Hast Recht, das 4*FSAA ist "nur" auf dem Niveau vom R580.
Aber ist egal, man benutzt auf der G80 eh 8*FSAA, bei 4*FSAA langweilt sich so eine Karte sowieso nur zu Tode.
Immer diese Trollgäste ;D
MfG :cool:
8800er sind uninteressant,das 4xAA hat sich null verbessert,also weiterhin miese Bildquali
Ja, da warten wir doch mal auf den G100 - da werden die 4 Samples sicherlich konvolutioniert werden, das bringt nochma ordentlich Schub: Convolution-AA! (mit alle Samples am selben Punkt...)
könnte auch sein das AMD+ATI dank grösserem Finanzpolster als ATI allein sich einfach noch leisten kann die Entwicklung des R600 nach hinten rauszuschieben um soweit dran zu pfeilen das es wie der R580 auch ein rundes Produkt wird (bis auf hohe stromaufnahme im 3D Betrieb aber das interessiert im HighEnd eher sekundär)
ich mein der R600 ist wie der R300 damals eine völlig neue Generation und wenn die ausgereift ist kann man den Kontrahenten damit und mit deren Refreshs recht gut auf dem Markt schlagen.....
so spart man sich Architektur Refreshs ala R580 weil der R520 noch nicht wirklich perfekt war...und kann auf reine Performance Refreshs setzen....
Fetza
2007-03-28, 15:27:24
Und was ist, wenn die Treiber nicht ausgereift sind und die Bildqualität "nur" auf R580 Niveau stagniert? Dann macht AMD/ATis "Strategie" durchaus Sinn.
MfG :cool:
Was soll daran sinnvoll sein? In dem fall wäre ein abbruch der arbeiten am r600sinnvoller, oder glaubst du jemand wird einen r600 kaufen, welche praktisch gleichschnell mit g80 ist, und keinen nennenswerten vorteil hat, nur weil ati die interessierte käuferschaft, seit monaten um echte infos zum chip prellt?
So wie ich das verstanden hab, wird r600 in jedem fall teuer, und niemand wird viel geld für einen chip ausgeben, der nicht deutlich leistungsfähiger ist, als das konkurrenzprodukt, welches 6 monate vorher veröffentlicht wurde. Über den preis werden sie daher meiner meinung nach nicht gehen können.
greetz
James Ryan
2007-03-28, 15:36:21
Was soll daran sinnvoll sein? In dem fall wäre ein abbruch der arbeiten am r600sinnvoller, oder glaubst du jemand wird einen r600 kaufen, welche praktisch gleichschnell mit g80 ist, und keinen nennenswerten vorteil hat, nur weil ati die interessierte käuferschaft, seit monaten um echte infos zum chip prellt?
So wie ich das verstanden hab, wird r600 in jedem fall teuer, und niemand wird viel geld für einen chip ausgeben, der nicht deutlich leistungsfähiger ist, als das konkurrenzprodukt, welches 6 monate vorher veröffentlicht wurde. Über den preis werden sie daher meiner meinung nach nicht gehen können.
greetz
Gerüchte besagen dass der R600 billiger verkauft wird als aktuelle G80-GTX Karten. Außerdem verdichten sich die Hinweise dass der R600 keinesfalls ein "G80 Killer-Chip" wird.
ATi nutzt die Zeit sicherlich um den Takt aufs allerletzte hochzudrücken um ja schneller als die GTX zu sein. Dazu wird es wohl 8*MSAA geben und AF auf R580 Niveau. Alles in allem könnte ATi da punkten wo es NVIDIA zur Zeit mächtig versaut: Treiber und 2D-Stromverbrauch.
MfG :cool:
Alles in allem könnte ATi da punkten wo es NVIDIA zur Zeit mächtig versaut: Treiber und 2D-Stromverbrauch.
Und warum versauert dort?
Richtig, kein Druck durch Konkurrenz.
dreas
2007-03-28, 15:58:12
Bei AMD wird aktuell immer ein Verkaufspreis von 100$Liste unter dem entsprechenden Nvidia Pedant angepeilt.
mfg dreas
ShadowXX
2007-03-28, 16:00:54
ich mein der R600 ist wie der R300 damals eine völlig neue Generation und wenn die ausgereift ist kann man den Kontrahenten damit und mit deren Refreshs recht gut auf dem Markt schlagen.....
Der G80 ist auch eine völlig neue Generation, die mit den Chips vorher sehr sehr wenig (bis überhaupt nix) zu tun hat.....
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.