PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 9


Seiten : [1] 2 3 4

Gast
2007-04-27, 18:12:52
Die Benchmarks von DailyTech sind keine Fakes.
Aber die Hardware und der dazu passende Treiber entsprechen noch nicht dem Endprodukt.

Freut euch auf die Vista vs. XP Benchmarks, sowie den Direct3D 10 Spielevergleich mit Lost Planet und Halo.



Fortsetzung von hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=358668

deekey777
2007-04-27, 18:14:36
Kann aber genauso gut sein das die Ergebnisse dem Ist Zustand entsprechen.
Warum liest du nicht das Posting aus dem THG-Forum?
Nun halt mal den Ball flach - ich meine nicht WÖRTLICH und auf DEN TAG GENAU sieben Monate - es geht darum, daß ATI den Chip wenigstens hätte ZEITNAH releasen müssen. Und bisher war es wenigstens so, daß ATI zwar später releaste, aber 1) nicht SO spät und 2) sei es durch BQ oder durch Leistung einen entscheidenden Vorteil gg. NV hatte. Auch NV hatte immer entscheidende Vorteile, der Nutzer mußte ABWÄGEN.
Sieh doch mal
NV30 vs. R3xx - Ok, hier ist es unstrittig - keine Vorteile NV
NV40 vs. R4xx - Leistungsmässig nicht allzu weit voneinander, aber insgesamt klar ATI! Das ist ein entscheidender Vorteil. Featureset: entscheidender Vorteil NVidia!
G7x vs. R5xx - Leistungsmässig der vorne, der den letzten Chip releaste - am Ende deutlich ATI --> Entscheidender Vorteil; BQ müssen wir glaube ich nicht diskutieren --> ATI (wobei mit GX2 und z.T. auch schon mit 79GT(X) SSAA oft nutzbar wird - für mich ein Kaufkriterium); aber die Karten waren teilweise eng beeinander, man konnte es zumindest nachvollziehen, wenn trotzdem jemand NV gekauft hat (ich habe die Generation mal "Pause" gemacht)

So. Und was haben wir jetzt? NVs BQ ist unschlagbar. Ewiggestrige behaupten Gegenteiliges, aber in allen Spielreleases 2006 und früher ist mindestens 8xS (wer es nicht mag, soll 16xQ nutzen, habe keine Lust mich wieder über den Nutzen von SSAA zu zoffen - solange flüssig, MUSS man es IMHO nutzen) nutzbar und in vielen Releases von 2007 auch, und zwar flüssig. Die Benchmarks habt ihr gesehen, das muss ich nicht weiter kommentieren, wieder ein entscheidender Vorteil zu Gunsten NVidia.
Aus dem letzten Absatz geht hervor, daß, wenn sich nichts GRUNDLEGENDES ändert (irgendwas, was ATI bisher geschafft hat geheimzuhalten) gibt es KEINEN GRUND eine R600-Karte im High-End Segment zu kaufen - es sei denn sie bauen eine passiv gekühlte 29XTX, die Strom produziert.
Eigentlich müsste ATI die Karten zu Pennymarktpreisen auf den Markt werfen oder sie mit Platin überziehen, damit sie kaufbar wird.
Wie gesagt, ich rede ausschließlich vom High-End Segment, was 8600GTS angeht hat sich NV (in Relation zur 88er Serie) bis auf die Knochen blamiert und sollte so schnell wie möglich zusehen, daß ein Chip mit 192Bit SI, schnellem GDDR3 und 64 Streamunits auf den Markt kommt.

Die Hoffnung stirbt zuletzt.
Und warum gehst du nicht darauf ein, was ich geschrieben habe?
Ich könnte als Antwort einfach das von dir zitierte Posting (also mein vorheriges) nutzen.

Lawmachine79
2007-04-27, 18:16:56
Warum liest du nicht das Posting aus dem THG-Forum?
Hm? Verlink das mal bitte.

Sk_Antilles
2007-04-27, 18:19:55
Folie mit HD 2900XT Specs - 16 TMUs (http://r800.blogspot.com/2007/04/radeon-hd-2900xt.html)
http://img259.imageshack.us/img259/4939/01397cb9eaj4.jpg (http://imageshack.us)
[News]
Die Pixelfüllrate sieht ganz nach G80-ROPs aus. ;)

hhhhhmmm.
5 Mhz weniger Core-Takt und 25 Mhz mehr Speicher-takt als bei DT angegeben.

AnarchX
2007-04-27, 18:24:01
hhhhhmmm.
5 Mhz weniger Core-Takt und 25 Mhz mehr Speicher-takt als bei DT angegeben.

Naja, laut VR-Zone sind diese 740/825MHz die finalen Taktraten.

Aber diese Specs machen durchaus Sinn.
Nimmt man nun an, dass die ROPs ähnlich leistungsfähig sind wie die des G80s und es sich bei den TMUs auch um Doppel-TMUs bzw. sie die Leistung 2er G80-TMUs erreichen, kommt man etwa auf 8800GTS Niveau und eben in shaderlastigen Games kann sie sich dann wohl etwas mehr behaupten.

Lawmachine79
2007-04-27, 18:24:50
Warum liest du nicht das Posting aus dem THG-Forum?

Und warum gehst du nicht darauf ein, was ich geschrieben habe?
Ich könnte als Antwort einfach das von dir zitierte Posting (also mein vorheriges) nutzen.
Ich habe gesagt, daß die Leistungsspitze nicht das I-Tüpfelchen, sondern Pflicht ist. Und Du antwortest mir, wie lange das Ding in der Schublade rumoxydiert und auf den Release wartet und auf welchen Designs es basiert. Auch nicht gerade eine passende Antwort. Und dann habe ich Dir dargelegt, WARUM das Ding einfach ZU SPÄT ist und mich darauf bezogen, daß Du mir unterstellst, daß das Ding "am gleichen Tag released" werden soll. +/- 1 Monat ist ok - aber nicht 7 Monate.
Gut, daß so ein Chip fünf Jahre vom Reisbrett bis in den Laden braucht ist zumindest eine interessante Information.

Sk_Antilles
2007-04-27, 18:26:36
Naja, laut VR-Zone sind diese 740/825MHz die finalen Taktraten.

Aber diese Specs machen durchaus Sinn, nimmt man nun an das die ROPs ähnlich leistungsfähig sind wie die des G80s und es sich bei den TMUs auch um Doppel-TMUs bzw. sie die Leistung 2er G80-TMUs erreichen, kommt man etwa auf 8800GTS Niveau und eben in shaderlastigen Games kann sie sich dann wohl etwas mehr behaupten.

Nene, ist schon klar. Ich zweifle das nicht an. Wollte nur mein Kommentar dazu abgeben. ;)

Gast
2007-04-27, 18:29:26
Naja, laut VR-Zone sind diese 740/825MHz die finalen Taktraten.

Aber diese Specs machen durchaus Sinn, nimmt man nun an das die ROPs ähnlich leistungsfähig sind wie die des G80s und es sich bei den TMUs auch um Doppel-TMUs bzw. sie die Leistung 2er G80-TMUs erreichen, kommt man etwa auf 8800GTS Niveau und eben in shaderlastigen Games kann sie sich dann wohl etwas mehr behaupten.

Wenn mal eine Möglichkeit für G80 Karten kommt den Takt der Skalareinheiten alleine zu erhöhen wirds interessant ob die These sich als wahr heraustellt ;)

Sk_Antilles
2007-04-27, 18:32:06
Ich habe gesagt, daß die Leistungsspitze nicht das I-Tüpfelchen, sondern Pflicht ist. Und Du antwortest mir, wie lange das Ding in der Schublade rumoxydiert und auf den Release wartet und auf welchen Designs es basiert. Auch nicht gerade eine passende Antwort. Und dann habe ich Dir dargelegt, WARUM das Ding einfach ZU SPÄT ist und mich darauf bezogen, daß Du mir unterstellst, daß das Ding "am gleichen Tag released" werden soll. +/- 1 Monat ist ok - aber nicht 7 Monate.
Gut, daß so ein Chip fünf Jahre vom Reisbrett bis in den Laden braucht ist zumindest eine interessante Information.

So kann man einfach nicht argumentieren, imho. Wenn das Design steht und das Tape-out schon gelaufen ist, da kann man einfach nicht viel verändern im Nachhinein. Bestimmte Bereiche vielleicht..
Das das nicht so einfach ist sah man ja zB am Prescott. Wieso hat Intel nicht eben mal so den Chip verzögert und ihn verbessert (bei den Resourcen!!)? Der Opteron und Athlon 64 waren da schon ein Jahr draussen.
So einfach ist das halt nicht. Wird man auf den falschen Fuß erwischt, dann hat man halt Pech und muss Schadensbegrenzung machen.

reunion
2007-04-27, 18:39:22
Da haste welche.

http://www.dailytech.com/article.aspx?newsid=7052

Warum schreibt der für gewöhnlich immer sehr gut informierte Ailuros, dass R600 die GTX knapp schlagen wird - und das auch nach diesen Test von DT, der laut ihm wenig aussagekräftig ist?

up¦²
2007-04-27, 18:39:48
According to early numbers shown, the Radeon HD 2600XT has great potential to take over the mid range crown. Early results have shown that the performance is by far better than a 8600GTS.

Although the results seemed to be better, a factory overclocked card can still beat the HD Radeon 2600 flat. In fact in games like DOOM3, this pro Green camp game tends to score much better than a Radeon HD 2600XT.

Which card will have more supporters ? Will CrossFire be able to take on SLI (which scales up to almost 2x the speed - we tested it was 90% better in some games). Stay tuned to OCWorkbench
http://my.ocworkbench.com/bbs/showthread.php?t=62529

Na also... :rolleyes:

AnarchX
2007-04-27, 18:40:47
Wenn mal eine Möglichkeit für G80 Karten kommt den Takt der Skalareinheiten alleine zu erhöhen wirds interessant ob die These sich als wahr heraustellt ;)

Wobei ich eher bezweifele, dass NV dann einfach mal per Treiberupdate eine Übertaktung der Shaderdomain mitbringt. :|

reunion
2007-04-27, 18:43:26
Folie mit HD 2900XT Specs - 16 TMUs (http://r800.blogspot.com/2007/04/radeon-hd-2900xt.html)
http://img259.imageshack.us/img259/4939/01397cb9eaj4.jpg (http://imageshack.us)
[News]
Die Pixelfüllrate sieht ganz nach G80-ROPs aus. ;)

Na also, dass mit den 16 TMUs schwirrte ja schon lange im Raum, wurde allerdings nie wirklich bestätigt. Ich bin überzeugt davon, dass diese 2bi Samples pro Takt berechnen können, womit ich mit meinen Spekulationen voll ins schwarze getroffen hätte. Auch die 700mio Transistoren sind bestätigt, wodurch die beiden Chips fast exakt die gleiche Anzahl an Transistoren hätten.

Mumins
2007-04-27, 18:45:33
Nun ja, man kann auch sagen, wie hier schon vermutet wurde, dass sie die Schnauze voll haben von den Berichten und die Katze aus dem Sack lassen. Damit wird vor dem 14. Klarheit geschaffen. Was soll's?
Und wieso Paperlaunch! Paperlaunch! posaunen? Ich finde die Maßnahme besser als noch zwei Wochen zu warten. ;)
Im generellen finde ich, dass manchmal viel zu heiß diskutiert wird. Man sollte die Sache eigentlich viel lockerer nehmen. Es gibt wesentlich wichtigeres im Leben als die Vorstellung eines Grafikchips. :wink:

Ganz ehrlich wo ist das Problem eines Paperlaunch? Denn ohne Paperlaunch gäbe es auch nichts zu kaufen.

AnarchX
2007-04-27, 18:50:53
Na also, dass mit den 16 TMUs schwirrte ja schon lange im Raum, wurde allerdings nie wirklich bestätigt. Ich bin überzeugt davon, dass diese 2bi Samples pro Takt berechnen können,

Was dann aber bedeutet, dass man dem G80 jedenfalls in der Theorie im Bezug auf die Texelleistung stark unterlegen ist.
Und somit wird uns wohl AI in seiner jetzigen Form erhalten bleiben, um hier diesen Nachteil abzuschwächen.

Einzig der RV630, wenn es sich um einen "halben" R600 handelt, könnte mit 8 Dual-TMUs @800MHz+ interessant sein. ;)

Schrotti
2007-04-27, 18:53:37
Warum liest du nicht das Posting aus dem THG-Forum?


Weil ich des englischen nicht sonderlich mächtig bin.

Aber egal ich halte mich ab jetzt raus aus dieser Diskussion.

Nakai
2007-04-27, 18:58:03
Einzig der RV630, wenn es sich um einen "halben" R600 handelt, könnte mit 8 Dual-TMUs @800MHz+ interessant sein. ;)

Ich halte viel vom Rv630, ein halber R600 gegen einen viertelten G80 ist nicht gerade fair, oder?^^

Das wird wohl dann die Midrangekarte schlechthin...


mfg Nakai

crux2005
2007-04-27, 18:59:39
nur so nebenbei, die TMU des R600 is ganz anders als die vom G80

btw: besteht eine TMU nur aus TA und TF units ?

reunion
2007-04-27, 18:59:47
Was dann aber bedeutet, dass man dem G80 jedenfalls in der Theorie im Bezug auf die Texelleistung stark unterlegen ist.
Und somit wird uns wohl AI in seiner jetzigen Form erhalten bleiben könnte, um hier diesen Nachteil abzuschwächen.

Einzig der RV630, wenn es sich um einen "halben" R600 handelt, könnte mit 8 Dual-TMUs @800MHz+ interessant sein. ;)

Dafür sollte R600 in punkto arithmetische Leistung im Vorteil sein, wovon man in Zukunft vermutlich mehr haben wird. Auch sind 16 doppel TMUs bei >=750Mhz (XTX 800Mhz) immerhin um 140% mehr wie bei R580 (und das ohne eventuelle Effizienzverbesserungen zu berücksichtigen), der nur in den seltensten Fällen > Faktor 2 hinter einem G80 liegt. Ich halte nicht viel davon die nackten Zahlen zu vergleichen. ATis Chips hatten immer weniger Texelleistung als die von nV, und waren trotzdem oft schneller. Würde mich nicht wundern, wenn das Ganze wieder ähnlich ablaufen wird, wie in der Vergangenheit. Zu beginn Gleichstand bis leichter Vorteil für nV, und gegen Ende der Lebenszeit Vorteil für ATi. Dass ein RV630 - falls er ein halber R600 wird - einen G84 vernichten wird, sollte klar sein, selbst wenn sich die Benchs von DT vollständig bestätigen. Und im Lowend-Segment hat man schonmal den Vorteil der besseren 2D-Features und des erheblich kleineren Dies, da sieht es also auch nicht schlecht aus.

[dzp]Viper
2007-04-27, 19:04:50
HUCH!!?!?!

2900XT doch schon am 2. Mai?!

http://www.hartware.de/news_41952.html

Geht man nach neuesten Gerüchten, die unsere Kollegen von VR-Zone aufgeschnappt haben, so wird AMD den Start der Radeon HD 2900 XT vorziehen: Am 2. Mai soll diese bereits auf den Markt kommen (bislang angenommener Termin: 14. Mai) und das zu einem Preis von nur 399 US-Dollar. Der Grafikchip soll mit 740 MHz, der Speicher mit 825 MHz getaktet sein. Alle die sich auf den 14. Mai gefreut haben, müssen aber trotzdem nicht leer ausgehen: Dann wird AMD die Grafikkarten Radeon HD 2400 und HD 2600 launchen.

Lawmachine79
2007-04-27, 19:08:17
Viper;5444494']HUCH!!?!?!

2900XT doch schon am 2. Mai?!

http://www.hartware.de/news_41952.html

Geht man nach neuesten Gerüchten, die unsere Kollegen von VR-Zone aufgeschnappt haben, so wird AMD den Start der Radeon HD 2900 XT vorziehen: Am 2. Mai soll diese bereits auf den Markt kommen (bislang angenommener Termin: 14. Mai) und das zu einem Preis von nur 399 US-Dollar. Der Grafikchip soll mit 740 MHz, der Speicher mit 825 MHz getaktet sein. Alle die sich auf den 14. Mai gefreut haben, müssen aber trotzdem nicht leer ausgehen: Dann wird AMD die Grafikkarten Radeon HD 2400 und HD 2600 launchen.
Guten morgen, lieber Herr Schnellmerker ;) - solltest Privatdetektiv werden ;)
Spaß beiseite, ist glaube ich seit gestern bekannt - aber hast Recht, wird unübersichtlich hier...

[dzp]Viper
2007-04-27, 19:09:05
Guten morgen, lieber Herr Schnellmerker ;) - solltest Privatdetektiv werden ;)
Spaß beiseite, ist glaube ich seit gestern bekannt - aber hast Recht, wird unübersichtlich hier...

Konnte heute den ganzen Tag den Thread net lesen ;( Und das Nachlesen von 10 Seiten is mir dann doch zu mühseelig :tongue:

AnarchX
2007-04-27, 19:09:39
Dafür sollte R600 in punkto arithmetische Leistung im Vorteil sein, wovon man in Zukunft vermutlich mehr haben wird.
Hier wird sich zeigen müssen inwiefern man mit der Effizienz der G80-ALUs mithalten kann, wobei natürlich ein Sieg der 8800GTS in diesem Bereich, was der doppelten Effizienz entsprechen würde, eher sehr unwahrscheinlich ist.
Aber die GTX könnte da schon ein schwerer Gegner sein.


Ich halte nicht viel davon die nackten Zahlen zu vergleichen. ATis Chips hatte immer weniger Texelleistung als die von nV, und waren trotzdem oft schneller.
Das lag aber daran, dass die nutzbare Texelleistung bei NV durch die Pipelne-Stalls um einiges verringert wurde. Ein Problem, dass bei G80 offensichtlich nicht mehr existieren sollte.
(btw. Immer? R400 vs NV40, da hatte ATi deutlich mehr Texelleistung)

Hvoralek
2007-04-27, 19:21:18
(btw. Immer? R400 vs NV40, da hatte ATi deutlich mehr Texelleistung)R420 :wink:

Die rechnerische Filterleistung einer X1800XL/XT und einer 7800 GT/GTX ist immerhin gleich bzw. fast gleich.

Gast
2007-04-27, 19:28:50
btw. Immer? R400 vs NV40, da hatte ATi deutlich mehr Texelleistung)
Dadurch hatte der R400 doch einen Vorteil bei AF und der Performance, wohingegen NV40 mit dem Modus Q und Optimierungen rumpfuschen musste, um den Performanceabfall erträglich zu halten, oder? ATi hatte da einfach die bessere sichtbare Bildqualität bei gleichzeitig besserer Performance. Ich denke beim R600 wird die AF Qualität so wie beim R580 sein und für ein ruhiges Bild muss wieder A.I. off herhalten. Hoffe nur mal, dass der Performanceabfall dann nicht so stark wie beim R580 ausfällt.

reunion
2007-04-27, 19:29:55
Hier wird sich zeigen müssen inwiefern man mit der Effizienz der G80-ALUs mithalten kann, wobei natürlich ein Sieg der 8800GTS in diesem Bereich, was der doppelten Effizienz entsprechen würde, eher sehr unwahrscheinlich ist.
Aber die GTX könnte da schon ein schwerer Gegner sein.


Ja, wird spannend, jedenfalls nehme ich doch stark an, dass auch ATi in punkto Effizienz der ALUs nicht stehe geblieben ist.


Das lag aber daran, dass die nutzbare Texelleistung bei NV durch die Pipelne-Stalls um einiges verringert wurde. Ein Problem, dass bei G80 offensichtlich nicht mehr existieren sollte.
(btw. Immer? R400 vs NV40, da hatte ATi deutlich mehr Texelleistung)

(Stimmt, R420 hatte ich völlig übersehen)
Ja, nV hat die Effizienz der TMUs stark verbessert, nur werden diese Chips eben immer komplexer, und wer weiß, was da noch alles limitieren, blockieren, oder sonst was könnte? Mit dem einfachen ausrechnen der Leistung wie zu Voodoo-Zeiten ist es eben nicht mehr getan, auch das mit den blockieren der TMUs kam erst sehr spät an die Öffentlichkeit. Aber könnte natürlich auch genauso gut sein, dass auch hier nV im Vorteil bzw. zumindest nicht im Nachteil ist, dann wird ATi in der Tat nicht auf AI verzichten können.


R420 :wink:

Die rechnerische Filterleistung einer X1800XL/XT und einer 7800 GT/GTX ist immerhin gleich bzw. fast gleich.

Ja, und eine 7900GTX hat satte 50% mehr, und erreicht trotzdem nicht die Leistung eines R580.

Nakai
2007-04-27, 19:55:17
Das lag aber daran, dass die nutzbare Texelleistung bei NV durch die Pipelne-Stalls um einiges verringert wurde. Ein Problem, dass bei G80 offensichtlich nicht mehr existieren sollte.

Naja soviel Verlust war das nicht, solange nichts limitierte.

mfg Nakai

AnarchX
2007-04-27, 19:59:23
Naja soviel Verlust war das nicht, solange nichts limitierte.


Und warum wird eine 7900GTX von einer X1950Pro heutzutage teilweise vorgeführt, obwohl die GTX über 100% mehr Texelfüllrate und eine deutlich höhere MADD-Leistung hat?

Nakai
2007-04-27, 20:09:41
Natürlich ist das Pipelinestalling ein Handicap, jedoch geht der G7x sehr verschwenderisch mit den Füllraten um. Der R5x0 hat einen guten Threadscheduler, dadurch werden alle Einheiten besser ausgelastet.

Außerdem sind die NV-Treiber für die alte Generation mehr als dürftig, NV hat hier den Treibersupport total für den G80 umgestellt.


mfg Nakai

Gast
2007-04-27, 20:13:37
[quote]
Außerdem sind die NV-Treiber für die alte Generation mehr als dürftig, NV hat hier den Treibersupport total für den G80 umgestellt.


Kein Unsinn erzählen, ja?

Nakai
2007-04-27, 20:36:04
Naja, vergleiche mal die Tests von CB beim Release der Geforce 7900GTX und nun von 8800GTS. Schau nur FEAR an, die Geforcekarten der Serie 7 haben sogut wie keinen Performancegewinn mehr bekommen...und jetzt kommst du...


mfg Nakai

Hvoralek
2007-04-27, 20:41:47
Kein Unsinn erzählen, ja?MW haben alle Treiber seit etwa einem halben Jahr nur Verbesserungen für G8x oder/und Vista gebracht.

Und warum wird eine 7900GTX von einer X1950Pro heutzutage teilweise vorgeführt, obwohl die GTX über 100% mehr Texelfüllrate und eine deutlich höhere MADD-Leistung hat?Das (Nicht-) Stallen ist nun auch nicht der einzige Unterschied zwischen den Architekturen :wink:

AnarchX
2007-04-27, 20:55:22
MW haben alle Treiber seit etwa einem halben Jahr nur Verbesserungen für G8x oder/und Vista gebracht.
AFAIK lief laut einigen Berichten, C&C3 mit einem 100er FW um einiges besser als mit dem alten 9x.xxirgendwas. Aber das ist hier doch extremster OT...


Das (Nicht-) Stallen ist nun auch nicht der einzige Unterschied zwischen den Architekturen :wink:

Aber bei diesem krassen Beispiel, wird das Stalling nicht ganz unbedeutend sein. Natürlich gibt es noch andere Dinge wie das Threading und das bessere DB.

Um nun wieder auf R600 vs G80 zurückzukommen:

Wenn die TMUs des R600 nicht deutlich effizienter sind als die des G80, was ich momentan noch annehme, dann wird wohl ATi weiterhin mit AI negativ auffallen.

Imo sieht man hier auch warum man die XTX wohl canceln wird; der nötige Takt um eine GTX/Ultra im Bezug auf Texel-/Pixelfülltrate zu schlagen ist einfach nicht erreichbar (1.3GHz+ Core bei einer 650MHz Ultra).


btw.
Es gibt Gerüchte, dass man ein HD 2900 CF (also zwei XT) für $699 erwerben könnte. Wobei aber die effektiven 512MB hier imo doch ein großes Manko sind.

btw2.

Bei PCinlife gibt es interessante Thread, die leider für die Öffentlichkeit nicht zugänglich sind -> "R600, UVD, Ultra threaded Dispatch Processor etc. -" (http://we.pcinlife.com/forum-206-1.html)
Aber vielleicht erbarmen sie sich in den nächsten Tagen noch. ;)

Gast
2007-04-27, 21:01:03
Naja, vergleiche mal die Tests von CB beim Release der Geforce 7900GTX und nun von 8800GTS. Schau nur FEAR an, die Geforcekarten der Serie 7 haben sogut wie keinen Performancegewinn mehr bekommen...und jetzt kommst du...


7900GTX = 7800GTX = 9 Monate auf dem Markt.
Der Treiber der 7900GTX Karten war schon am Optimum.

Mancko
2007-04-27, 21:08:52
Warum schreibt der für gewöhnlich immer sehr gut informierte Ailuros, dass R600 die GTX knapp schlagen wird - und das auch nach diesen Test von DT, der laut ihm wenig aussagekräftig ist?

Welcher R600? Die XTX? Na dann aber gute Nacht. Dann legt Nvidia ein ganz klein wenig bei den Taktraten nach und ATI/AMD ist im Arsch. Mal abgesehen davon, dass Nvidia den Rest der Palette im Preis senken kann also 8800GTX und GTS. Sie haben ja im Gegensatz zu ATI/AMD ja schon Kohle über 6 Monate gescheffelt.

Das wird eine ziemlich traurige Vorstellung von ATI/AMD werden. Da ist halt einfach zu viel schief gelaufen in der Entwicklung und das was wohl am meissten schief gelaufen ist, dass man Nvidia unterschätzt hatte bzw. von der Leistung des G80 zu seinem Launch im November förmlich werggeblasen wurde.

Steve1
2007-04-27, 21:27:57
Ihr werdet es ja alle am Mittwoch erfahren können. Was diskutiert ihr dann so. Abwarten und Tee trinken!!!

Fetza
2007-04-27, 21:41:56
Ihr werdet es ja alle am Mittwoch erfahren können. Was diskutiert ihr dann so. Abwarten und Tee trinken!!!

Tja solange man die hardware nicht in den fingern hat, muss man sich halt irgendwie beschäftigen;)

The_Invisible
2007-04-27, 22:16:11
zumindest weiß man jetzt, dass ati beim g80 release ziemlich die kinnlade heruntergefallen sein müsste. naja, wem auch nicht, wer hat damit auch schon gerechnet.

mfg

Schrotti
2007-04-27, 22:49:21
Welcher R600? Die XTX? Na dann aber gute Nacht. Dann legt Nvidia ein ganz klein wenig bei den Taktraten nach und ATI/AMD ist im Arsch. Mal abgesehen davon, dass Nvidia den Rest der Palette im Preis senken kann also 8800GTX und GTS. Sie haben ja im Gegensatz zu ATI/AMD ja schon Kohle über 6 Monate gescheffelt.

Das wird eine ziemlich traurige Vorstellung von ATI/AMD werden. Da ist halt einfach zu viel schief gelaufen in der Entwicklung und das was wohl am meisten schief gelaufen ist, dass man Nvidia unterschätzt hatte bzw. von der Leistung des G80 zu seinem Launch im November förmlich weggeblasen wurde.

Genauso wird es kommen.
Aber es gibt zu viele die an den R600 glauben (die werden bitter enttäuscht).

Aber was labber ich hier rum, es gibt eh genug Leute die nicht hören wollen.

Gast
2007-04-27, 23:38:15
Man man man................

Ich habe das eigentlich noch nie gesehen, dass eine HIgh-End Graka seit über einem Jahr konstant hohe Preise aufweist.....

Tja wer ist vor allem Mitschuld? ATI/AMD.......
Super.......

Gast
2007-04-27, 23:39:58
Wer soll eigentlich die HD2900 Serie kaufen? Ich meine wen spricht man damit an? HighPerformance Liebhaber die darauf warten werden wohl immer ATI kaufen, aber der Rest der auf den Preis schaut, wartet doch nur auf eine max. 300€ Karte

dargo
2007-04-27, 23:45:11
Man man man................

Ich habe das eigentlich noch nie gesehen, dass eine HIgh-End Graka seit über einem Jahr konstant hohe Preise aufweist.....

Tja wer ist vor allem Mitschuld? ATI/AMD.......
Super.......
Ich würde dir erstmal empfehlen sich über den Launchtag vom G80 zu informieren. ;)

Sk_Antilles
2007-04-27, 23:53:47
Genauso wird es kommen.
Aber es gibt zu viele die an den R600 glauben (die werden bitter enttäuscht).

Aber was labber ich hier rum, es gibt eh genug Leute die nicht hören wollen.

Ich denke, dass die überwältigende Mehrheit auf den R600 "scheisst".
Was hat man den persönlich für einen Vorteil von einer Karte die vielleicht sau schnell ist, aber die man sich sowieso nicht kaufen wird? Und das werden locker 90% der Leute sein. Die Kohle wird ganz woanders geholt.

Meiner Meinung nach sind die Midrange Karten wesentlich interessanter. Und die extrem verkrüppelte 8600er wird da schlecht gegen eine 2600XT aussehen. Da muss sich nVidia warm anziehen oder halt nachlegen. Die Möglichkeit haben sie ja. Das kann nur Gutes für uns Kunden heissen.
Mir persönlich ist es absolut Banane welcher Chip in meinem PC werkelt. Was zählt ist die Leistung die man für den Preis bekommt. :wink:

reunion
2007-04-28, 00:00:19
Welcher R600? Die XTX? Na dann aber gute Nacht. Dann legt Nvidia ein ganz klein wenig bei den Taktraten nach und ATI/AMD ist im Arsch. Mal abgesehen davon, dass Nvidia den Rest der Palette im Preis senken kann also 8800GTX und GTS. Sie haben ja im Gegensatz zu ATI/AMD ja schon Kohle über 6 Monate gescheffelt.

Das wird eine ziemlich traurige Vorstellung von ATI/AMD werden. Da ist halt einfach zu viel schief gelaufen in der Entwicklung und das was wohl am meissten schief gelaufen ist, dass man Nvidia unterschätzt hatte bzw. von der Leistung des G80 zu seinem Launch im November förmlich werggeblasen wurde.

Ja natürlich, ATi ist damit völlig "im Arsch". Eigentlich sollte sie den Laden gleich dicht machen. Und nach dem G80-Launch haben die Hälfte der ATi-Mitarbeiter verständlicherweise einen Herzinfarkt bekommen. Also deine begrenzte Sichtweise ist schon sagenhaft. Ich könnte jetzt natürlich in vielen Sätzen ausführen, warum das Quark ist, aber da es bei dir ohnehin nur auf taube Ohren stößt, nur eine ganz simple Frage: Warum ist eigentlich nV nicht schon längst "im Arsch", nachdem sie seit dem R300 durchgehend langsamer waren im High-End-Segment (mit Ausnahme der Zeit zwischen den Launchterminen) ?

Genauso wird es kommen.
Aber es gibt zu viele die an den R600 glauben (die werden bitter enttäuscht).

Aber was labber ich hier rum, es gibt eh genug Leute die nicht hören wollen.

So spricht eine Person, die absolut 0, in Worten null gesicherte Informationen zu R600 hat. Aber Wunschdenken ist ja auch was schönes.

Spasstiger
2007-04-28, 00:00:54
Wer soll eigentlich die HD2900 Serie kaufen? Ich meine wen spricht man damit an? HighPerformance Liebhaber die darauf warten werden wohl immer ATI kaufen, aber der Rest der auf den Preis schaut, wartet doch nur auf eine max. 300€ Karte
Wenn die Radeon X2900 XT deutlich über der 8800 GTS 640 MB liegen sollte und für 350€ lieferbar ist, fände ich das durchaus eine interessante Karte. Außerdem würde dadurch die 8800 GTS 640 MB auf unter 300€ fallen.

Gast
2007-04-28, 00:04:09
Ich denke, dass die überwältigende Mehrheit auf den R600 "scheisst".
Was hat man den persönlich für einen Vorteil von einer Karte die vielleicht sau schnell ist, aber die man sich sowieso nicht kaufen wird? Und das werden locker 90% der Leute sein. Die Kohle wird ganz woanders geholt.

Meiner Meinung nach sind die Midrange Karten wesentlich interessanter. Und die extrem verkrüppelte 8600er wird da schlecht gegen eine 2600XT aussehen. Da muss sich nVidia warm anziehen oder halt nachlegen. Die Möglichkeit haben sie ja. Das kann nur Gutes für uns Kunden heissen.
Mir persönlich ist es absolut Banane welcher Chip in meinem PC werkelt. Was zählt ist die Leistung die man für den Preis bekommt. :wink:
Ganz genauso ist es. Der R600 wird zwar zwar aller Voraussicht nach kein Überflieger aber er wird sicher trotzdem ein paar Abnehmer finden und sorgt zudem für genügend Aufmerksamkeit um die anderen Karten zu vermarkten.
Außerdem was soll AMD denn sonst machen? Jetzt haben sie endlich ihren Chip fertiggestellt / lauffähig bekommen und dann sollen sie ihn nur wegen zu geringer Performance einmotten? Das wäre ja finanzieller Selbstmord bzw. Geldverbrennung deluxe.

Gast
2007-04-28, 00:05:31
Die ganze Leistungsfähigkeit der neuen Karten wurde noch nirgendwo wirklich geprüft.

Bisher kamen nur geringe Auflösungen zum Einsatz. Interessant wäre mal ein Test in 2560x1600 4xAA, da wird das Speicherinterface sicher erst wirklich bemerkbar. :)

Schrotti
2007-04-28, 00:08:21
Ganz genauso ist es. Der R600 wird zwar zwar aller Voraussicht nach kein Überflieger aber er wird sicher trotzdem ein paar Abnehmer finden und sorgt zudem für genügend Aufmerksamkeit um die anderen Karten zu vermarkten.
Außerdem was soll AMD denn sonst machen? Jetzt haben sie endlich ihren Chip fertiggestellt / lauffähig bekommen und dann sollen sie ihn nur wegen zu geringer Performance einmotten? Das wäre ja finanzieller Selbstmord bzw. Geldverbrennung deluxe.

Stromverbrauch, schon mal von gehört?

Warum soll ich mir eine HD 2900XT in den Rechner hängen wenn diese mehr Strom verbraucht als eine 8800GTS/GTX und dabei weniger Leistung abliefert?

reunion
2007-04-28, 00:12:09
Warum soll ich mir eine HD 2900XT in den Rechner hängen wenn diese mehr Strom verbraucht als eine 8800GTS/GTX und dabei weniger Leistung abliefert?

Wie viel mehr Strom verbraucht, bzw. wie viel weniger Leistung liefert denn die HD 2900XT im Vergelich zu einer 8800GTS/GTX?

dargo
2007-04-28, 00:12:47
Stromverbrauch, schon mal von gehört?

Warum soll ich mir eine HD 2900XT in den Rechner hängen wenn diese mehr Strom verbraucht als eine 8800GTS/GTX und dabei weniger Leistung abliefert?
Du würdest uns allen einen Gefallen tun wenn du dir endlich einen G80 zulegen würdest und aufhören würdest zu nerven.
Jetzt bin ich mal auf deine Quelle zum R600 Stromverbrauch gespannt.

Gast
2007-04-28, 00:13:54
Stromverbrauch, schon mal von gehört?

Warum soll ich mir eine HD 2900XT in den Rechner hängen wenn diese mehr Strom verbraucht als eine 8800GTS/GTX und dabei weniger Leistung abliefert?
Musst du auch nicht, aber manch einer wird sie trotzdem kaufen. Außerdem steht das mit dem Stromverbrauch noch nicht fest, bzw. was sie wirklich in Praxisanwendungen verbraten wird.

sun-man
2007-04-28, 00:22:14
Stromverbrauch, schon mal von gehört?

Warum soll ich mir eine HD 2900XT in den Rechner hängen wenn diese mehr Strom verbraucht als eine 8800GTS/GTX und dabei weniger Leistung abliefert?

wo gelesen? Ich warte schon lange auf Zahlen davon. Oder ist das nur mal eben so ne vermutung ?

Mancko
2007-04-28, 00:24:31
Ja natürlich, ATi ist damit völlig "im Arsch". Eigentlich sollte sie den Laden gleich dicht machen.

Das habe ich doch überhaupt nicht gesagt. Aber diese Runde ist abgefahren - Punkt aus Ende!
Warst Du nicht auch einer von denen die hier immer verbreitet haben "wartet auf den R600..., ATI wird nachlegen und lauter so einen Scheiss".

Halten wir doch ganz einfach mal die Fakten fest. Wer sich einen G80 gekauft hat, der hat schlichtweg alles richtig gemacht und schon jede Menge Spielspass mit der besten Karte gehabt. Das wird ATI nicht mehr ändern können, nichtmal wenn sie leistungsmäßig mit ein paar % in Führung gehen. Der Zug ist einfach abgefahren. Wer auf ATI gewartet hat, in der Hoffnung dass hier der Knaller kommt, lag einfach daneben und hat sich den leeren Versprechungen von ATI hingegeben. Fiasko pur halt aus Sicht des Enthusiasten und natürlich auch der Ansprüche von ATI.
Runde ging ganz klar an Nvidia aber das blegen ja auch die Betriebsergebnisse zu Hauf. Du kannst deinen DENIAL-Mode also ruhig ausmachen. Die Runde ist weg und daran gibts auch nix mehr zu rütteln.
Müssens halt mit dem R700 wieder probieren. Nur langsam wird es halt peinlich. Ist ja nicht das erste mal, dass man viel zu spät drann ist und einen riesen Aufwand betreibt um irgendwie im Gespräch zu bleiben.

horn 12
2007-04-28, 00:25:26
So schlimm wie hier einige den R600 nun vermarkten wird es bestimmt nicht werden. Amd / Ati weiss um ihre Leistung und wird in einigen Tagen den R600 komplett vorführen und alle Benchmarks der Öffentlichkeit zugänglich machen werden. Auch wenn die XT knapp an die GTX, und manchmal zwischen GTS bis GTX pendelt, wird sich damit der Preis um die 350-370 Euro rechtfertigen lassen. Die Performance wird dieser Chip erst unter 3D310 (Games wie Crysis, Timeshift, event. Call of Juarez, Cast Crause,... ) ausspielen können,- und es sind einige Besonderheiten miteingebunden, wie wirklich Vollkommene Vista Tauglichkeit, HD-Sound, HDMI, sehr gute BQ und so gut wie kostenloses Antialiasing.:eek: Das ist ja auch was, wenn man die Geradlinigleit des G80 betrachtet.:frown:
Auch sollte man den Final Treiber abwarten und nicht voreilig Schlüsse ziehen von Benchmarks des DT.:mad:
Aber genug, sind ja nur ein paar Tage, bis dahin ....:smile:

Spasstiger
2007-04-28, 01:02:46
und so gut wie kostenloses Antialiasing.:eek:
Wie kommst du darauf? Je nach Modus und Szene kostet AA auch ganz gewaltig Füllrate. Und davon hat die X2900 XT wohl nicht im Überfluss.

Blaire
2007-04-28, 01:15:04
Wäre der R600 "Der Knaller" geworden , glaubt mal Ati hätte längst Benchmarks vor dem Launch rausgelassen. :wink: Die Ruhe vor dem Launch spricht eigentlich Bände... ;)

Blutmaul
2007-04-28, 01:19:56
http://de.theinquirer.net/2007/04/27/geforce_8800_ultra_mit_enttaeu.html

Enttäuschungen wo man auch hinguckt, am 2ten hat das ganze Kasperletheater hoffentlich endlich ein Ende!

Iwan
2007-04-28, 01:26:40
Meiner Meinung nach sind die Midrange Karten wesentlich interessanter. Und die extrem verkrüppelte 8600er wird da schlecht gegen eine 2600XT aussehen. Da muss sich nVidia warm anziehen oder halt nachlegen. Die Möglichkeit haben sie ja. Das kann nur Gutes für uns Kunden heissen.
Mir persönlich ist es absolut Banane welcher Chip in meinem PC werkelt. Was zählt ist die Leistung die man für den Preis bekommt. :wink:

Ich glaube kaum das die Midrange Karten von AMD die NV-Karten direkt stehen lassen. Ich denke die werden sich auf etwa dem gleichen performance-level befinden. Damit wird man sich wohl abfinden müssen das die Midrange-karten so dermassen abgespeckt werden da die high-end karten einfach zu "fett" geworden sind.

Gast
2007-04-28, 01:28:55
http://de.theinquirer.net/2007/04/27/geforce_8800_ultra_mit_enttaeu.html

Enttäuschungen wo man auch hinguckt, am 2ten hat das ganze Kasperletheater hoffentlich endlich ein Ende!

ATI gibt und Datum vor und dann wird alles gesagt. das Theater macht ihr

sun-man
2007-04-28, 01:52:28
Halten wir doch ganz einfach mal die Fakten fest. Wer sich einen G80 gekauft hat, der hat schlichtweg alles richtig gemacht und schon jede Menge Spielspass mit der besten Karte gehabt. Das wird ATI nicht mehr ändern können, nichtmal wenn sie leistungsmäßig mit ein paar % in Führung gehen. Der Zug ist einfach abgefahren. Wer auf ATI gewartet hat, in der Hoffnung dass hier der Knaller kommt, lag einfach daneben und hat sich den leeren Versprechungen von ATI hingegeben. Fiasko pur halt aus Sicht des Enthusiasten und natürlich auch der Ansprüche von ATI.
Runde ging ganz klar an Nvidia aber das blegen ja auch die Betriebsergebnisse zu Hauf.
quatsch mit Soße. Die Highendkarten machen weder bei Nvidia noch bei AMD das Geld, bei AMD wohl noch weniger als bei Nvidia. wer den G80 gekauuft hat hat, leider, nur unterstützt das Karten weiterhin auch im idle viel zu viel Strom verbraten um 1 stunde am Tag spielen zu können....mir kann keiner erzählen es wäre nicht möglich die Karten im Idle, sprich im Desktop, auf 20W zu bringen. In meinem Zweitrechner klappt das ja auch und der kann von windows bis Solaris10 alles darstellen....nur zocken geht nicht und zum 2D darstellen reicht das.

Außerdem gibt es derzeit eine seite die irgendwelche Ergebnisse veröffentlich und es gibt Fud und Inq...nunja, heute vor einem Jahr ist (leider und tatsächlich) meine Oma gestprben, die hat gesagt das der R600 unter Dx10 und Vista mit dem Cata 8.X ~38% schneller ist als Nvidia. Glaubt das nun auch die halbe Welt? Daily macht in diesen tagen mehr Werbeeinahmen als sonst in einem Jahr, vergesst das mal nicht. alle wollen es sehen...NV Fans wollen es glauben und lachen, ATI Fans wollen es nicht glauben und reden natürlich dagegen.

Bleibt mal objektiv und wartet ab was reguläre seiten wie CB, Anandtech oder sogar Toms dazu sagen werden.....hier glaub ich nämlich eher Toms als so einem Theater weiter zu folgen.

Dunkeltier
2007-04-28, 02:07:59
Hier wird sich zeigen müssen inwiefern man mit der Effizienz der G80-ALUs mithalten kann, wobei natürlich ein Sieg der 8800GTS in diesem Bereich, was der doppelten Effizienz entsprechen würde, eher sehr unwahrscheinlich ist.
Aber die GTX könnte da schon ein schwerer Gegner sein.


(...)


Ich denke, ihr begeht alle einen kleinen Denkfehler. :) Die Radeon X2900 XT ist gegen die Geforce 8800 GTX positioniert, die Radeon X2900 XTX gegen die Geforce 8800 Ultra... Leistungsmäßig sieht ATi derzeit nur eins: Kein Land.

dargo
2007-04-28, 02:12:50
Die Radeon X2900 XT ist gegen die Geforce 8800 GTX positioniert, die Radeon X2900 XTX gegen die Geforce 8800 Ultra...
Wie was positioniert ist entscheidet alleine nur der Strassenpreis. ;)

Dunkeltier
2007-04-28, 02:15:34
Wie was positioniert ist entscheidet alleine nur der Strassenpreis. ;)

Und die Leistung ist kein Kriterium mehr? :conf2:

Cubitus
2007-04-28, 02:36:12
Jedenfalls wird der Gebraucht Markt nicht so sehr wie beim Lunch der 8800GTS(X) mit Karten der last-gen wie X1900, 7800, 7900 etc überflutet.
Ich mein wer will wechseln, die GTX/GTS Besitzer sind zufrieden.

und wer High End haben will der greift weiterhin zur GTX.
Noch dazu wird überall gemunkelt das NV den Preis nach unten setzt.
und das glaube ich auch.

Gast
2007-04-28, 02:53:31
Die Radeon X2900 XT ist gegen die Geforce 8800 GTX positioniert.

Nö. Ich bin mir sicher, das die XT gegen die GTS positioniert ist, alles andere macht weder preislich noch leistungsmäßig einen Sinn. Welche Karte sollte sonst das Segment der GTS abdecken?

Zum einen soll die XT günstiger sein und zum anderen wäre es blödsinnig, eine 512MB Karte gegen eine 768MB Karte ins Rennen zu schicken, wenn man noch ne 1 GB Karte nachschieben wird...

Gast
2007-04-28, 02:56:51
wo gelesen? Ich warte schon lange auf Zahlen davon. Oder ist das nur mal eben so ne vermutung ?

Ich würde nichts auf irgendwelche Spekulationen geben. Wie Leo in den News hervorgehoben hat, dachte man auch, das die Mainstreamkarten mit >120W daher kommen und am Ende werden es wohl doch <75W sein...

Es gibt einfach zuviele Gerüchte (und dummheit!) im Umlauf. Vielleicht absichtlich gestreut... das eine XTX gleichschnell wie eine XT sein soll laut den Benches, glaubt höchstens der Weihnachtsmann... ;)

Banshee18
2007-04-28, 04:03:10
das eine XTX gleichschnell wie eine XT sein soll laut den Benches, glaubt höchstens der Weihnachtsmann... ;)
Wieso? Ich könnte mir das durchaus vorstellen. Bei den letzten beiden Generationen war die XTX auch nur minimal schneller als die XT.

Fetza
2007-04-28, 04:44:51
Wie was positioniert ist entscheidet alleine nur der Strassenpreis. ;)
Und die Leistung ist kein Kriterium mehr? :conf2:

Dargo meint, das eine 2900xt, die in einer preisklasse bis 350 euro spielt, eine direkt konkurrenz zur 8800gts ist. Sollte sie hier gute ergebnisse erzielen, ist sie erfolgreich, ob verspätet oder nicht spielt keine rolle. Ist sie es nicht, hat ati halt ihren nv30... Sollte die karte aber knapp unter 400 euro kosten, spielt sie preislich nicht in der gts klasse, und müsste wiederrum deutlich schneller sein. Dazu kommen ja auch erstmal kriterien wie d3d10 performance und so, der geometry shader soll ja beim r600 deutlich besser sein als beim g80 (laut einem flight simulator entwickler).

Ich bin gespannt ob ati den preis wirklich attraktiv gestalten können wird, aber das ist eh alles müßig, da wir es anfang nächsten monats wissen werden :)

edit: und ich hoffe sehr darauf, denn sollte es nicht so sein, dann habe ich in der tat 6 monate damit verschwendet auf ein letztlich schlechtes und massig verspätetes produk gesetzt zu haben. Das würd mich schon ärgern :) aber nur ein bisschen :D
greetz

Dunkeltier
2007-04-28, 04:48:28
Nö. Ich bin mir sicher, das die XT gegen die GTS positioniert ist, alles andere macht weder preislich noch leistungsmäßig einen Sinn. Welche Karte sollte sonst das Segment der GTS abdecken?


Gut, dann hat ATi also keine absolute High-End Karte für Enthusiasten im Angebot, hm? :) Und läßt damit nur Produkte für die untere High-End Riege vom Stapel. Das ist gut fürs Image, garantiert. =) Über ein halbes Jahr nach dem G80 Launch schafft es AMD/ATi nicht einmal, diese einzuholen, geschweige denn zu überflügeln. Und wo ATi jetzt noch die Werbetrommel mit dem Preis rührt, wird nVidia zurückschießen, und das wesentlich härter wie zuvor.



Zum einen soll die XT günstiger sein und zum anderen wäre es blödsinnig, eine 512MB Karte gegen eine 768MB Karte ins Rennen zu schicken, wenn man noch ne 1 GB Karte nachschieben wird...


Und du meinst, nVidia könnte nicht die GTS mit 640MB noch unter dem Preis der 512MB Radeon X2900 XT positionieren? nVidia hat mit dem G80 bereits das große Geld gemacht. Außerdem lassen sich entsprechende Karten ein ganzes Stück preiswerter fertigen. Einerseits dürfte der Fertigungsprozeß bereits sehr gut im Griff sowie ausgereift sein, anderseits hat die GTX/GTX weniger und weniger teuren Speicher verlötet. 384/320Bit gegenüber dem 512Bit Speicherinterface der ATi. Kosten für solche Mehrlayer-PCBs sollte man auch nicht außer acht lassen. Der R600 benötigt wohl ein paar mehr Leiterbahnen.

Fetza
2007-04-28, 04:50:52
Und du meinst, nVidia könnte nicht die GTS mit 640MB noch unter dem Preis

Aber das hoffe ich doch sehr! Schließlich wäre eine gts für 299 euro doch endlich mal angebracht;)

Dunkeltier
2007-04-28, 05:56:38
Aber das hoffe ich doch sehr! Schließlich wäre eine gts für 299 euro doch endlich mal angebracht;)

Wegen 20 Euro solch ein Heck-Meck? Die 640MB Geforce 8800 GTS gibt es doch bereits ab ca. 320 Euro: http://geizhals.at/deutschland/a224906.html

Mumins
2007-04-28, 07:33:21
Ich denke, ihr begeht alle einen kleinen Denkfehler. :) Die Radeon X2900 XT ist gegen die Geforce 8800 GTX positioniert, die Radeon X2900 XTX gegen die Geforce 8800 Ultra... Leistungsmäßig sieht ATi derzeit nur eins: Kein Land.

Eine Ultra wird 1000 $ kosten, alles klar.

mapel110
2007-04-28, 08:40:27
quatsch mit Soße. Die Highendkarten machen weder bei Nvidia noch bei AMD das Geld, bei AMD wohl noch weniger als bei Nvidia. .
immerhin sind vom g80 in den ersten Monaten 400.000 Exemplare verkauft worden.
http://www.xbitlabs.com/news/video/display/20070213225900.html
Und im Valve Hardware Survey tauchen davon lächerliche 10000 Chips (bis heute) wieder auf. Da sieht man mal, dass man diese Umfrage nicht überbewerten sollte. In der Zwichenzeit dürften ja seit Anfang Februar noch mehr G80 verkauft worden sein.
nvidia hat da sicher einiges an Geld gemacht. So unbedeutend ist der High End Markt also nicht.

reunion
2007-04-28, 08:42:36
Hier mal der Grund, warum bei DT die XTX gegen die XT verliert:

http://www.chiphell.com/attachments/month_0704/20070428_a9e35c03f1a7446f865bhTe3jX7KAEUs.jpg

Beides sind 1GB XTX-Karten. Links ist ein altes engineering sample, dass DT verwendet, und welches den bekannten Bug hat, dass die leistung teils drastisch einbricht. Rechts ist die finale 1GB XTX, welche man nur unter NDA bekommt.

Und der Launch wird wohl doch erst am 14. stattfinden: http://www.tweaktown.com/news/7397/radeon_hd_2900xt_launch_and_for_sale_may_14_not_the_2nd/index.html
Offensichtlich haben hier einige das Datum mit dem 8800U-Launch verwechselt.

AnarchX
2007-04-28, 08:51:53
Da war die zu kompakte Bauweise, die man erst plante, wohl doch nicht ganz optimal.

Aber mal sehen, was nun aus der XTX wird: 1GB GDDR4 scheinen nicht gerade günstig und soviel Mehrleistung kann man nun wohl auch nicht erreichen, in anbetracht der nun bekannten Daten, wenn man in Richtung 800MHz geht.

Mumins
2007-04-28, 08:55:11
immerhin sind vom g80 in den ersten Monaten 400.000 Exemplare verkauft worden.
http://www.xbitlabs.com/news/video/display/20070213225900.html
Und im Valve Hardware Survey tauchen davon lächerliche 10000 Chips (bis heute) wieder auf. Da sieht man mal, dass man diese Umfrage nicht überbewerten sollte. In der Zwichenzeit dürften ja seit Anfang Februar noch mehr G80 verkauft worden sein.
nvidia hat da sicher einiges an Geld gemacht. So unbedeutend ist der High End Markt also nicht.

Was verdient Nvidia an einem Chip? Selbst wenn es 100 $ sind sind das nur 40 Mio $.

horn 12
2007-04-28, 08:56:30
Dies könnte somit ja viell. auch auf die HD 2900XT zutreffen, vielleicht auch nur ein Sample von früher (alte Revision) und die Bench veröffentlichte man nach dem Techday.
Das lässt doch wieder hoffen und wir können aufatmen.
Wer kann dies ein für allemal klären?

reunion
2007-04-28, 09:00:30
Da war die zu kompakte Bauweise, die man erst plante, wohl doch nicht ganz optimal.


Ja, wobei die Karte schon extrem kurz war. Selbst die rechte, finale Karte, ist mit 9.5" noch immer deutlich kürzer als die 8800GTX.


Aber mal sehen, was nun aus der XTX wird: 1GB GDDR4 scheinen nicht gerade günstig und soviel Mehrleistung kann man nun wohl auch nicht erreichen, in anbetracht der nun bekannten Daten, wenn man in Richtung 800MHz geht.

Die XTX wird mit 800Mhz takten, das ist zwar nicht viel mehr als die 740Mhz der XT, aber dafür bekommt man auch doppelt soviel Speicher, der deutlich höher getaktet ist. Und bei der 8800U scheint der Unterschied ja noch geringer zu sein.

Wer kann dies ein für allemal klären?

Der 14.Mai.

Was verdient Nvidia an einem Chip? Selbst wenn es 100 $ sind sind das nur 40 Mio $.

Es sind aber nichtmal annähernd 100$ IMO.

Steve1
2007-04-28, 09:19:43
Der 2. Mai oder wirlich der 14. Mai.

Ailuros
2007-04-28, 09:19:43
Es wird keine XTX geben, sondern eine 1GB XT LOL :biggrin:

][immy
2007-04-28, 09:22:19
Was verdient Nvidia an einem Chip? Selbst wenn es 100 $ sind sind das nur 40 Mio $.

nvidia verdient mit einem chip wahrscheinlich weit unter 100$, schließlich musst du auch noch die material und fertigungskosten beachten, dann gehen die dinger noch an die hersteller und diese packen noch den speicher etc hinzu. alles in allem verdient nvidia nicht wirklich viel daran. der OEM markt (also fast nur low-cost) ist sehr viel größer. mit den großen karten machen die firmen gerade mal +>0, die lohnen sich fast ausschließlich aus marketinggründen. Man muss auch noch beachten das die entwicklungskosten immens sind und das könnte und diese müssen auch erstmal eingespielt werden.

reunion
2007-04-28, 09:27:06
Es wird keine XTX geben, sondern eine 1GB XT LOL :biggrin:

Mit GDDR3? Naja, da hat das GDDR4-Board wohl doch noch einige Bugs. Sonst nicht wirklich ein Nachteil da man wohl Speicherbandbreite im Überfluss hat.

AnarchX
2007-04-28, 09:30:30
[News]

HD 2900XT vs 8800GTS - zahlreiche Vergleiche (http://www.chiphell.com/viewthread.php?tid=3404&extra=page%3D1)

http://img151.imageshack.us/img151/5709/1alpycleooto752ba96ch3.jpg (http://imageshack.us)
http://img151.imageshack.us/img151/998/2zntgmozzdkpn52c862pr0.jpg (http://imageshack.us)
http://img151.imageshack.us/img151/1699/3d58d3fjrohel52d439cx8.jpg (http://imageshack.us)
http://img151.imageshack.us/img151/6826/4rimy857rcvoq52de7amw6.jpg (http://imageshack.us)

N-Patches? Ist Truform also zurück? X-D


Naja, die Bezeichnung X2900XT lässt diese Werte etwas anzweifeln. ;)

][immy
2007-04-28, 09:33:06
Mit GDDR3? Naja, da hat das GDDR4-Board wohl doch noch einige Bugs. Sonst nicht wirklich ein Nachteil da man wohl Speicherbandbreite im Überfluss hat.

wofür so hohe taktraten benötigt werden verstehe ich nicht wirklich. schließlich haben die die interfacebreite schon auf 512-Bit verdoppelt. es könnte natürlich sein das ATi wirklich ein 24x MSAA anbieten will und dafür die immense bandbreite dringend benötigt. immerhin sollte der leistungseinbruch mit AA dank der Bandbreite nicht sehr hoch ausfallen. In dieser Kategorie dürfte ati ansich ohne probleme an nvidia vorbeiziehen können.

Ailuros
2007-04-28, 09:33:19
Mit GDDR3? Naja, da hat das GDDR4-Board wohl doch noch einige Bugs. Sonst nicht wirklich ein Nachteil da man wohl Speicherbandbreite im Überfluss hat.

Keine Ahnung. Auf jeden Fall legt AMD langsam mit guten OEM deals los, was zumindest versprechend momentan aussieht. U.a. auch 1GB XTs und RV630 was aber auch kurzfristig die PC Verfuegbarkeit beinflussen wird.

[immy;5445477']wofür so hohe taktraten benötigt werden verstehe ich nicht wirklich. schließlich haben die die interfacebreite schon auf 512-Bit verdoppelt. es könnte natürlich sein das ATi wirklich ein 24x MSAA anbieten will und dafür die immense bandbreite dringend benötigt. immerhin sollte der leistungseinbruch mit AA dank der Bandbreite nicht sehr hoch ausfallen. In dieser Kategorie dürfte ati ansich ohne probleme an nvidia vorbeiziehen können.

Es ist 8xMSAA und das 24x custom filter AA ist eine Implementierung der letzten Minute IMO.

[News]

N-Patches? Ist Truform also zurück? X-D


Naja, man die Bezeichnung X2900XT lässt diese Werte etwas anzweifeln. ;)

Xenos-style Tesselation. Fragt sich nur ob es ausserhalb von IHV spezifischen Techdemos irgendwelchen Nutzen haben wird.

robbitop
2007-04-28, 09:42:29
Bald nach der Vorstellung der NV30er ging es aber los mit den SM2-Spielen und wer der Werbung und vielen Testern (jaa, das uunglaublich neue CineFX, schon so nah am SM3.0 und dem R300 um Welten überlegen, außer beim Speed) geglaubt hatte sah dann ziemlich alt aus.
Nenn mir wenigstens 10 Spiele, die SM2 vor dem NV40 Launch massiv genutzt haben (also 2002, 2003, april 2004). Kannst du nicht, gibt es naemlich nicht. Das war eher selten.

Spasstiger
2007-04-28, 09:43:32
Wegen 20 Euro solch ein Heck-Meck? Die 640MB Geforce 8800 GTS gibt es doch bereits ab ca. 320 Euro: http://geizhals.at/deutschland/a224906.html
Die sind aber erst wieder so günstig, seit bekannt ist, dass es die X2900 XT für unter 400€ geben wird und dass diese schneller ist als die 8800 GTS 640 MB. Man möchte wohl dem Käufer einen Anreiz geben doch schon jetzt zu kaufen. Vor ein paar Wochen hat man für eine gebrauchte 8800 GTS 640 MB soviel gezahlt.

Da war die zu kompakte Bauweise, die man erst plante, wohl doch nicht ganz optimal.
Scheint aber nicht länger zu sein als meine Radeon X1900 AIW.
Und das ist doch schonmal was. ;)

N-Patches? Ist Truform also zurück? X-D
Wird wohl ein Geometry-Shader-Test sein, mit dem kann man ja Truform nachbilden.

Das finde ich aber sehr enttäuschend:
http://img151.imageshack.us/img151/1699/3d58d3fjrohel52d439cx8.jpg
Vor allem der Oblivion-Part. In so einem bandbreitenfressenden Setting liegt trotzdem die 8800 GTS vorne?

horn 12
2007-04-28, 09:50:55
Und kann man auch die Benches bei 1280x1024 4xAAA 16AF irgendwo einsehen. Dies wäre genial....
Würde mich interessieren da momentan noch 19 Zoll TFT habe.
Der 22 bis 23 Zoll TFT kommt eben erst im Frühherbst.:mad:

AnarchX
2007-04-28, 09:52:44
Scheint aber nicht länger zu sein als meine Radeon X1900 AIW.
Und das ist doch schonmal was. ;)

Natürlich freut es den User, aber ich kann mir vorstellen, dass dieses kurze PCB mit DPWMs wohl für ATi nicht gerade günstig ist.


Vor allem der Oblivion-Part. In so einem bandbreitenfressenden Setting liegt trotzdem die 8800 GTS vorne?
Ich kann mir vorstellen, dass hier der Speicherverbrauch die 512MB überschreitet. ;)

Xenos-style Tesselation. Fragt sich nur ob es ausserhalb von IHV spezifischen Techdemos irgendwelchen Nutzen haben wird.

Ergibt sich dieses Features so aus dem Design oder hat man hierfür noch extra Transistoren investiert?

Und kann man auch die Benches bei 1280x1024 4xAAA 16AF irgendwo einsehen. Dies wäre genial....
Würde mich interessieren da momentan noch 19 Zoll TFT habe.


Das sind ziemlich cpu-limiterte Settings, also für so eine Präsentation nicht unbedingt interessant. Da wirst du dich bis zum 14. noch Gedulden müssen. ;)

Gast
2007-04-28, 09:55:43
Wegen dem kleinen Test von oben (8800gts vs. x2900xt)

Sind die SLI Treiber noch nicht ausgereift? Die 8800 gts hat eine viel geringere Performancesteigerung im Vergleich zur Crossfirelösung.

AnarchX
2007-04-28, 09:58:08
Sind die SLI Treiber noch nicht ausgereift? Die 8800 gts hat eine viel geringere Performancesteigerung im Vergleich zur Crossfirelösung.

Nunja, die Präsentation kommt wahrscheinlich von AMD, also wird man hier sicherlich nicht den besten Treiber für die GTS verwendet haben und auch SLI out of Box probiert haben.

deekey777
2007-04-28, 09:59:40
Was ist der Status des SLI unter Vista?
Schaut euch mal die Performance-Balken an: Früher waren es nur Prozentangaben, jetzt kommen noch die FPS-Zahlen dazu.

reunion
2007-04-28, 10:14:48
Nunja, die Präsentation kommt wahrscheinlich von AMD, also wird man hier sicherlich nicht den besten Treiber für die GTS verwendet haben und auch SLI out of Box probiert haben.

Also würde die Präsentation von AMD kommen, dann hätte man mit Sicherheit nur das abgelichtet, wo die AMD-Karte überzeugen kann. Also ich denke das kann man getrost ausschließen. Höchstens die letzte Folie könnte von AMD kommen.

Ergibt sich dieses Features so aus dem Design oder hat man hierfür noch extra Transistoren investiert?


Muss sich fast aus dem Design ergeben, sonst könnte ein G80 das gar nicht ausführen.

AnarchX
2007-04-28, 10:20:05
Also würde die Präsentation von AMD kommen, dann hätte man mit Sicherheit nur das abgelichtet, wo die AMD-Karte überzeugen kann. Also ich denke das kann man getrost ausschließen.

Im Gesamteindruck überzeugt sie ja auch. (Vielleicht gab es zu den negativen Ergebnissen bei der Präsentation noch die Anmerkung, dass man hier noch an den Treibern arbeitet.)

Vorallem der DX10-Teil, macht den Eindruck, dass die Folien von offizieller Stelle kommen.

Die Folien passen zudem auch zur Story von Fuad. (http://www.fudzilla.com/index.php?option=com_content&task=view&id=703&Itemid=34)


Muss sich fast aus dem Design ergeben, sonst könnte ein G80 das gar nicht ausführen.
Der hier bestehende Faktor 50 lässt eher Zweifel daran, inwiefern beim G80 dafür spezielle Logik existiert. (Aber vielleicht liegt es auch an den Treibern.)

Winter[Raven]
2007-04-28, 10:28:44
http://img151.imageshack.us/img151/6826/4rimy857rcvoq52de7amw6.jpg

Ich liebe die PR-Abteilungen... jetzt sind wir schon bei ~5200 % ...

reunion
2007-04-28, 10:31:35
Im Gesamteindruck überzeugt sie ja auch. (Vielleicht gab es zu den negativen Ergebnissen bei der Präsentation noch die Anmerkung, dass man hier noch an den Treibern arbeitet.)

Vorallem der DX10-Teil, macht den Eindruck, dass die Folien von offizieller Stelle kommen.


Ja, wie ich schon weiter oben eingefügt habe, der DX10-Teil eventuell. Dort steht auch korrekt HD2900XT und nicht HD X2900XT. Ich kann mir kaum vorstellen, dass ATi während der Präsentation die Bezeichnung ändert. Auch würde man nie die Folie mit HDR+AA zeigen, bei denen die AMD-Karte einfach nur schlecht aussieht (auch bei der ersten Folie würde man logischerweise auf den FarCry research Test verzichten, etc.). Wenn das vom AMD käme, dann wäre das eine reine Selbstbeweihräucherung, wie bei jeder Präsentation eines Herstellers. Die Schwachstellen müssen die Tester schon selber finden, niemand wäre dort so blöd, und würde diese Öffentlich und voller Stolz präsentieren.

Ailuros
2007-04-28, 10:34:55
Muss sich fast aus dem Design ergeben, sonst könnte ein G80 das gar nicht ausführen.

Xenos = 1 tri/clock, G80 = 1 tri/2clocks

Das waere der eine Anteil der andere waere dass es sich um techdemos handelt wo fortschrittliche Tesselation durchgefuehrt wird, die aber weder G80 noch D3D10 unterstuetzt afaik.

Gouvernator
2007-04-28, 10:39:52
Man sieht absolut nix vom Speicherinterface!!? In 26x16 überall Gleichstand.

dildo4u
2007-04-28, 10:41:28
Man sieht absolut nix vom Speicherinterface!!? In 26x16 überall Gleichstand.
In der Auflösung könnten die 512mb schon zu wenig sein.

dargo
2007-04-28, 10:48:00
Und die Leistung ist kein Kriterium mehr? :conf2:
Es ist doch offensichtlich, dass ich damit den Strassenpreis in Relation zur Leistung meine. :cool:

Gouvernator
2007-04-28, 10:48:51
... mit AA ja. 2560x1600 ist noch nicht sooo fordernd. Oblivion lief mit HDR ohne AA noch in 2560x1920 mit 512mb "flüssig". Erst mit 2880x2300 gabs damals 1 fps Dauerpassagen.

sklave_gottes
2007-04-28, 10:55:50
Oder der karte geht einfach die rechnenleistung(fillrate) aus! Ist das denn immer so realitätsfern?

Ich frage mich manchmal wenn ich das hier so lese ob einige glauben das z.b. eine 8600gts mit 1024MB speicher und 512bit speicheranbindung schneller ist als eine 8800gts...? Nur so zur info es gibt auch noch einen grafik chip auf dem PCB.

mfg martin

dildo4u
2007-04-28, 10:57:10
Wir reden hier aber vom neuen High-End Chip von ATI und nicht von der verkrüppelten Mittelklasse.

Gast
2007-04-28, 10:59:31
NV30 vs. R3xx - Ok, hier ist es unstrittig - keine Vorteile NVFalsch. NV hatte den Vorteil des weit überlegenen AFs.

dargo
2007-04-28, 11:05:16
Ich kann mir vorstellen, dass hier der Speicherverbrauch die 512MB überschreitet. ;)

Ich nicht, dafür skaliert CF zu gut.

MadManniMan
2007-04-28, 11:08:22
reunion,

woher hast Du die Bilder und das Wissen dazu? Gib uns Quellen, so wirkts... naja, unvollständig.


Und DK...,

ich verstehe Deinen Feldzug nicht, denn nach so langer Zeit hätte ATi irgendwas Überzeugendes bringen müssen.
Wenn es schon nicht Mehrleistung ist, dann doch wenigstens irgendwas anderes Relevantes. Und bis auf den Preiskampf wird das wohl nichts sein.

AnarchX
2007-04-28, 11:14:13
Ich nicht, dafür skaliert CF zu gut.
Da hast du auch wieder recht.

Da kann man wohl nun immer mehr zu dem Schluss kommen, dass die Oblivion-Engine und die G80-Architektur extrem gut harmonieren(selbst der verkrüppelte G84 behauptet sich hier sehr gut).
Stellt sich nur die Frage, da diese Engine doch ziemlich shaderlastig sein soll, ob man das vielleicht auf kommende Games übertragen könnte.

dargo
2007-04-28, 11:17:33
Da kann man wohl nun immer mehr zu dem Schluss kommen, dass die Oblivion-Engine und die G80-Architektur extrem gut harmonieren(selbst der verkrüppelte G84 behauptet sich hier sehr gut).
Stellt sich nur die Frage, da diese Engine doch ziemlich shaderlastig sein soll, ob man das vielleicht auf kommende Games übertragen könnte.
Ich würde erstmal spätere Treiber abwarten. Für mich ergibt es keinen Sinn,, dass die HD 2900XT in Oblivion mit HDR ohne AA schneller ist und mit AA nicht.

Ailuros
2007-04-28, 11:21:59
http://forum.beyond3d.com/attachment.php?attachmentid=255&d=1177751236

AnarchX
2007-04-28, 11:22:50
Ich würde erstmal spätere Treiber abwarten. Für mich ergibt es keinen Sinn,, dass die HD 2900XT in Oblivion mit HDR ohne AA schneller ist und mit AA nicht.

Bei den HDR 16xAF Werten liegt die XT doch nur gleich auf?

Und ganz unschuldig denke ich könnten die 512MB, die vielleicht für gewisse Slowdown sorgen, auch nicht sein.
Im Endeffekt könnte es sein, dass CF in den nicht limitierten Zeitabschnitten trotzdem sehr gut skaliert.

http://forum.beyond3d.com/attachment.php?attachmentid=255&d=1177751236
Da hat man aber als frisch registrierter bzw. nicht registrierter User keinen Zugriff?
edit:
Apperenlty AMD has multiple 700M transitor R600s.

Also ist die HD 2900XT eine cut-down-Version? Oder was zeigt das Bild?

Gast
2007-04-28, 11:24:12
http://forum.beyond3d.com/attachment.php?attachmentid=255&d=1177751236

Geht nicht, muss man registriert sein.

dargo
2007-04-28, 11:27:15
Bei den HDR 16xAF Werten liegt die XT doch nur gleich auf?

Bei 25x16 liegt die ATI minimal vorne, bei 16x12 4xAA/8xAF deutlich zurück. Irgendwas passt hier nicht. Das gleiche Bild sieht man bei SS2.

Ailuros
2007-04-28, 11:28:18
http://users.otenet.gr/~ailuros/xt.jpg

AnarchX
2007-04-28, 11:29:19
Bei 25x16 liegt die ATI minimal vorne, bei 16x12 4xAA/8xAF deutlich zurück. Irgendwas passt hier nicht.

Nunja, die TMUs sind ja noch nicht geklärt und damit wieviel ATi nun durch AF bei HD-2000-Generation verliert.

http://users.otenet.gr/~ailuros/xt.jpg

Das hatte ich schon vor x Seiten gepostet ( [News]-Tag ;)).

Aber was soll das nun sagen? Sind die Specs oder die Benches nun falsch?

w0mbat
2007-04-28, 11:30:18
Ich bin registriert und kann auch nicht zugreifen.

dargo
2007-04-28, 11:30:20
http://users.otenet.gr/~ailuros/xt.jpg
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5444345&postcount=1000

Gast
2007-04-28, 11:30:28
Naja die GTS ist ja auch etwas abgespeckt im Vergleich zur GTX, frage ist wie tief kann eine HD(X)2900XT im Preis gehen. 700Mio Transis auf 80nm sind sicher nicht billig, zumal die GTS ja anfangs für ~450+€ weg ging und die XT jetzt schon mit (zumindest was man hier liest) 399€ ankommt.

dargo
2007-04-28, 11:33:03
Nunja, die TMUs sind ja noch nicht geklärt und damit wieviel ATi nun durch AF bei HD-2000-Generation verliert.
Nicht besonders viel (im Vergleich zur GTS) wenn man sich 25x16 mit 16xAF ansieht. Warum aber ATI so viel mit HDR+AA verliert wundert mich halt bei dieser Bandbreite.

Edit:
Könnte der Oblivion Benchmark ein Hinweis dafür sein, dass die HD 2900XT mit A.I off gebencht wurde bzw. ATI das AF verbessert hat? Die ~27% Mehrleistung in 25x16 ohne AF finde ich nicht gerade wenig. Auch die GTS riecht nach HQ-AF beim Bench, oder?

Naja die GTS ist ja auch etwas abgespeckt im Vergleich zur GTX, frage ist wie tief kann eine HD(X)2900XT im Preis gehen. 700Mio Transis auf 80nm sind sicher nicht billig, zumal die GTS ja anfangs für ~450+€ weg ging und die XT jetzt schon mit (zumindest was man hier liest) 399€ ankommt.
Zuerst hieß es die UVP soll bei 399$ liegen. Später habe ich hier was von 499$ gesehen. Momentan alles etwas verwirrend.

Ailuros
2007-04-28, 11:41:24
16 (4c/8z) ROPs mit 4xMSAA = 47.5 GPixels/s

Der Haken ist dass die Dinger im Gegensatz zu NV weniger flexibel sind; wenn es z.B. zu einem shadowpass kommt sind die Dinger deutlich unterlegen.

Noch mehr was die TMUs betrifft; 16 davon was dem Ding insgesamt eine Fuellrate von 11.8 GTexels/s gibt. Mit AF liegt G80 so weit vorne dass es gar nicht mehr witzig ist.

Nun gibt es noch die schoen praesentierten auf Papier "320" SPs mit den theoretisch maximalen 475 GFLOPs (MADD), wobei wenn jemand jetzt gleich nicht voll operative MUL auf G80 sagt, muss jetzt noch jemand klarstellen ob alle MADD Einheiten auf R600 auch wirklich die gleichen Faehigkeiten haben und was und wo fuer Interpolation benutzt wird.

Mit einen MSRP von $399 ist das Ding ausgezeichnet positioniert. Eine 1GB XT wird es (voruebergehend?) nur fuer OEMs geben.

So und jetzt darf jeder der daran interessant ist, alle R600 Spekulations-threads durchgraben und mir erzaehlen auf wie vielen Stellen ich schon seit geraumer Zeit falsch lag.

Nakai
2007-04-28, 11:45:33
16 (4c/8z) ROPs mit 4xMSAA = 47.5 GPixels/s

Okay so kommt man auf dieses Ergebnis...^^

Noch mehr was die TMUs betrifft; 16 davon was dem Ding insgesamt eine Fuellrate von 11.8 GTexels/s gibt. Mit AF liegt G80 so weit vorne dass es gar nicht mehr witzig ist.

Wieso bringt man dann so einen schwachen Chip im Bezug zur Texelleistung auf den Markt?
Hier hat sich ATI aber total verkalkuliert...

mfg Nakai

Gast
2007-04-28, 11:48:59
Naja schwach würd ich es jetzt nicht nennen, aber wohin sind die 700Mio Transis geflossen, sind die "320" SPs so teuer, war Vec5 ein Griff ins Klo?
Das Design ist ja auch hohe Taktrate ausgelegt, bin auch die Schematischen Innereien des R600 gespannt, und warum man keine 32/24 TMUs einbaut, wenn man Design flexibel ist sollten die TMUs ja erweiterbar sein.

Ailuros
2007-04-28, 11:52:55
Wieso bringt man dann so einen schwachen Chip auf den Markt?
Hier hat sich ATI aber total verkalkuliert...

mfg Nakai

So schwach ist das Ding ueberhaupt nicht. Mit 400$ positioniert es sich direkt zwischen der 8800GTS und 8800GTX und in zukuenftigen Spielen kommt sie etwas leicht vor der letzteren. Obwohl mir die geleakten Crysis Resultate (4xAA in 1600 und 50+fps huh wie bitte?) etwas optimistisch vorkommen, ist es tatsaechlich so dass momentan beide auf etwa gleichem Nivaeu liegen nach den eigenen Entwicklern.

Das was ich von Anfang an von Entwicklern von grossen Haeusern gehoert hatte ist dass im zukuenftigen Spielen eine R600 mit 700MHz etwa auf G80 Gleichstand kommen wuerde. Ich hoffte konstant seither auf 800MHz aber mit dem Stromverbrauch konnten sie wohl leider nicht sehr viel hoeher gehen.

Und ja alles zusammengezaehlt hat ATI IMHO wohl doch NV um einiges unterschaetzt.

Nakai
2007-04-28, 11:56:39
Naja der G80 hat ja nicht das Problem. Kann der R600 eigentlich aus höherer Texelfüllrate noch profitieren?

mfg Nakai

Ailuros
2007-04-28, 11:57:31
Naja schwach würd ich es jetzt nicht nennen, aber wohin sind die 700Mio Transis geflossen, sind die "320" SPs so teuer, war Vec5 ein Griff ins Klo?
Das Design ist ja auch hohe Taktrate ausgelegt, bin auch die Schematischen Innereien des R600 gespannt, und warum man keine 32/24 TMUs einbaut, wenn man Design flexibel ist sollten die TMUs ja erweiterbar sein.

Es sind 5D ALUs nicht Vec5. Fuer GPGPU Zeug sollte das Ding insgesamt besser sein und ich hab den Verdacht dass sie sich in heutigen Spielen von der G80 etwas abstechen kann dank dem hoeheren Geometrie-throughput.

Mal sehen ob sie ueber das Tesselations-Zeug im VGT etwas erzaehlen werden; sie behaupten sogar dass momentan "dx11" nichts fortschrittlicheres hat, was erstmal Deine Transistoren-frage erklaert und ich muss mir hier einen Fehler anrechnen was Tesselation generell betrifft, denn ich haette nie und nimmer erwartet dass sie so viele Transistoren verschwenden fuer etwas dass in D3D10 nicht voll unterstuetzt ist.

Ailuros
2007-04-28, 11:58:29
Naja der G80 hat ja nicht das Problem. Kann der R600 eigentlich aus höherer Texelfüllrate noch profitieren?

mfg Nakai

Ich will ja jetzt nich unhoeflich werden, aber ist das nicht einer eher dumme Frage mit so viel Bandbreite? ;)

Nakai
2007-04-28, 12:04:00
Wenn der R600 "nur" etwa 12000Mtex/s hat, muss er mit dieser Füllrate auch gut umgehen können.
Entweder hat der R600 eine sehr gute Auslastung der Einheiten oder mit netten Treiberspielereien wie A.I kann man dieses Manko wieder ausgleichen.
Achja meine Frage war wirklich etwas dumm^^.;)


Was macht den Tesselation eigentlich? Soviel ich weiß, zerlegt es die Polygone und es wirkt sich positiv auf die BQ aus.

mfg Nakai

AnarchX
2007-04-28, 12:06:46
[News]

Erste Aussagen zum Lüfter und Temperaturen in 2D(+Bilder) (http://www.gpumania.com/foro/viewtopic.php?t=8419)
http://img205.imageshack.us/img205/6453/gpun2076pv9.jpg
Hier scheinen ein paar Spanier(?) auch ein 2900XT zu haben, hier die Übersetzung:
Unter 2D ist die Karte sehr leise, unhörbar, aber unter 3D ist sie deutlich hörbar. Die 2D-Temperatur ist sehr hoch(68°C), aber es ist nicht sicher ob hier das CCC richtig misst. Mehr Informationen können wir nicht weitergeben.

w0mbat
2007-04-28, 12:09:32
Es hieß doch schon aus mehreren Quellen (u.a. PCGH) das die HD2900 XT auch unter 3D sehr leise ist.

Ailuros
2007-04-28, 12:10:00
Tja wohl verrueckt hohe Geometrie-Raten. Bei einer Praesentation wurde ein Kopf in einem demo gezeigt; dabei wollte jemand das Zeug in wireframe sehen. Die AMD Kerle stellten auf wireframe und die Dame fragte nochmals fuer wireframe, wobei sie natuerlich bei der Poly-Dichte beim zweiten Mal glatt uebersehen hat dass es schon auf wireframe umgeschaltet war.

AnarchX
2007-04-28, 12:11:46
Es hieß doch schon aus mehreren Quellen (u.a. PCGH) das die HD2900 XT auch unter 3D sehr leise ist.

Genauer übersetzt sprechen sie mehr von einem Zischen/Pfeifen, vielleicht ist auch etwas mit dem Lüfter nicht in Ordnung.

dargo
2007-04-28, 12:11:49
[News]

Erste Aussagen zum Lüfter und Temperaturen in 2D(+Bilder) (http://www.gpumania.com/foro/viewtopic.php?t=8419)

Hier scheinen ein paar Spanier(?) auch ein 2900XT zu haben, hier die Übersetzung:
Also 500/500Mhz im 2D Modus. Die 68°C könnten genauso ein Treiberproblem sein. Das gabs schon mal beim R520. :D

w0mbat
2007-04-28, 12:12:20
Tja wohl verrueckt hohe Geometrie-Raten. Bei einer Praesentation wurde ein Kopf in einem demo gezeigt; dabei wollte jemand das Zeug in wireframe sehen. Die AMD Kerle stellten auf wireframe und die Dame fragte nochmals fuer wireframe, wobei sie natuerlich bei der Poly-Dichte beim zweiten Mal glatt uebersehen hat dass es schon auf wireframe umgeschaltet war.

Und bitte nochmal für mich (also für Dumme) :confused:

LovesuckZ
2007-04-28, 12:12:55
Genauer übersetzt sprechen sie mehr von einem Zischen/Pfeifen, vielleicht ist auch etwas mit dem Lüfter nicht in Ordnung.

Spannungswandler, wie bei anderen Karten.

Ailuros
2007-04-28, 12:13:18
Es hieß doch schon aus mehreren Quellen (u.a. PCGH) das die HD2900 XT auch unter 3D sehr leise ist.

Spanien hat ein aehnliches Klima wie ich hier. In 2D erreiche ich ca. 68C mit 630/1000 auf der GTX. Kein Wunder man konnte 800MHz nicht erreichen.

up¦²
2007-04-28, 12:14:30
[News]

Erste Aussagen zum Lüfter und Temperaturen in 2D(+Bilder) (http://www.gpumania.com/foro/viewtopic.php?t=8419)

Hier scheinen ein paar Spanier(?) auch ein 2900XT zu haben, hier die Übersetzung:

Die benutzen ja 2x3 extrern :confused:

dargo
2007-04-28, 12:16:51
Die benutzen ja 2x3 extrern :confused:
Und wo ist das Problem? Es gab doch Gerüchte, dass die HD 2900XT 200W TDP haben soll. Also brauchst du auch 2 PCIe Stromstecker.

Nakai
2007-04-28, 12:17:24
Und bitte nochmal für mich (also für Dumme) :confused:

Bei Wireframe werden die Kanten der Dreiecke sichtbar gemacht. D.h. man kann die Dreiecke aus denen ein Körper gemacht ist sehen.
Der R600 hat daher eine Geometryfüllrate die bis jetzt alles übersteigt.

mfg Nakai

Ailuros
2007-04-28, 12:17:39
Und bitte nochmal für mich (also für Dumme) :confused:

Du sitzt bei einer Praesentation beim AMD techday und es laeuft ein Techdemo der einen Kopf zeigt mit ca. 5 M Polys bei ungefaehr 200fps. Eine Dame neben Dir hebt die Hand und fragt hoeflich ob man das Ganze in wireframe sehen koennte. Die AMD Kerle drehen auf wireframe um und die Dame sieht es sich kurz an und fragt nochmal ob es in wireframe sehen koennte.

Dabei hatte sie nicht mitbekommen dass sie beim zweiten Blick eigentlich schon wireframe sehen konnte. Sind die Polys in wireframe uebermassig dicht bzw. klein, muss man schon sich das Ganze schon sehr vorsichtig ansehen. Hilft das?

***edit:

NVIDIA gibt selber fuer G80 575MTris/s an; bei 740MHz gibt AMD 742MTris/s an.

Hvoralek
2007-04-28, 12:25:41
Das finde ich aber sehr enttäuschend:
[...]
Vor allem der Oblivion-Part. In so einem bandbreitenfressenden Setting liegt trotzdem die 8800 GTS vorne?

Da kann man wohl nun immer mehr zu dem Schluss kommen, dass die Oblivion-Engine und die G80-Architektur extrem gut harmonieren(selbst der verkrüppelte G84 behauptet sich hier sehr gut).
Stellt sich nur die Frage, da diese Engine doch ziemlich shaderlastig sein soll, ob man das vielleicht auf kommende Games übertragen könnte.Vermutlich wurden da Oblivion- Waldgebiete gebencht. Die brauchen nicht viel Bandbreite und auch keine nennenswerte arithmetische Leistung (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1950_xtx_x1950_crossfire/15/#abschnitt_oblivion), vgl. X1900XTX/ 1950XTX bzw. X1800XT/ 1900XT (Ich frage mich wirklich, wo gerade letzteres immer wieder herkommt. Bei Innengebieten zählt v.a. Arithmetikleistung, in Außengebieten spielt die höchstens mal direkt vor einem Obliviontor oder mitten in Ruinen eine Rolle). Wahrscheinlich kommt es da also hpts. auf die Texelfüllrate an. Wenn R600 tatsächlich nur mit 16 TMUs aufwarten kann, wäre dieser knappe Rückstand noch in Ordnung. Eine 8800 GTS hat etwa dieselbe theoretische Füllrate, allerdings mit der bekannten doppelten Filterleistung.

Gast
2007-04-28, 12:28:54
In Oblivion kommt es auf eine gute Hir-Z Unterstützung an, da es keine ausreichende Softwarelösung in der Engine gibt. Die nVidia Karten waren in diesem Fall Jahre schlechter als AMD - erst beim G80 hat man stark aufgeholt.

Gast
2007-04-28, 13:15:08
Wenn R600 tatsächlich nur mit 16 TMUs aufwarten kann, wäre dieser knappe Rückstand noch in Ordnung. Eine 8800 GTS hat etwa dieselbe theoretische Füllrate, allerdings mit der bekannten doppelten Filterleistung.

Aber ~40% weniger Bandbreite, darf man bei HDR+AA @ hoher Auflösung (also +1600x1050) nicht vergessen.

Ailuros
2007-04-28, 13:16:46
Wenn R600 tatsächlich nur mit 16 TMUs aufwarten kann, wäre dieser knappe Rückstand noch in Ordnung. Eine 8800 GTS hat etwa dieselbe theoretische Füllrate, allerdings mit der bekannten doppelten Filterleistung.

Tja fragt sich aber nun doch was passieren wuerde wenn man auf beiden alle AF Filterungs-Optimierungen abstellen wuerde.

Gast
2007-04-28, 13:21:34
Gut, dann hat ATi also keine absolute High-End Karte für Enthusiasten im Angebot, hm? :) Und läßt damit nur Produkte für die untere High-End Riege vom Stapel. Das ist gut fürs Image, garantiert. =)

Noch schlimmer wäre es, wenn man eine High End Karte veröffentlicht die nicht schneller ist. Die logische Schlußfolgerung daraus: Die X2900XT wird veröffentlicht, günstig angeboten um die GTS zu schlagen und einigen GTX interessierten die Entscheidung schwerer zu machen und später eine verbesserte XTX nachzuschieben..

AnarchX
2007-04-28, 13:25:26
Tja fragt sich aber nun doch was passieren wuerde wenn man auf beiden alle AF Filterungs-Optimierungen abstellen wuerde.

Hat der R600 nun wirklich nur 16 TMUs die je ein Bi-Sample liefern? :|
Da hätte die 8800GTX ja mehr als die 3fache theoretische Texelfüllrate beim Einsatz von AF.

Da bin ich schon gespannt auf AI off Benches, HT4u wird sicherlich wieder solche liefern, wenn ATi es überhaupt zulässt die Optimierungen zu deaktivieren.

reunion
2007-04-28, 13:31:31
Hat der R600 nun wirklich nur 16 TMUs die je ein Bi-Sample liefern? :|
Da hätte die 8800GTX ja mehr als die 3fache theoretische Texelfüllrate.


Das wäre in der Tat verdammt wenig. Ich ging zumindest von doppelten TMUs aus, mal sehen. Als Orton zum Launch des R420 davon spracht, dass 16 TMUs noch lange reichen werden, hätte ich nicht damit gerechnet, dass er das so ernst meint. IMHO hat ATi die Entwicklung der Spiele zu mehr Arithmetik viel zu stark eingeschätzt. Und was man mit diesem ganzen Tesslationszeug, dass irgendwann mit D3D11 kommt jetzt will, bzw. wofür man da soviele Transistoren verschwendet, verstehe ich auch nicht. Zwar könnte damit der GS einem G80 klar überlegen sein, aber dafür hat man in aktuellen Spielen das nachsehen.

[News]

Erste Aussagen zum Lüfter und Temperaturen in 2D(+Bilder) (http://www.gpumania.com/foro/viewtopic.php?t=8419)
http://img205.imageshack.us/img205/6453/gpun2076pv9.jpg
Hier scheinen ein paar Spanier(?) auch ein 2900XT zu haben, hier die Übersetzung:

Immerhin einen 2D-Modus. Damit sollte sich der Stromverbrauch hier in Grenzen halten.

Steve1
2007-04-28, 13:36:25
Dafür hat sich Ati / AMD damit einen Wissensvorsprung angeeignet. Das kann ja auch helfen.

Lawmachine79
2007-04-28, 13:51:51
Habe mal kurz die letzten paar neuen Seiten überflogen - kann es sein, daß ATI Crossfire dieses Mal richtig gut implementiert hat? Oder liegt das bloß am Treiber? Was SLI/Crossfire angeht, wird die 88GTS ja regelrecht dominiert.

Dunkeltier
2007-04-28, 13:52:25
Es ist doch offensichtlich, dass ich damit den Strassenpreis in Relation zur Leistung meine. :cool:

Da ist die Radeon X2900 XT dann aber eindeutig zu teuer mit ihren 399 Euro. Zumal die 640MB Geforce 8800 GTS zum Launch wohl einen kleinen Preisrutsch auf unter 300 Euro erlebt. Also preislich nicht vergleichbar. Und was vielen nicht in den Kopf geht: Die GTS hat nur 96 Shader-Einheiten, die GTX ist dort nochmal ein ganzes Stück stärker. Weswegen man die Ergebnisse der XT mit 5 bis 10% Aufschlag auf die XTX mit ihren ca. 50Mhz mehr Chip- und ca. 200Mhz mehr Speichertakt ummünzen kann. Während die GTX beim imaginären Balkenlängenvergleich auf das GTS-Ergebnis nochmals ca. 40% draufklatscht. Zumindest laut Computerbase:
http://imgnow.de/uploads/1abfjpg.jpg

Für 350 Euro wäre die ATi eine Option, ansonsten weniger... Zu wenig Leistung und zu teuer. Wenn die Ultra kommt, dürfte die GTX eventuell auch nochmals ein ganzes Stück nachgeben. :) Naja, wir werden sehen. Abwarten und Tee rauchen. Bisher habe ich immer gern in beiden Lagern eingekauft, wenn dort was zu sehen gab. Aber ein Produktfiasko, wie ich es bereits mehrmals mit nVidia erlebt habe (aus meiner Sicht die High-End Produkte der Geforce 5800/ 5900/ 6800 Reihe), das brauch ich nun nicht auch noch bei ATi durchmachen.

Und sollte ATi wirklich immer noch das AI integriert haben...bekommen die dafür hoffentlich endlich mal die Quittung.

AnarchX
2007-04-28, 13:55:51
Das wäre in der Tat verdammt wenig. Ich ging zumindest von doppelten TMUs aus, mal sehen. Als Orton zum Launch des R420 davon spracht, dass 16 TMUs noch lange reichen werden, hätte ich nicht damit gerechnet, dass er das so ernst meint.

Im Zusammenhang mit irgendwelchen viel zu hoch gegriffenen Taktratenvorstellungen, hatte dies vielleicht durchaus Sinn gemacht.

Aber nunja man hat sie nicht erreicht (R5xx sollte ja auch um einiges höher takten).

Zudem wird man bis zum Zeitpunkt, als man nicht mehr ändern konnte, vielleicht noch daran geglaubt haben, dass es sich bei dem G80 nur um einen 32 TMU CineFX-Chip handelt, gegen den wohl die aktuelle Konfiguration gereicht hätte.

Dafür hat sich Ati / AMD damit einen Wissensvorsprung angeeignet. Das kann ja auch helfen.
Dazu muss diese Lösung, die hier ATi anbietet, erstmal dem entsprechen, was das wohl noch nicht verabschiedete D3D11 fordern wird.
Ansonsten hat man hier Transistoren in etwas verschwendet, wo die Marktakzeptanz sehr fraglich ist, ähnlich wie damals Truform.

Gast
2007-04-28, 13:55:55
Wenn der Preis bei 399 $ angesetzt wird, dürfte das einen Endpreis von knapp 350,- ergeben... in der Regel sind die Unterschiede zwischen $ und Euro sehr groß in letzter Zeit (siehe nvidia, Intel, AMD...)

Die GTS würde höchstens auf 280-320 fallen, denn noch weiter runter geht kaum, da die GTS320 und die jetzigen Mainstreamkarten auch noch ihren Platz brauchen...

Gast
2007-04-28, 13:56:51
Habe mal kurz die letzten paar neuen Seiten überflogen - kann es sein, daß ATI Crossfire dieses Mal richtig gut implementiert hat? Oder liegt das bloß am Treiber? Was SLI/Crossfire angeht, wird die 88GTS ja regelrecht dominiert.Solange man als Nutzer keinen Zugriff auf die CF-Profile hat, ist CF eh völlig uninteressant. Für die großen Benchmarkspiele wird ATI brauchbare Profile bringen, aber für weniger bekannte und auch nagelneue Spiele sieht es weiterhin finster aus.

reunion
2007-04-28, 14:03:47
Da ist die Radeon X2900 XT dann aber eindeutig zu teuer mit ihren 399 Euro. Zumal die 640MB Geforce 8800 GTS zum Launch wohl einen kleinen Preisrutsch auf unter 300 Euro erlebt. Also preislich nicht vergleichbar. Und was vielen nicht in den Kopf geht: Die GTS hat nur 96 Shader-Einheiten, die GTX ist dort nochmal ein ganzes Stück stärker. Weswegen man die Ergebnisse der XT mit 5 bis 10% Aufschlag auf die XTX mit ihren ca. 50Mhz mehr Chip- und ca. 200Mhz mehr Speichertakt ummünzen kann. Während die GTX beim imaginären Balkenlängenvergleich auf das GTS-Ergebnis nochmals ca. 40% draufklatscht. Zumindest laut Computerbase:
http://imgnow.de/uploads/1abfjpg.jpg

Für 350 Euro wäre die ATi eine Option, ansonsten weniger... Zu wenig Leistung und zu teuer. Wenn die Ultra kommt, dürfte die GTX eventuell auch nochmals ein ganzes Stück nachgeben. :) Naja, wir werden sehen. Abwarten und Tee rauchen. Bisher habe ich immer gern in beiden Lagern eingekauft, wenn dort was zu sehen gab. Aber ein Produktfiasko, wie ich es bereits mehrmals mit nVidia erlebt habe (aus meiner Sicht die High-End Produkte der Geforce 5800/ 5900/ 6800 Reihe), das brauch ich nun nicht auch noch bei ATi durchmachen.

Und sollte ATi wirklich immer noch das AI integriert haben...bekommen die dafür hoffentlich endlich mal die Quittung.

Was hältst du davon, erstmal unabhängige Vergleiche und alle Fakte abzuwarten, bevor du deine Glaskugel anwirfst, und von "Zu wenig Leistung und zu teuer" sprichst? Laut Ail ist sie zu dem Preis jedenfalls ausgezeichnet positioniert, und liegt in zukünftigen spielen knapp vor der GTX.

w0mbat
2007-04-28, 14:05:24
@AnarchX: Aber wieso sollte ATI das machen. Ich sehe irgendwie keinen Grund: Hilfeeeeee!

Master3
2007-04-28, 14:06:17
Es ist schon erstaunlich wie AMD/ATI es schafft viele Kunden zu Nvidia zu bewegen. Die Performance ist doch nur knapp über einer GTS von der XT. Übertaktet man nun die GTS ist man doch schnell auf dem Niveau von der XT und die GTS lässt sich in der Regel ja ganz gut übertakten.

Viele die in dieser Preisregion eine Grafikkarte kaufen ziehen ja auch OC in Betracht. Die Preise werden am Anfang sicher so 340€ (GTS) zu >400€ (XT) stehen. Dann ist die Wahl doch eigentlich klar.

Naja mal sehen was sich in den Reviews so ergibt. Bei der 8600er Reihe war man in der vorveröffentlichten Tests ja auch sehr enttäuscht was sich auch bestätigt hat, wird wohl bei der XT nicht anders.

reunion
2007-04-28, 14:06:32
Solange man als Nutzer keinen Zugriff auf die CF-Profile hat, ist CF eh völlig uninteressant. Für die großen Benchmarkspiele wird ATI brauchbare Profile bringen, aber für weniger bekannte und auch nagelneue Spiele sieht es weiterhin finster aus.

Jedes Spiel ohne Profil verwendet per default AFR, also den schnellsten Modus. Schön, dass alle so geil darauf sind, möglichst viel herumpfuschen zu müssen.

Gast
2007-04-28, 14:08:05
Jedes Spiel ohne Profil verwendet per default AFR, also den schnellsten Modus.Nö. Wenn AI aus ist, funktioniert ohne Profil gar kein Multi-GPU-Betrieb.

reunion
2007-04-28, 14:11:36
Nö. Wenn AI aus ist, funktioniert ohne Profil gar kein Multi-GPU-Betrieb.

Das habe ich auch nicht bestritten. Aber das ist eine reine Treiberangelegenheit, die hoffentlich fallen wird.

Blaire
2007-04-28, 14:12:44
Doch funktioniert schon ,allerdings dann ohne Optimierungen und CF Bits was viele Games garnicht mögen.

[dzp]Viper
2007-04-28, 14:14:07
Übertaktet man nun die GTS ist man doch schnell auf dem Niveau von der XT und die GTS lässt sich in der Regel ja ganz gut übertakten.

Ach und die XT läßt sich nicht übertakten? Wie ich solche einseitigen Kommentare liebe. Die XT läßt sich (laut berichten) sogar sehr gut übertakten - 100 Mhz beim Chip scheinen fast immer drin zu sein(!)

Gast
2007-04-28, 14:16:56
Jedes Spiel ohne Profil verwendet per default AFR, also den schnellsten Modus. Schön, dass alle so geil darauf sind, möglichst viel herumpfuschen zu müssen.
Also bei SLI funzt mit normalen AFR meist so gut wie gar nichts einwandfrei. Meistens müssen noch irgendwelche Bits gesetzt sein, damit es ohne "Anomalien" läuft. Sieht man schön an den Profilen, nur ganz wenige Games kommen mit reinem AFR (z.B. Quake Engine) aus, bei den anderen handelt es sich um AFR mit flags, oder was das auch immer für kryptische Zahlenkombinationen sind.

Dunkeltier
2007-04-28, 14:17:30
Was hältst du davon, erstmal unabhängige Vergleiche und alle Fakte abzuwarten, bevor du deine Glaskugel anwirfst, und von "Zu wenig Leistung und zu teuer" sprichst? Laut Ail ist sie zu dem Preis jedenfalls ausgezeichnet positioniert, und liegt in zukünftigen spielen knapp vor der GTX.

Was versteht du unter unabhängig? Die Dailytech-Benchmarks? :D Die sprachen kaum eine andere Sprache. Man kann halt nicht die GTS mit der GTX vergleichen, während dies bei XT gegenüber der XTX sehr wohl geht. ;) Was meine Glaskugel angeht: Die funktioniert, und das relativ zuverlässig. Was würdest du an nVidias Stelle machen, um den R600 Launch bestmöglich zu torpedieren? Ich wette, Preise runtersetzen, ein noch schnelleres (unbezahlbares) Produkt launchen und sich ins Fäustchen lachen, das der Konkurrent alle Mühe hat mitzuhalten. :biggrin:

reunion
2007-04-28, 14:19:45
Im Zusammenhang mit irgendwelchen viel zu hoch gegriffenen Taktratenvorstellungen, hatte dies vielleicht durchaus Sinn gemacht.

Aber nunja man hat sie nicht erreicht (R5xx sollte ja auch um einiges höher takten).


Wobei ich glaube, dass sich ATi hier zugunsten der Verlustleitung statt für mehr Leistung entschieden hat, denn dass die XT bei DT mal eben ohne Spannungserhöhung >850MHz geht, zeigt doch, dass hier noch einiges an Potential wäre, welches man wohl erst mit 65nm ausschöpfen wird.

dargo
2007-04-28, 14:20:54
Da ist die Radeon X2900 XT dann aber eindeutig zu teuer mit ihren 399 Euro. Zumal die 640MB Geforce 8800 GTS zum Launch wohl einen kleinen Preisrutsch auf unter 300 Euro erlebt.
Beides reine Spekulation. Und wieso zum Teufel vergleicht man immer Launchpreise mit den Strassenpreisen einer GTS die ~5 Monate auf dem Markt ist werde ich wohl nie verstehen.

reunion
2007-04-28, 14:25:22
Was versteht du unter unabhängig? Die Dailytech-Benchmarks? :D Die sprachen kaum eine andere Sprache. Man kann halt nicht die GTS mit der GTX vergleichen, während dies bei XT gegenüber der XTX sehr wohl geht. ;) Was meine Glaskugel angeht: Die funktioniert, und das relativ zuverlässig. Was würdest du an nVidias Stelle machen, um den R600 Launch bestmöglich zu torpedieren? Ich wette, Preise runtersetzen, ein noch schnelleres (unbezahlbares) Produkt launchen und sich ins Fäustchen lachen, das der Konkurrent alle Mühe hat mitzuhalten. :biggrin:

Ich meinte damit eher im Bezug auf R600. Es sind nach wie vor nur Bruchstücke dieses Chips bekannt, IMHO etwas vorschnell um sich schon ein finales Urteil zu erlauben. Ob die XT für 399$ tatsächlich zu teuer ist, wird man frühestens am 14. Mai seriös beantworten können.

dargo
2007-04-28, 14:29:21
Ich meinte damit eher im Bezug auf R600. Es sind nach wie vor nur Bruchstücke dieses Chips bekannt, IMHO etwas vorschnell um sich schon ein finales Urteil zu erlauben. Ob die XT für 399$ tatsächlich zu teuer ist, wird man frühestens am 14. Mai seriös beantworten können.
Diese anfänglichen 399$ UVP sind eh erstmal egal. Spätestens nach 8 Wochen sehe ich die Karte bei uns für 330-350€ Strassenpreis bei diversen Online-Shops.

Gast
2007-04-28, 14:31:32
Es ist schon erstaunlich wie AMD/ATI es schafft viele Kunden zu Nvidia zu bewegen. Die Performance ist doch nur knapp über einer GTS von der XT.

Bitte? Die Benches die ich gesehen habe, sprachen von mindestens 20 Prozent Vorsprung gegenüber der GTS. Unübertaktet, in niedriger Auflösung, mit nicht ausgereiften Treibern.

Ph0b0ss
2007-04-28, 14:43:30
Viper;5446091']Ach und die XT läßt sich nicht übertakten? Wie ich solche einseitigen Kommentare liebe. Die XT läßt sich (laut berichten) sogar sehr gut übertakten - 100 Mhz beim Chip scheinen fast immer drin zu sein(!)

Die 100 Mhz sind aber nur ~13% Mehrtakt, wenn man von 750 Mhz Basistakt ausgeht.

Eine 8800 GTS schafft fast immer ~650Mhz (ohne Vmod und mit Standard Kühler), was ~30% Mehrtakt gegenüber Standard sind.

Um übertaktet das gleiche Leistungsverhältnis zur übertakteten 8800 GTS zu haben, wie es beide Karten bei Standardtakt haben, bräuchte die ATI also ~975 Mhz Gputakt (wenn man den Speicher jetzt mal nicht mit einbezieht).

AnarchX
2007-04-28, 14:44:56
Wobei ich glaube, dass sich ATi hier zugunsten der Verlustleitung statt für mehr Leistung entschieden hat, denn dass die XT bei DT mal eben ohne Spannungserhöhung >850MHz geht, zeigt doch, dass hier noch einiges an Potential wäre,
Fragt sich nur ob dies auch den in dieser Branche üblichen Stabilitätsanforderungen genügt (wenn ich mir da die 68°C Idle bei offenem Aufbau so anschaue).
Beim Launch wird man aber sicherlich dazu mehr erfahren.


welches man wohl erst mit 65nm ausschöpfen wird.

Ich habe momentan eher die Vermutung, dass die Antwort Dual-GPU lauten wird.
Zwei R650@ 700MHz-800MHz solten, wenn ATi sich nun intensiver um CF kümmert, um einiges mehr bringen als ein R650@1GHz+ und der Verbrauch wird wohl, wegen den geringen Spannungen der GPUs bei der Dual-Karte, auch nicht viel höher ausfallen.
(Bei NV gibt es ja auch ähnliche Gerüchte: 2x G92 als künftige höchste High-End-Lösung)

Gast
2007-04-28, 14:54:14
Fragt sich nur ob dies auch den in dieser Branche üblichen Stabilitätsanforderungen genügt (wenn ich mir da die 68°C Idle bei offenem Aufbau so anschaue).
Beim Launch wird man aber sicherlich dazu mehr erfahren.

Das sieht im Moment nicht so aus, als dass die Karte im IDLE wirklich weniger Strom verbrät, jedenfalls weniger als eine GTS. Es sei denn, es handelt sich wirklich um einen Auslesefehler oder der Lüfter dreht so gut wie gar nicht.

AnarchX
2007-04-28, 15:23:29
[News]

R600-Demo - Global Illumination (http://www.hardspell.com/english/doc/showcont.asp?news_id=479&pageid=580)
http://img241.imageshack.us/img241/1952/91ec111e1e9a4923b065b1dtk4.jpg (http://imageshack.us)

Ein ziemlich ausführlicher Artikel mit einem Video der Demo.

Scheint von humus zu sein, also wird die Demo wohl auch bald auf seiner Seite verfügbar sein und auch mit nicht ATi-GPUs testbar sein.

Gast
2007-04-28, 16:02:51
Viper;5444505']Konnte heute den ganzen Tag den Thread net lesen ;( Und das Nachlesen von 10 Seiten is mir dann doch zu mühseelig :tongue:

sorry 4 OT, aber 10 Seiten is ja nix.
War seit 24.4 morgens (~Seite 18 im Thread) im Krankenhaus wegen Nasen-OP, bin seit heute morgen wieder zu hause und was seh ich: 40 Seiten unsinniges Gelaber von Fanboyz beider Seiten. Unglaublich, was für eine Zeitverschwendung.

Mein Tipp: macht das Forum dicht, es lohnt nicht, hier noch irgendwas zu lesen

Undertaker
2007-04-28, 16:03:45
Eine 8800 GTS schafft fast immer ~650Mhz (ohne Vmod und mit Standard Kühler), was ~30% Mehrtakt gegenüber Standard sind.

mach aus den 650mhz mal lieber 600mhz, also etwa 20% - nichts desto trotz ein guter schnitt

Gast
2007-04-28, 16:26:18
Bleiben aber immer noch die Nachteile der Speicherbandbreite erhalten...

In Auflösungen von 1920x1200+ mit AA wird die XT sicher ihre Stärken ausspielen können und das wurde bisher nur ungenügend getestet.

Außerdem bleibt abzuwarten, ob noch weitere Performance durch den Treiber herausgeholt werden kann.

dargo
2007-04-28, 16:29:06
Bleiben aber immer noch die Nachteile der Speicherbandbreite erhalten...

In Auflösungen von 1920x1200+ mit AA wird die XT sicher ihre Stärken ausspielen können und das wurde bisher nur ungenügend getestet.

Nicht unbedingt, denn je nach Game geht ihr schon der Vram aus. ;)

Gast
2007-04-28, 16:32:29
Diese anfänglichen 399$ UVP sind eh erstmal egal. Spätestens nach 8 Wochen sehe ich die Karte bei uns für 330-350€ Strassenpreis bei diversen Online-Shops.

Ich bezweifel, dass HD 2900XT Käufer nochmal 8 Wochen warten wollen...
Fakt ist, dass die Karte am Anfang mindesten 399€ kosten wird. So wie jede neuere Karte, die auf dem Markt kam.
Und es ist bezeichnend, dass AMD ihre absolute High End Karte mit einer Karte vergleicht, welche um bis zu 50% beschnitten ist.

up¦²
2007-04-28, 16:33:51
Ich bezweifel, dass HD 2900XT Käufer nochmal 8 Wochen warten wollen...
Fakt ist, dass die Karte am Anfang mindesten 399€ kosten wird. So wie jede neuere Karte, die auf dem Markt kam.
Und es ist bezeichnend, dass AMD ihre absolute High End Karte mit einer Karte vergleicht, welche um bis zu 50% beschnitten ist.

Der $ war gestern fast 1.40 zum €... :biggrin:

dildo4u
2007-04-28, 16:35:28
Der $ war gestern fast 1.40 zum €... :biggrin:
Dafür ist der US Preis ohne Mwst. ;)

Gast
2007-04-28, 16:36:31
Nicht unbedingt, denn je nach Game geht ihr schon der Vram aus. ;)

Tut mir leid, das halte ich für Unsinn...

Ich habe genügend Benches gesehen, in denen 512MB oder 640MB Karten selbst in 2560 mit AA eine noch hohe Performance lieferten, sofern die GPU Power stimmt.

Außerdem wissen wir nicht, wie die Speicherverwaltung bei der XT aussieht... die vorherige X19xx Generation gewann immer mehr an Vorsprung, je höher man die Settings drehte...

Gast
2007-04-28, 16:41:22
Scheint von humus zu sein, also wird die Demo wohl auch bald auf seiner Seite verfügbar sein und auch mit nicht ATi-GPUs testbar sein.

Freue mich schon auf die Leute, die die Demo nicht interpretieren können...
Und was von Humus kommt, muss sowieso mit Vorsicht bedacht werden -> AMD Mitarbeiter!

Superheld
2007-04-28, 16:41:53
wird eher sagen der Grafikchip macht vorher schlapp egal wieviel Bandbreite, ram

Gast
2007-04-28, 16:45:41
Das wissen wir nunmal nicht. :)

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/25/#abschnitt_performancerating_qualitaet

Das X1950XTX Crossfire scheidet selbst in der sehr hohen Auflösung immer noch super ab und es dürfte klar sein, das dieses nicht zu 100% skalierte...

Jetzt wäre die Frage, ob eine einzelne X2900XT die Leistung eines Crossfires gespanns (konstant) bringen kann... für 1920x1200 4-6xAA dürfts auf jeden Fall noch reichen. 2560x1600 4xAA ist noch ne ganz Ecke extremer...

Gast
2007-04-28, 16:55:19
Hier dann nochmal die Dualkarten:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/34/#abschnitt_performancerating_sli

XHD..

Wenn wir nun mal davon ausgehen, das es in einigen Games keine so tolle Skalierung gab, ist das Ergebniss mehr als beeindruckend. Die GTS wird locker weggegefegt, trotz nur 512MB VRAM und so soll es ja auch bei der XT sein, die bei bisherigen Benches knapp 20% davor lag.

dargo
2007-04-28, 17:01:39
Ich bezweifel, dass HD 2900XT Käufer nochmal 8 Wochen warten wollen...

Wenn sie nicht warten können dann sollen sie gleich zum G80 greifen. :D


Fakt ist, dass die Karte am Anfang mindesten 399€ kosten wird. So wie jede neuere Karte, die auf dem Markt kam.

Das könnte durchaus passieren. Es wäre aber auch möglich, dass die 330-350€ Strassenpreis viel schneller als in 8 Wochen erreicht werden. Immerhin ist die Konkurenz schon lange da. Es hängt auch viel von der Verfügbarkeit ab.

Gast
2007-04-28, 17:03:27
Der Preiskampf beginnt vorallem dann, wenn die Karten lieferbar sind und die Shops um jeden Euro feilschen, damit sie in den Preisvergleichen ganz oben stehen.

Also ich würde ganz klar erst 2-4 Wochen nach Release kaufen, vorher werden die frühkäufer abgezockt :)

dildo4u
2007-04-28, 17:07:00
Bei der GTS sehe ich noch zusätzlich ein deutlichen Vorteil was den Stromverbrauch angeht.Die braucht ja deutlich wengier als die GTX und die X2900XT wird whol noch mal ca 20% mher Strom brauchen als diese.

dargo
2007-04-28, 17:07:12
Tut mir leid, das halte ich für Unsinn...

Ich habe genügend Benches gesehen, in denen 512MB oder 640MB Karten selbst in 2560 mit AA eine noch hohe Performance lieferten, sofern die GPU Power stimmt.

Klar, wenn der Vram nicht ausgeht schon. Aber einen R600 kaufen sich die Leute auch für Spiele die 2007 und später erscheinen. Und selbst heute gibt es ein Spiel (CoD2) wo der Vram eng werden könnte. Und dafür braucht man keine 25x16 Auflösung.


Außerdem wissen wir nicht, wie die Speicherverwaltung bei der XT aussieht... die vorherige X19xx Generation gewann immer mehr an Vorsprung, je höher man die Settings drehte...
Das ist ein Wunschdenken und Irreführung von avg.fps. ATI kann nicht zaubern. ;)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=356137


Also ich würde ganz klar erst 2-4 Wochen nach Release kaufen, vorher werden die frühkäufer abgezockt :)
Exakt. :)

Gast
2007-04-28, 17:11:12
Das ist ein Wunschdenken und Irreführung von avg.fps. ATI kann nicht zaubern. ;)

Wozu zaubern? Ist nicht nötig. es war oft genug zu sehen, das die Karte in 1600x1200 langsamer oder gleichauf war, während sie in 2560 plötzlich deutlich vorne lag.

Außerdem braucht dafür niemand zaubern, keine Ahnung wie du darauf kommst. Es reicht völlig aus, wenn die Konkurrenz es nicht besser macht ;D

Gast
2007-04-28, 17:12:09
ab und es dürfte klar sein, das dieses nicht zu 100% skalierte...

Jetzt wäre die Frage, ob eine einzelne X2900XT die Leistung eines Crossfires gespanns (konstant) bringen kann... für 1920x1200 4-6xAA dürfts auf jeden Fall noch reichen. 2560x1600 4xAA ist noch ne ganz Ecke extremer...

Wer weis ob es noch 6xMSAA gibt... da 8xMSAA ja geboten wird, könnte das wegfallen (beides auf einer Maske kann ich mir net so vorstellen).

Gast
2007-04-28, 17:22:35
@dargo

Ich denke für viele wird die XT sowas wie eine Ablösung der 79xx/X19xx Karten sein.

Mich interessieren ultrahohe auflösungen nicht wirklich, es reicht mir eigentlich völlig, wenn die 1600x1200 oder 1920x1200 nun überall flüssig laufen, am besten mit 4fachem AA.

Das schafften die Vorgängerkarten leider nicht immer, aber wenn man sich mal die bekannten Werte anschaut, könnte es der XT gelingen...

Core2@3,46GHz, 1600x1200 4xAA/16xAF
1600x1200 4xAA/16xAF:
ATi Radeon X1950 XTX CF 6.661

Core 2 Extreme QX6700, 1280x1024 „Max. Quality"
ATi Radeon HD 2900 XT 512 MB 11.447

Für mich sieht das schon sehr gut aus, so oder so. Im Vergleich zu einem Crossfire System ist selbst der Stromverbrauch einer einzelnen XT hervorragend :biggrin:, diese kann man dann wohl auch besser übertakten, als das CF Gespann...

dargo
2007-04-28, 17:26:19
Wozu zaubern? Ist nicht nötig. es war oft genug zu sehen, das die Karte in 1600x1200 langsamer oder gleichauf war, während sie in 2560 plötzlich deutlich vorne lag.

Außerdem braucht dafür niemand zaubern, keine Ahnung wie du darauf kommst. Es reicht völlig aus, wenn die Konkurrenz es nicht besser macht ;D
Dann zeig mir jetzt mal bitte Benches wo eine ATI besser abschneidet als eine NV wenn beiden der Vram ausgeht. Und komme mir bitte nicht mit avg.fps.

Gast
2007-04-28, 17:29:14
Dann zeig mir jetzt mal bitte Benches wo eine ATI besser abschneidet als eine NV wenn beiden der Vram ausgeht. Und komme mir bitte nicht mit avg.fps.

Hä? Wie kommst du jetzt darauf? Ich sprach von etwas ganz anderem! Ich sagte, das die vorherige Generation für hohe Auflösungen besser geeignet war, als die Lösungen von nvidia (siehe X1950 - 7900GTX zwischen 1280x1024 und >1920)

Bei der XT ist das noch gar nicht klar, wie kann man dann behaupten, sie sei für hohe Auflösungen nicht geeignet?

dargo
2007-04-28, 17:32:51
@dargo

Ich denke für viele wird die XT sowas wie eine Ablösung der 79xx/X19xx Karten sein.

Mich interessieren ultrahohe auflösungen nicht wirklich, es reicht mir eigentlich völlig, wenn die 1600x1200 oder 1920x1200 nun überall flüssig laufen, am besten mit 4fachem AA.

Dafür werden sicherlich 512MB Vram reichen. Ich meinte da eher sowas wie 16x12-19x12 und 8xMSAA. Und dann halt Games mit sehr guter Texturauflösung.

Gast
2007-04-28, 17:35:33
wer solch hohe Qualitätsansprüche hat, der kauft sich gleich zwei Karten von der Sorte einer XTX. :)

Die XT wäre eine gute Einzelkarte die ordentlich Power haben soll um die Zeit zu überdrücken, bis Grafikchips in 65nm oder kleiner und mit 1 GB als Standard daher kommen :)

Deshalb finde nicht nur ich sie interessant... vorallem wenn der Preis stimmt!

dargo
2007-04-28, 17:36:14
Hä? Wie kommst du jetzt darauf? Ich sprach von etwas ganz anderem! Ich sagte, das die vorherige Generation für hohe Auflösungen besser geeignet war, als die Lösungen von nvidia (siehe X1950 - 7900GTX zwischen 1280x1024 und >1920)

Sorry, das bezog sich eigendlich auf Post vom Gast #1178. Man kann euch auch schlecht auseinander halten. X-D

AnarchX
2007-04-28, 17:37:09
[News]

Aufbau des R600 (http://bbs.expreview.com/)
http://img410.imageshack.us/img410/6644/20070428deff9681f706dcalr8.jpg (http://imageshack.us)

Leider sehr unscharf...


btw.

Laut CJ@B3D (http://forum.beyond3d.com/showpost.php?p=977888&postcount=3372) sind die Benchmark-Folien nicht korrekt.

LovesuckZ
2007-04-28, 18:06:26
Wer weis ob es noch 6xMSAA gibt... da 8xMSAA ja geboten wird, könnte das wegfallen (beides auf einer Maske kann ich mir net so vorstellen).

Die ROPs müssen für 4xMSAA nicht mehr loopen, daher gibt es kaum noch Unterschiede zwischen 2xMSAA und 4xMSAA (siehe G80). 6xMSAA wäre überflüssig, da die ROPs dafür einemal loopen müssten und man somit gleich 8xMSAA einstellen kann.

Zum Aufbau:
Xenos, anyone? Beyond3d.com (http://www.beyond3d.com/content/articles/4/7)
http://www.beyond3d.com/images/articles/xenos/arch-big.gif

Interessante Strategie: Mit Xenos hat man eine "Entwicklungsplattform" für Spiele(Anwendungen) erschaffen, die für viele Spieleprotierungen auf den PC als Grundlage gilt. Nun übernimmt man Xenos als Grundkonzept und wird in den Umsetzungen (RS:V, NFS:Carbon) sehr, sehr schnell sein.

/edit: Und guckt auf die Vec-Einheiten. 4 normale und ein dickes Rechteck -> Splitting: 4+1. Wie bei Xenos.

reunion
2007-04-28, 18:20:41
Naja, alles würde da auch nicht von Xenos übernommen. Dass die ALUs auf Xenos aufbauen, war aufgrund des USC fast zu erwarten. Dafür wurde bsw. mit dem Dispatch Prozessor etwas von der R5xx-Architektur verwendet. Es ist also wie vermutet eine Verschmelzung der beiden Architekturen.

Mumins
2007-04-28, 18:21:32
Bei der GTS sehe ich noch zusätzlich ein deutlichen Vorteil was den Stromverbrauch angeht.Die braucht ja deutlich wengier als die GTX und die X2900XT wird whol noch mal ca 20% mher Strom brauchen als diese.

Können die G80 nun im Idle den Stromverbrauch schon zurückfahren? Wenn nicht, dann würde der G80 bei mir mehr verbrauchen als R600.

Fetza
2007-04-28, 18:22:26
Klar, wenn der Vram nicht ausgeht schon. Aber einen R600 kaufen sich die Leute auch für Spiele die 2007 und später erscheinen. Und selbst heute gibt es ein Spiel (CoD2) wo der Vram eng werden könnte. Und dafür braucht man keine 25x16 Auflösung.



512 mb reichen auch in cod2 dicke, in 1600er auflösung mit 4xaa und 16xaf.
ein spiel was nach 2007 erscheint, wird bestimmt nicht mehr in höheren settings laufen, von daher halte ich diesen "es muss unbedingt mehr sein als 512mb" hype für überzogen. Du kannst selbst mit 256 mb ram heute noch gut in 1280er auflösung mit aa und af spielen.

Die 25er auflösungen sind eh utopisch, wer in solchen auflösung zocken will, braucht halt ein sli system gtx oder muss noch warten, das tangiert doch kaum jemanden.

Edit: Warum sind eigentlich die oblivion benchmarks so entäuschend?

greetz

LovesuckZ
2007-04-28, 18:24:15
Können die G80 nun im Idle den Stromverbrauch schon zurückfahren? Wenn nicht, dann würde der G80 bei mir mehr verbrauchen als R600.

Diese Betrachtung ist inkonsequent: Du kaufst dir doch keine High-End Karte, um einmal in der Woche für eine Stunde zu spielen, oder?
Da stellst sich dann die Frage, ob eine Konsole nicht die bessere Investition darstellt.

Gast
2007-04-28, 18:35:22
He noted that GPU production with an unidentified customer could enter 65nm production in the second half of this year.

http://www.fabtech.org/content/view/2768/2/

ATI GPUs ab dem zweiten Halbjahr in 65 nm von Chartered?

dargo
2007-04-28, 18:41:46
512 mb reichen auch in cod2 dicke, in 1600er auflösung mit 4xaa und 16xaf.

1280x1024 16xQCSAA = ~540MB. ;)


ein spiel was nach 2007 erscheint, wird bestimmt nicht mehr in höheren settings laufen, von daher halte ich diesen "es muss unbedingt mehr sein als 512mb" hype für überzogen.

Das sicherlich. Aber glaubst du wirklich die Texturauflösung lassen die Spieleprogrammierer auf dem Stand von 2005? ;)
Ich bin gespannt wie es bei CoD4 aussehen wird.

Können die G80 nun im Idle den Stromverbrauch schon zurückfahren? Wenn nicht, dann würde der G80 bei mir mehr verbrauchen als R600.
Und wo ist deine Quelle zum Idle Stromverbrauch eines R600? Man, man, man ...

Fetza
2007-04-28, 18:52:57
1280x1024 16xQCSAA = ~540MB. ;)


Das sicherlich. Aber glaubst du wirklich die Texturauflösung lassen die Spieleprogrammierer auf dem Stand von 2005? ;)
Ich bin gespannt wie es bei CoD4 aussehen wird.


Und wo ist deine Quelle zum Idle Stromverbrauch eines R600? Man, man, man ...

Jo, aber 16xqcsaa zieht dann doch deutlich mehr als 16x12 mit 4xaa an vram denke ich.

Die meistens spiele nutzen die 512 mb doch noch garnicht aus, was fällt dir neben cod2 und coh noch für games ein?

Multiplattformtitel, und das dürften wohl die meistens games sein, können garnicht anders als dabei bleiben :)

reunion
2007-04-28, 20:07:13
http://i21.photobucket.com/albums/b299/Genocide737/u3t9pvpwxd10fa9am7.jpg

"New Texture Cache" Design. Ich dachte bisher diese L1/L2-Caches wären bei den älteren Chips im Blockschaltbild nur nicht eingezeichnet. Aber anscheinend sind diese neu. Das könnte des Rätsels Lösung sein, warum R600 trotz ebenfalls nur 16 TMUs wesentlich mehr Füllrate auf die Straße bekommt als R580.

Hvoralek
2007-04-28, 20:07:33
Aber ~40% weniger Bandbreite, darf man bei HDR+AA @ hoher Auflösung (also +1600x1050) nicht vergessen.Die Bandbreite einer X19001950XTX ist um etwa 1/3 höher als die einer X1900XTX. Schau Dir mal an, was das in Oblivion ausmacht, selbst in 2560x1600 4xAA. Oder denke an die höher aufgelösten Texturen, die mW auf praktisch jedem System mit 256 MiB VRAM kein bisschen Leistung kosteten.

Edit: Warum sind eigentlich die oblivion benchmarks so entäuschend?Das dürfte wie gesagt mit der anscheinend arg bescheidenen Filterleistung zusammenhängen.

Nakai
2007-04-28, 20:12:36
http://i21.photobucket.com/albums/b299/Genocide737/u3t9pvpwxd10fa9am7.jpg

"New Texture Cache" Design. Ich dachte bisher diese L1/L2-Caches wären bei den älteren Chips im Blockschaltbild nur nicht eingezeichnet. Aber anscheinend sind diese neu. Das könnte des Rätsels Lösung sein, warum R600 trotz ebenfalls nur 16 TMUs wesentlich mehr Füllrate auf die Straße bekommt als R580.

Das ist nur Redesign des alten Marketingplakats.

mfg Nakai

reunion
2007-04-28, 20:18:01
Das wusste ich nicht.

Nakai
2007-04-28, 20:19:22
http://www.nvnews.net/vbulletin/showthread.php?t=76928

Das war vor mehr als 10 Monaten...

mfg Nakai

AnarchX
2007-04-28, 20:21:35
Aber nun wissen wir, dass hinter dem "Massive geometry performance" mehr als die USA steht. ;)

Mumins
2007-04-28, 20:38:53
Diese Betrachtung ist inkonsequent: Du kaufst dir doch keine High-End Karte, um einmal in der Woche für eine Stunde zu spielen, oder?
Da stellst sich dann die Frage, ob eine Konsole nicht die bessere Investition darstellt.

Häh? Mein PC läuft so gut wie immer. Zocken tu ich manchmal mehrere Tage nicht. Wenn dann 2-3 Stunden. Also läuft mein PC meist Windows.

Super Grobi
2007-04-28, 20:49:37
Häh? Mein PC läuft so gut wie immer. Zocken tu ich manchmal mehrere Tage nicht. Wenn dann 2-3 Stunden. Also läuft mein PC meist Windows.

Bei mir ist das ebenfalls so der Fall. Aber wenn ich dann zocke, will ich richtig Druck auf dem DVI Kabel haben ;)

SG

Gast
2007-04-28, 20:50:53
1280x1024 16xQCSAA = ~540MB. ;) ...

Was aber nicht heißt, das es schon Performance kostet... der Verbrauch kann selbst 650MB betragen, so lange es Texturen sind, die gerade nicht gebraucht werden, macht das in der Performance nix.

Außerdem kennt man ATIs Speicherverwaltung noch nicht.

Gast
2007-04-28, 20:54:19
Die Bandbreite einer X1900XTX ist um etwa 1/3 höher als die einer X1900XTX. Schau Dir mal an, was das in Oblivion ausmacht, selbst in 2560x1600 4xAA.

Meintest du X1950XTX vs X1900XTX? Dann solltest du eines nicht vergessen: GDDR4 war bei dieser Karte bei gleichem Takt einige Prozente langsamer.

Die angeblich 29% höhere Speicherbandbreite war in wirklichkeit vielleicht nur 20 % hoch... und dafür sind die Ergebnisse in manchen Games, z.B. CoD2 mit über 13% oder Oblivion mit knapp 10% sehr ordentlich...

robbitop
2007-04-28, 22:32:07
Die ROPs müssen für 4xMSAA nicht mehr loopen, daher gibt es kaum noch Unterschiede zwischen 2xMSAA und 4xMSAA (siehe G80). 6xMSAA wäre überflüssig, da die ROPs dafür einemal loopen müssten und man somit gleich 8xMSAA einstellen kann.
Klar die Bandbreite ist ja auch unwichtig dabei. Allein die Z Testrate der ROPs zaehlt. (Ironie)
Ich bin gespannt, wie lange sich die urban legend der grossartigen Limitierung der ROP Leistung noch haellt.


/edit: Und guckt auf die Vec-Einheiten. 4 normale und ein dickes Rechteck -> Splitting: 4+1. Wie bei Xenos.
Das macht ja auch Sinn. So kann man Pixelshader als auch Vertexshader effektiv abarbeiten. Ob man einen 2er Split noch drin hat, ist die Frage. Derzeit kommt sowas ja nicht sooo haeufig vor.

robbitop
2007-04-28, 22:33:43
Naja, alles würde da auch nicht von Xenos übernommen. Dass die ALUs auf Xenos aufbauen, war aufgrund des USC fast zu erwarten. Dafür wurde bsw. mit dem Dispatch Prozessor etwas von der R5xx-Architektur verwendet. Es ist also wie vermutet eine Verschmelzung der beiden Architekturen.
Meinst du Xenos hatte keinen Dispatcher?
Das sind irgendwelche Blockdiagramme, an die ich mich gar nicht so klammern wuerde. Die physikalische Funktionsweise wird damit nur ungenau wiedergegeben und es koennen bewusst einige Dinge unkorrekt impliziert werden (wie damals der Ringbus Hoax).

reunion
2007-04-28, 22:46:03
Laut den Benchs die auf den letzten Seiten bei B3D gezeigt wurden, ist die XT im 3dmark 01, 03, 05, und 06 schneller als eine GTX. Auch wenn das nicht viel bedeuten muss.

Meinst du Xenos hatte keinen Dispatcher?
Das sind irgendwelche Blockdiagramme, an die ich mich gar nicht so klammern wuerde. Die physikalische Funktionsweise wird damit nur ungenau wiedergegeben und es koennen bewusst einige Dinge unkorrekt impliziert werden (wie damals der Ringbus Hoax).

Natürlich ist da viel Marketing dabei. Trotzdem lassen sich immer wieder einige Dinge dadurch "herausfiltern".

Auch nicht ganz uninteressant:
http://forum.beyond3d.com/showthread.php?p=977909#post977909

X2900XT@gpuinstr

MAD1 - MAD 1 512 256 100 144.9562 ms 46.2960 GInstr/sec
MAD3 - MAD 3 512 256 100 142.4918 ms 47.0966 GInstr/sec
MAD4 - MAD 4 512 256 100 142.5442 ms 47.0793 GInstr/sec

MUL1 - MUL 1 512 256 100 71.2619 ms 94.1722 GInstr/sec
MUL3 - MUL 3 512 256 100 71.8172 ms 93.4440 GInstr/sec
MUL4 - MUL 4 512 256 100 88.9417 ms 75.4526 GInstr/sec

ADD1 - ADD 1 512 256 100 36.4790 ms 183.9657 GInstr/sec
ADD3 - ADD 3 512 256 100 43.6579 ms 153.7152 GInstr/sec
ADD4 - ADD 4 512 256 100 57.4707 ms 116.7706 GInstr/sec

DP3 - DP3 1 512 256 100 142.6667 ms 47.0389 GInstr/sec
DP3 - DP3 3 512 256 100 141.9595 ms 47.2732 GInstr/sec
DP3 - DP3 4 512 256 100 143.7289 ms 46.6913 GInstr/sec

DP4 - DP4 1 512 256 100 143.0978 ms 46.8972 GInstr/sec
DP4 - DP4 3 512 256 100 142.7959 ms 46.9963 GInstr/sec
DP4 - DP4 4 512 256 100 141.9480 ms 47.2771 GInstr/sec

Demnach liegt die MUL, und vorallem die ADD Leistung deutlich über der MAD Leistung?!

crux2005
2007-04-28, 23:02:05
Laut den Benchs die auf den letzten Seiten bei B3D gezeigt wurden, ist die XT im 3dmark 01, 03, 05, und 06 schneller als eine GTX. Auch wenn das nicht viel bedeuten muss.

ich bekomme mit meiner 8800GTX@default im 3Dmark06, FW 158.19 den gleichen score wie die X2900XT :P

SM2.0: 5177
SM3.0: 5041
CPU: 3040 (gibt ein 3.6GHz C2D)
---------------
11589

Ronny145
2007-04-28, 23:06:20
Laut den Benchs die auf den letzten Seiten bei B3D gezeigt wurden, ist die XT im 3dmark 01, 03, 05, und 06 schneller als eine GTX. Auch wenn das nicht viel bedeuten muss.




Das sieht nicht so aus. Die CPU war beim R600 höher getaktet.

Gast
2007-04-29, 09:21:21
ich bekomme mit meiner 8800GTX@default im 3Dmark06, FW 158.19 den gleichen score wie die X2900XT :P

SM2.0: 5177
SM3.0: 5041
CPU: 3040 (gibt ein 3.6GHz C2D)
---------------
11589deine cpu läuft aber auf 3.6ghz, oder? weil das macht schon einen kleiner aber feinen unterschied.

Ronny145
2007-04-29, 09:40:45
deine cpu läuft aber auf 3.6ghz, oder? weil das macht schon einen kleiner aber feinen unterschied.


Im B3D der mit der R600XT hatte auch für die 3dmarks einen C2D mit 3,6 Ghz.

Gast
2007-04-29, 09:43:32
bei der xt lief er auch auf 3,6ghz siehe cpu score !!

reunion
2007-04-29, 10:00:07
Es bleibt spannend:

I wouldn't pay too much attention to the scores on DT... all they've done is create a lot of confusion and panic.

http://forum.beyond3d.com/showpost.php?p=978160&postcount=3494

Before I go to a "special place" and also getting a new system built, so I'll be offline until after work tomorrow.. unless someone builds it for me in due course....

Don't believe those figures, just yet, even if you be intellectually inspired. There are 4 guys I know, 2 independent and 2 AMD workers, who have clearly told me OPPOSITE news to that just this week and they own a HD 2900 XT, with 2 having the XTX. They're not immature kids or online geeks even, they [work for corporations and are professionals.

I've just talked with an AMD employee, who was also my dad's friend. (God bless him)

He called it utter shens!

No fanboism, no sheepism, no blindness or stupidity, no kidding. He ran HIS HD 2900 XT while I was on the phone with him and he also owns a XFX 8800 GTX XXX at 655/2100 watercooled.

He said he can't say anything other than it's very impressive, quiet silent in a rig and nothing you would be disappointed with.

Hoping to not give away too much, he also said those figures are BADLY low compared to the actual card he has with RC drivers that will be final.

I didn't ask him what could be wrong with that bench, he just said it's complete BS and that the final release card murders the G80 GTX.

http://forum.beyond3d.com/showpost.php?p=978351&postcount=3584

Schön langsam könnte man ein Gewinnspiel veranstalten, wer was tippt. Die 3dmark-Scores sprechen jedenfalls auch nicht von einer Karte, die der GTX unterlegen ist.

Das sieht nicht so aus. Die CPU war beim R600 höher getaktet.

Okay, dann gibts gleichstand beim 06er, der allerdings einem G8x, wie man am G84 sieht, sehr zu gute kommt.

xL|Sonic
2007-04-29, 10:04:41
Es wäre ja schön wenn die XT und die GTX sich nen Kopf an Kopf Rennen liefern würden. Dadurch dürften die Preise auch etwas sinken und die Treiberentwicklung dürfte auch nochmal ordentlich gepusht werden.

reunion
2007-04-29, 10:05:13
bei der xt lief er auch auf 3,6ghz siehe cpu score !!

Richtig, hier ist der Wert einer XT:

http://www.chiphell.com/attachments/month_0704/20070429_da39f7c4233fdd9cf0c0pecq13fv8Zhx.jpg

SM3-Score über G80GTX, SM2-Score unter der GTX.

Es wäre ja schön wenn die XT und die GTX sich nen Kopf an Kopf Rennen liefern würden. Dadurch dürften die Preise auch etwas sinken und die Treiberentwicklung dürfte auch nochmal ordentlich gepusht werden.

Sehe ich ähnlich, dadurch wäre nV fast gezwungen, die GTX auch um 399$ zu verkaufen.

no_surrender
2007-04-29, 10:12:28
ui ist ja doch schon ganz schön viel.

Hier mal ein vergleich mit meinem System wo ne GTS werkelt:

C2D E6600 @3888 MHz (CPU Multi wird nicht erkannt von 3D MarK)
4 GB RAM
8800 GTS 640 MB 675/1022

http://img209.imageshack.us/img209/7504/222ql1.jpg (http://imageshack.us)


Die SM3 Punkt waren auch schon bei meinem alten CF gespann bei 5800 Punkten:smile:

Nakai
2007-04-29, 10:15:28
Schön langsam könnte man ein Gewinnspiel veranstalten, wer was tippt. Die 3dmark-Scores sprechen jedenfalls auch nicht von einer Karte, die der GTX unterlegen ist.

Du hast es selber gesagt. Der G84 ist das beste Gegenbeispiel.

Anscheinend ist 3DMark06 eher für NV-Karten optimiert.

Sehe, ich ähnlich, dadurch wäre nV fast gezwungen, die GTX auch um 399$ zu verkaufen.

Naja ich sehe den R600 etwa auf GTX-Niveau, es gehen Gerüchte um, dass der R600 seine Muskeln in DX10 spielen lassen wird. Vll versucht ATI deswegen mit ein paar DX10-Software den R600 besser aussehen zu lassen.

mfg Nakai

James Ryan
2007-04-29, 10:18:45
Die News der letzten Tage lesen sich ja doch etwas besser für die HD 2900 XT. :) Letzter Stand war doch, Launch am 14.5. oder?

MfG :cool:

Logotech
2007-04-29, 10:49:59
Du hast es selber gesagt. Der G84 ist das beste Gegenbeispiel.

Anscheinend ist 3DMark06 eher für NV-Karten optimiert.



Naja ich sehe den R600 etwa auf GTX-Niveau, es gehen Gerüchte um, dass der R600 seine Muskeln in DX10 spielen lassen wird. Vll versucht ATI deswegen mit ein paar DX10-Software den R600 besser aussehen zu lassen.

mfg Nakai
Hieß es nicht von ATI Ende letzten Jahres,dass der R600 der schnellste DX9 Grafikprozessor sein wird?

AnarchX
2007-04-29, 10:57:19
Schön langsam könnte man ein Gewinnspiel veranstalten, wer was tippt. Die 3dmark-Scores sprechen jedenfalls auch nicht von einer Karte, die der GTX unterlegen ist.

Aus 3DMark-Werten ohne AA/AF schliesst du soetwas? :|
Spätestens seit dem G84 sollte man darauf nichts mehr geben und auch beim R600 wäre ich sehr vorsichtig bei solchen Schlüssen, da seine extrem hohe Geometrie-Leistung nicht ganz unerheblich sein könnte.


Hieß es nicht von ATI Ende letzten Jahres,dass der R600 der schnellste DX9 Grafikprozessor sein wird?

AFAIK war doch der Wortlaut: die schnellste DX9-GPU die wir(ATi) je gebaut haben. Zudem war wohl auch der wahre G80 zu diesem Zeitpunkt noch unbekannt.;)

Nakai
2007-04-29, 11:01:03
http://forum.beyond3d.com/showpost.php?p=977879&postcount=3367

Schon jemand gesehen?

mfg Nakai

Ronny145
2007-04-29, 11:03:37
http://forum.beyond3d.com/showpost.php?p=977879&postcount=3367

Schon jemand gesehen?

mfg Nakai


http://www.forum-3dcenter.de/vbulletin/showpost.php?p=5446543&postcount=195

Nakai
2007-04-29, 11:06:11
http://forum.beyond3d.com/showpost.php?p=978396&postcount=3606

Und das? ;)

HD2600 hat 24 UnifiedShader.

mfg Nakai

reunion
2007-04-29, 11:09:26
Also immerhin mehr als ein drittel R600 in punkto ALUs, aufgeteilt in drei Achterblöcke. Die Architektur scheint ja sehr flexibel zu sein, ich hätte mir nicht gedacht, dass man diese 16er Blöcke aufschüren kann. Die ROPs wurden wie das SI allerdings geviertelt. Dazu acht TMUs, hier also eine Halbierung. Und RV610 hat noch acht ALUs, aufgeteilt in zwei Viererblöcke, ebenfalle einen ROP-Cluster, und vier TMUs.

AnarchX
2007-04-29, 11:11:26
http://forum.beyond3d.com/showpost.php?p=978396&postcount=3606

Und das? ;)

HD2600 hat 24 UnifiedShader.


:up:

Sehr interessant.

RV630: 4 ROPs/8 TMUs/ 24 ALUs
RV610: 4 ROPs/4 TMUs/ 8 ALUs

Hier-Z scheint dem RV610 auch zu fehlen und auch die Color-Compression bei den ROPs. Naja für eine günstige OEM-Lösung sollte es reichen...

Also wurde bei ATi auch ziemlich "verkrüppelt".

Nakai
2007-04-29, 11:16:26
ich hätte mir nicht gedacht, dass man diese 16er Blöcke aufschüren kann.

Könnte das ein Vorteil des R600 sein?

Das die Architektur sehr gut gesplittet werden kann?

mfg Nakai

reunion
2007-04-29, 11:18:12
Also wurde bei ATi auch ziemlich "verkrüppelt".

Das ist wesentlich mehr, als ein G84 im Verhältnis zu einem G80 liefern kann. Bei gleicher Taktrate: Halbe Texelfüllrate, ~38% der ALU-Leistung, und ein viertel der Speicherbandbreite/ROPs, aber das war schon vorher klar. Wenn man jetzt noch davon ausgeht, dass RV630 durch 65nm höher takten wird als R600, dann sollte da eine brauchbare Midragelösung rauskommen. Und RV610 sollte Spieler ohnehin nicht tangieren, der soll natürlich vorallem billig sein.

AnarchX
2007-04-29, 11:24:22
Das ist wesentlich mehr, als ein G84 im Verhältnis zu einem G80 liefern kann. Bei gleicher Taktrate: Halbe Texelfüllrate, ~38% der ALU-Leistung, und ein viertel der Speicherbandbreite/ROPs, aber das war schon vorher klar. Wenn man jetzt noch davon ausgeht, dass RV630 durch 65nm höher takten wird als R600, dann sollte da eine brauchbare Midragelösung rauskommen.

Was sich zeigen muss, immerhin ist er im Bezug auf ROPs und TMUs nur 1/2 des G84.


Könnte das ein Vorteil des R600 sein?

Das die Architektur sehr gut gesplittet werden kann?

Nunja, bei G8x kann man ja auch bis auf die einzelnen Vec8-ALUs herunterskalarien(was man bei der 8300GS auch machen wird. Also sehe ich nicht unbedingt einen Vorteil.

Aber im Bezug auf kommende Chips könnte es interessant werden, da man jetzt wohl TMUs und ALU unabhängig hinzufügen kann.

Gast
2007-04-29, 11:24:25
Aufbau des R600 (http://bbs.expreview.com/)Wenn das Bild so stimmt, dürften 16 TMUs bei R600 als sicher gelten. Die Frage ist jetzt nur noch, was eine TMU alles kann.

reunion
2007-04-29, 11:29:54
Was sich zeigen muss, immerhin ist er im Bezug auf ROPs und TMUs nur 1/2 des G84.


Und R600 hat gerademal ein viertel der TMUs eines G80. Trotzdem kann man jetzt schon zumindest sagen, dass er nicht in diesem ausmaß unterlegen sein wird. Ich halte nicht viel davon, unterschiedliche Architekturen zu vergleichen, wo man noch dazu noch nicht weiß was eine R600-TMU genau kann. Was man sagen kann ist, wenn ein R600 einem G80 ebenbürtig ist, dann schlägt RV630 G84 klar. Und ROPs sollten ohnehin nicht limitieren.

Aus 3DMark-Werten ohne AA/AF schliesst du soetwas? :|
Spätestens seit dem G84 sollte man darauf nichts mehr geben und auch beim R600 wäre ich sehr vorsichtig bei solchen Schlüssen, da seine extrem hohe Geometrie-Leistung nicht ganz unerheblich sein könnte.


Genau AA/AF war bisher das große Pluspunkt bei ATi. Auch schließe ich das nicht nur aus den 3dmark-Werten, sondern aus den Kommentaren weiter oben. Und wie schon gesagt, die G8x-Architektur profitiert stark vom 3dmark, wie man an G84 gesehen hat, aber das muss ja deshalb nicht auch auf die R6XX-Architektur zutreffen. Natürlich bedarf es für eine genaue Analyse mehr Werte, aber deshalb muss man das ja nicht ignorieren.

Gast
2007-04-29, 11:32:32
Was ein Schrott, seit 10 Seiten immer wieder 3dMark Bildchen die nix aussagen und darauf hin wird gesagt die XT kann mit ner GTX mithalten, sicher...
Aber wir werden ja sehen wenn das NDA fällt warum die Karte einen niedrigeren Preis hat.

Gast
2007-04-29, 11:33:04
Könnte das ein Vorteil des R600 sein?

Das die Architektur sehr gut gesplittet werden kann?

mfg Nakai

Nein, solange es keine entsprechend gesplitteten Produkte gibt.
Außerdem läßt sich auch die G8x Architktur hervorragend unterteilen.

reunion
2007-04-29, 11:44:24
BTW, wenn man sich die TMUs-Quads in den Blockschaltbildern genau ansieht, sieht man auch, dass dort zwei vierer Blöcke, und ein 16er-Block drinnensteckt. Dazu noch ein langer Balken zum Schluss. Was immer das auch zu bedeuten hat.

san.salvador
2007-04-29, 11:44:28
Was ein Schrott, seit 10 Seiten immer wieder 3dMark Bildchen die nix aussagen und darauf hin wird gesagt die XT kann mit ner GTX mithalten, sicher...
Aber wir werden ja sehen wenn das NDA fällt warum die Karte einen niedrigeren Preis hat.
Na dann bring du halt bessere News.
Was, hast du nicht? Na dann... :rolleyes:

AnarchX
2007-04-29, 11:52:06
BTW, wenn man sich die TMUs-Quads in den Blockschaltbildern genau ansieht, sieht man auch, dass dort zwei vierer Blöcke, und ein 16er-Block drinnensteckt. Was immer das auch zu bedeuten hat.

Vielleicht 16 Point-Samples, damit wäre der Unterschied nicht mehr ganz so krass.

crux2005
2007-04-29, 11:54:30
und wie viele Point Samplers hat der G80 ?

reunion
2007-04-29, 12:01:36
Was die ALUs betrifft: Da ich nicht annehme, dass Ati jede ALU einzeln beliebig hinzufügen oder entfernen kann, und sich sämtliche ALU-Zahlen von R600/RV630/Rv610 durch acht teilen lassen, gehe ich davon aus, dass es nicht wie ursprünglich angenommen wie bei Xenos 16er Blöcke, sondern einfach Achterblöcke sind, und die Blockschaltbilder hier nur etwas verwirren, was die Unterteilung betrifft. Das wäre dann auf jeden Fall schonmal eine feinere Granularität wie bei G80. Nichtsdestotrotz kann man wohl die ALU und die TMU-Anzahl unabhängig voneinander beliebig skalieren, was bei G80 so nicht möglich zu sein scheint.

Nakai
2007-04-29, 12:07:00
Dann sind es 4*(8+8) Blöcke. Das fände ich schon sehr interessant.
Wobei der RV610 nochmal eine Splittung von 4 Shader pro Cluster hat.
Dann wären es sogar 4*(4+4+4+4).

mfg Nakai

reunion
2007-04-29, 12:09:26
Dann sind es 4*(8+8) Blöcke. Das fände ich schon sehr interessant.
Wobei der RV610 nochmal eine Splittung von 4 Shader pro Cluster hat.
Dann wären es sogar 4*(4+4+4+4).

mfg Nakai

Ich glaube, dass das Blockschaltbild hier nur verwirrt, war bei R5xx ganz ähnlich. Es sind bei R600 vermutlich acht Blöcke x acht ALUs, und bei den anderen Chips dann eben weniger Blöcke. Du glaubst doch selbst nicht, dass man bei RV610, bei dem die Leistung fast völlig egal ist, die Granularität erhöht, was einiges an Logik und Ressourcen kosten würde?

Nakai
2007-04-29, 12:11:24
Naja, da könntest du recht haben, jedoch ist das eben nicht bestätigt, deswegen den Launch abwarten.

mfg Nakai

€: Nichtsdestotrotz kann man wohl die ALU und die TMU-Anzahl unabhängig voneinander beliebig skalieren, was bei G80 so nicht möglich zu sein scheint.

Komisch, INQ hat genau dies mal bestätigt.

Gast
2007-04-29, 12:15:02
Glaubst du wirklich, es wird nach dem Launch mehr theoretische Infos geben?
Außer Benches die vielleicht Rückschlüsse auf die Architektur erlauben wird da nichts kommen.