PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: Alles rund um die neue Generation, Teil 5


Seiten : 1 2 [3] 4

deekey777
2007-03-04, 18:06:57
Und RV630 sieht momentan alles andere als nach einem Mainstreamkracher aus.
Definitiv. Ein Ersatz für den RV570 soll erst irgendwann im Spätsommer kommen.
Da wird der G84 es sehr einfach haben, sich durchzusetzen.

Black-Scorpion
2007-03-04, 18:07:21
Das Argument Übernahme durch AMD kannst du vergessen.
Das war eine friedliche Übernahme im beiderseitigen Einvernehmen.
Eine feindliche Übernahme durch AMD wäre wahrscheinlich nie möglich gewesen.

reunion
2007-03-04, 18:14:46
Definitiv. Ein Ersatz für den RV570 soll erst irgendwann im Spätsommer kommen.
Da wird der G84 es sehr einfach haben, sich durchzusetzen.

Target für RV630 ist > X1950pro-Speed, zumindest wurde das mal von VR-Zone behauptet. Es wäre ja auch mehr als peinlich, wenn man mit einem neuen Mainstreamchip nichtmal das Vorgängermodell schlägt, welches man mittlerweile um ~140€ kaufen kann.

crux2005
2007-03-04, 18:23:24
ATi zeigt doch nVidia jedesmal wo der Haser lang läuft? R600 vs G80 geht natürlich an ATi.

jaja :P

Gast
2007-03-04, 18:46:42
jaja :P

Jaja heißt Leck mich am Anus, es sind aber leider Tatsachen. Wieso ist jedes ATi Gegenstück schneller, seit 2002?

dargo
2007-03-04, 18:50:15
Wieso ist jedes ATi Gegenstück schneller, seit 2002?
Bist du dir da sicher? Ich werfe mal einfach die X1600 in den Raum.
Es dreht sich nicht nur alles um High-End.

Gast
2007-03-04, 18:54:50
Jaja heißt Leck mich am Anus, es sind aber leider Tatsachen. Wieso ist jedes ATi Gegenstück schneller, seit 2002?

Weil ATI einfach mehr bescheißt bei der Bildqualität, das nennt sich A.I.

Gast
2007-03-04, 18:55:10
Ich meinte damit aber nur die HighEnd Karten. Mal abgesehen von den GX2 stimmt die Aussage aber!

Gast
2007-03-04, 18:56:20
Weil ATI einfach mehr bescheißt bei der Bildqualität, das nennt sich A.I.

Ja aber sicher doch, deswegen flimmerten NV40, G70 Karten auch so extrem, dagegen waren die ATis doch viel angenehmer.

dargo
2007-03-04, 18:57:50
Ich meinte damit aber nur die HighEnd Karten. Mal abgesehen von den GX2 stimmt die Aussage aber!
Bei High-End sehe ich es genauso wie du.

Gast
2007-03-04, 18:58:03
ATi ist die bessere Chipschmiede, mit einer ATi Karte hast du längere Zeit mehr fps, man muss sich nur mal R580 vs G71 ansehen, eine X1900XT zieht einer teuren 7900GTX auf und davon in neueren Games. Das war in der Vergangenheit auch so!

Abgesehen davon, dass ATi nicht mehr als eigenständige Firma existiert, hat der r580 deutliche Nachteile gegenüber dem G71.
Lautstärke, Wärmeentwicklung und Stromverbrauch sowie fehlende Hybrid - AA - Modie.

dargo
2007-03-04, 19:01:51
Abgesehen davon, dass ATi nicht mehr als eigenständige Firma existiert, hat der r580 deutliche Nachteile gegenüber dem G71.
Lautstärke, Wärmeentwicklung und Stromverbrauch sowie fehlende Hybrid - AA - Modie.
Ja und der G71 ist sooo perfekt. ;D
Da hätten wir miese BQ, unterdurchschnittliche Performance in einigen neueren Games. Und viel Spass mit SSAA in graka-limitierten Games. ;)

PS: wenn der Stromverbrauch so ein deutlicher Nachteil beim R580 ist warum kaufen dann so viele Leute einen G80? :D

Gouvernator
2007-03-04, 19:05:18
Lautstärke, Wärmeentwicklung und Stromverbrauch sowie fehlende Hybrid - AA - Modie.
Meinst du das wird bei r600 so bleiben?

Lautstärke,Wärmeentwicklung--> Wakü
Stromverbrauch --> naja, wenn man Leistung will geht kein Weg dran vorbei.
fehlende Hybrid - AA - Modie --> gg^^ Was du mit 6xAAA+ASBT erreichst steckt jeden HybridModus in die Tasche, kein Bedarf.

Gast
2007-03-04, 19:08:38
Ja und der G71 ist sooo perfekt. ;D


Aus wirtschaftlicher Sicht ist er es imo:
-alle nötigen Features an Board, welche die Mehrzahl der Kunden fordern
-niedriger Stromverbrauch -> geringen Anforderungen an PCB und Kühlung, NB-Einsatz = einfach
-fast nur halb so groß wie die HighEnd-GPU des Konkurrenten
-gute Skalierbarkeit

Summa sumarum eine der besten HighEnd-GPUs die NV je hatte, wohl gemerkt aus wirtschaftlicher Sicht, was sich auch an den Verkaufszahlen bestätigt.

dargo
2007-03-04, 19:15:22
Summa sumarum eine der besten HighEnd-GPUs die NV je hatte, wohl gemerkt aus wirtschaftlicher Sicht, was sich auch an den Verkaufszahlen bestätigt.
Ja, nur die Wirtschaftlichkeit interessiert den Kunden nicht. Es sei denn, die Karte kann deutlich billiger angeboten werden.
Nach deiner Theorie hat NV aber mit dem G80 den größten Bock geschossen (aus wirtschaftlicher Sicht ;)).

Gast
2007-03-04, 19:16:06
R580 vs G71 geht so endeutig an ATi, darüber sollte man doch gar nicht weiter reden. Hier im 3Dcenter sehen es ja auch die Mehrheit der User so, die X1900 Serie ist ein gelungener Wurf, einige Abzüge in der B-Note, was Lautstärke und Verbrauch angeht. Aber die wirklich wichtigen Sachen, das ist die X1900 Serie vorne.

Gast
2007-03-04, 19:17:58
Ja und der G71 ist sooo perfekt. ;D
Da hätten wir miese BQ, unterdurchschnittliche Performance in einigen neueren Games. Und viel Spass mit SSAA in graka-limitierten Games. ;)

Schreib dich nicht ab und lern Lesen...


PS: wenn der Stromverbrauch so ein deutlicher Nachteil beim R580 ist warum kaufen dann so viele Leute einen G80? :D

Weil viele Leute eben nicht so wie du sind und ihre Meinung anhand von Firmen ausrichten.
Die 8800GTX ist im Schnitt 80% schneller als eine X1950XTX, verbraucht im 3D Modus jedoch kaum mehr Strom. Und da es den r600 noch nicht gibt, ist der Stromverbrauch des G80 weder gut noch schlecht.

Nakai
2007-03-04, 19:18:42
unterdurchschnittliche Performance in einigen neueren Games.

Jo selbst eine X1950PRO deklassiert in Sachen Performance schon fast eine 7900GTX und das mit einem beachtlichen Preisunterschied.

Wie schnell der R600 werden muss, ist eh schon klar.
Er muss sehr viel schneller werden.

mfg Nakai

Gast
2007-03-04, 19:23:19
PS: wenn der Stromverbrauch so ein deutlicher Nachteil beim R580 ist warum kaufen dann so viele Leute einen G80? :D

Weil man hier von Anfang an, wusste den Stromverbrauch leise zu kühlen.
Man hört einer 8800er Karte halt den erhöhten Stromverbrauch nicht an, wie z.B. der X1900XT. ;)

Das wird nun hoffentlich auch beim R600 so sein und nicht erst mit der X2950XT(X)...


Nach deiner Theorie hat NV aber mit dem G80 den größten Bock geschossen (aus wirtschaftlicher Sicht ;)).

Soviel verdienen wie mit der 7900er-Serie tut man sicherlich nicht mit dem G80, aber man kann es sich halt leisten, da man mit ihm die erste D3D10-Karte am Markt hat, die zudem gute 7 Monate konkurrelnzlos ist.

@R5xx deutlich schneller als G7x:
Ja, dies ist definitiv in aktuellen Titeln der Fall.
Aber es nützt nicht unbedingt etwas, da der wichtigste Eindruck stets beim Launch gemacht wird und der heißt bedauerlicherweise: X1900XT = 7900GTX.

dargo
2007-03-04, 19:26:08
Weil viele Leute eben nicht so wie du sind und ihre Meinung anhand von Firmen ausrichten.

Wenn du wüßtest. :D
Zu 50% wird meine nächste Graka ein G80. ;)


Die 8800GTX ist im Schnitt 80% schneller als eine X1950XTX, verbraucht im 3D Modus jedoch kaum mehr Strom.
Ja, genau. Und wenn die G12800GTX 4x so schnell ist wie die G8800GTX dann darf die auch ruhig mal 400W bei Last und 250W in Idle verbrauchen. Ganz grosses Kino. :uclap:

Gast
2007-03-04, 19:29:07
Nach deiner Theorie hat NV aber mit dem G80 den größten Bock geschossen (aus wirtschaftlicher Sicht ;)).

Wo keine Konkurrenz, da kein Preisdruck.
nVidia wird deutlich mehr am G80 verdienen als AMD an seinem r600.

dargo
2007-03-04, 19:33:35
Wo keine Konkurrenz, da kein Preisdruck.
nVidia wird deutlich mehr am G80 verdienen als AMD an seinem r600.
Damit hast du natürlich vollkommen recht. Das ist nunmal so wenn ein Produkt deutlich früher erscheint.

Gast
2007-03-04, 19:37:12
Jo selbst eine X1950PRO deklassiert in Sachen Performance schon fast eine 7900GTX und das mit einem beachtlichen Preisunterschied.


mfg Nakai
Bei XBox 360 Portierungen kann das unter Umständen der Fall sein.

dargo
2007-03-04, 19:39:31
Bei XBox 360 Portierungen kann das unter Umständen der Fall sein.
Das hat mit der Xbox 360 nichts zu tun. Oder warum performt der G80 eben in diesen Games so gut?

Nakai
2007-03-04, 19:41:49
Was hat das damit zu tun?

Nur zu Info, der Xenos hat nicht viel mit dem RV570 gemeinsam.^^

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/8/#abschnitt_anno_1701

Das ist ja eine tolle Xbox-Portierung^^

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/14/#abschnitt_gothic_3

Ebenso wie diese.

:confused:

mfg Nakai

Gast
2007-03-04, 20:50:24
Ich glaube zudem, daß sich die Treiberabteilung bei NV seit dem Erscheinen des G80 auf diesen konzentriert, um die Bugs zu entfernen und die Performance zu optimieren. Da bleiben nicht die Resourcen frei, um die Treiber auch noch für G71 zu optimieren. Es sind nämlich ausschließlich nur neuere Spiele, wo der G71 so an Boden auf den R580 verliert.

Gast
2007-03-04, 20:57:28
Und von den Ati-Linuxtreibern wollen wir hier mal nicht reden ;).

dargo
2007-03-04, 21:01:54
Und von den Ati-Linuxtreibern wollen wir hier mal nicht reden ;).
LOL. Wir reden hier über den G71 und R580 und du kommst mit Linux. :|
Es laufen auch so viele Games unter Linux. :D

R300
2007-03-04, 21:07:57
Eigentlich sollte es hier nur um den R600 gehen und nicht R580 vs G71:|

deekey777
2007-03-04, 21:10:42
Wo keine Konkurrenz, da kein Preisdruck.
nVidia wird deutlich mehr am G80 verdienen als AMD an seinem r600.
Ich glaube kaum, dass nVidia am G80 viel verdient. Man darf nicht vergessen, dass der G80 in 90 nm gefertigt wird und das dazu gehörige PCB teuer ist.
Eigentlich sollte es hier nur um den R600 gehen und nicht R580 vs G71:|
Word.

Gast
2007-03-04, 21:26:18
Ich glaube kaum, dass nVidia am G80 viel verdient. Man darf nicht vergessen, dass der G80 in 90 nm gefertigt wird und das dazu gehörige PCB teuer ist.




zumindest genug um ihn auch als 8800GTS-320 relativ günstig verkaufen zu können, die speicherersparnis bringt bestimmt nicht viel bei den herstellungskosten (immerhin hat ja auch das GTS-PCB das volle 384bit-interface)

Ailuros
2007-03-04, 21:28:51
High end D3D10: Gewinner= NVIDIA (bei 6 Monaten Vorsprung errrr....)
Mainstream D3D10: Gewinner= NVIDIA (?)
Low end D3D10: Gewinner= ATI (wenn die 65nm yields in der Zwischenzeit auch anstaendiger werden).

***edit: ganz so nebenbei was die Entwicklung fuer 65nm laeuft alles bis jetzt nach Plan nach den neuesten Geruechten; die yields sind momentan eben noch etwas schlecht.

Nakai
2007-03-04, 21:30:21
High end D3D10: Gewinner= NVIDIA (bei 6 Monaten Vorsprung errrr....)
Mainstream D3D10: Gewinner= NVIDIA (?)
Low end D3D10: Gewinner= ATI (wenn die 65nm yields in der Zwischenzeit auch anstaendiger werden).

Vll wird der R600 schneller als du denkst?
Doch ist NV nicht untätig, man siehe es an der Geforce 8800Ultra.

mfg Nakai

Ailuros
2007-03-04, 21:37:34
Vll wird der R600 schneller als du denkst?
Doch ist NV nicht untätig, man siehe es an der Geforce 8800Ultra.

mfg Nakai

Eine Firma wie NVIDIA oder ATI interessieren mehr die Verkaufszahlen bzw. Umsatz als die Leistungskrone in jedem Segment. Das erste ist das eigentliche Ziel und das zweite nur das Mittel.

Wieviel mehr Leistung wird denn Deiner Meinung nach eine "Ultra" liefern gegenueber einer GTX?

dargo
2007-03-04, 21:40:45
Eine Firma wie NVIDIA oder ATI interessieren mehr die Verkaufszahlen bzw. Umsatz als die Leistungskrone in jedem Segment. Das erste ist das eigentliche Ziel und das zweite nur das Mittel.

Dann frage ich mich warum AMD/ATI den R600 nicht jetzt schon rausrückt?
Auch wenn er langsamer/gleich schnell sein sollte.


Wieviel mehr Leistung wird denn Deiner Meinung nach eine "Ultra" liefern gegenueber einer GTX?
Ich würde schätzen max. 15-20%. :)

K4mPFwUr$t
2007-03-04, 21:43:51
Dann frage ich mich warum AMD/ATI den R600 nicht jetzt schon rausrückt?
Auch wenn er langsamer/gleich schnell sein sollte.
meine ich auch und die yield wird wohl kaum sprunghaft verbessert in den paar wochen.

Wieviel mehr Leistung wird denn Deiner Meinung nach eine "Ultra" liefern gegenueber einer GTX?
mein tipp liegt bei der leistungsdiferenz von der 7800GTX zur 7800GTX 512 ;)

Nakai
2007-03-04, 21:50:58
Wieviel mehr Leistung wird denn Deiner Meinung nach eine "Ultra" liefern gegenueber einer GTX?

Maximal 700Mhz Coretakt wie die Geforce 8800GTX, ansonsten alles gleich.
Dann wird der Shadertakt auf maximal 1600Mhz hochgejagt und der Speichertakt erhöht. Maximal 1,5 Gb Speicherausbau, wobei es keinen wirklichen Grund dafür gibt.

mfg Nakai

dargo
2007-03-04, 21:54:42
Maximal 1,5 Gb Speicherausbau, wobei es keinen wirklichen Grund dafür gibt.

Also das wird imho nicht passieren. Wie denn auch?
Oder gibts schon 128MB Speicherchips?

Eigentlich sollte es hier nur um den R600 gehen und nicht R580 vs G71:|
Dann nimm von mir aus den R600 oder G80. :)
Ich frage mich gerade was man mit einem solchen Monster unter Linux will?

Nakai
2007-03-04, 22:02:51
Wieso denn nicht auch hinten anstatt nur vorne.^^;)

mfg Nakai

dargo
2007-03-04, 22:06:27
Wieso denn nicht auch hinten anstatt nur vorne.^^;)

Ein PCB für 24 Speicherchips? X-D
Ist das nicht ein bissel teuer, wenn nicht sogar unmöglich bei gleicher PCB Länge?

AnarchX
2007-03-04, 22:14:21
Ein PCB für 24 Speicherchips? X-D
Das richtige AMD FireStream PCB wird wohl sogar mit 32 daherkommen, wenn man wie schon mal angekündigt bis 4GB anbieten will. ;)

Vielleicht nutzt ja die 8800Ultra das PCB dieser Karte:
NVIDIA_G80.DEV_019E.1 = "NVIDIA Quadro FX 4600"

Da man auf der aktuellen G71 Quadro FX bis 1GB bieten, wären hier 768MB ja ein Rückschritt, wobei die QFX 4600 auch nur der Nachfolger der QFX 4500 mit 512MB sein könnte und der Nachfolger der QFX 5500 kommt vielleicht erst mit dem G90.

dargo
2007-03-04, 22:17:49
Das richtige AMD FireStream PCB wird wohl sogar mit 32 daherkommen, wenn man wie schon mal angekündigt bis 4GB anbieten will. ;)

Diese Karten kosten aber auch um die 2000€ und keine 599$. ;)

Ailuros
2007-03-04, 22:44:37
Maximal 700Mhz Coretakt wie die Geforce 8800GTX, ansonsten alles gleich.
Dann wird der Shadertakt auf maximal 1600Mhz hochgejagt und der Speichertakt erhöht. Maximal 1,5 Gb Speicherausbau, wobei es keinen wirklichen Grund dafür gibt.

mfg Nakai

Schoen; und jetzt lies nochmal nach wie auch andere einen solchen "Refresh" im Vergleich zur GTX einschaetzen. Falls das Zeug stimmen sollte, dann ist es lediglich eine Wiederholung des GTX512 Bloedsinns und diese war ja nicht sooo viel schneller als die GTX256.

Ich hab erst vorgestern wieder mit zwei hochrangigen Kerlen von NV geplaudert und der einzige Punkt wo sie "unruhig" erscheinen hab ich schon erwaehnt. Genaues haben sie natuerlich nicht gesagt, ich weiss eben nur rein "zufaellig" dass ein 20% kleinerer die genug Grund zur Unruhe ist.

Gmax
2007-03-04, 23:33:37
Ich hab erst vorgestern wieder mit zwei hochrangigen Kerlen von NV geplaudert und der einzige Punkt wo sie "unruhig" erscheinen hab ich schon erwaehnt. Genaues haben sie natuerlich nicht gesagt, ich weiss eben nur rein "zufaellig" dass ein 20% kleinerer die genug Grund zur Unruhe ist.

Hört sich gut an :) Ich frage mich nur, woher ATIs ärgste Konkurenten so gut bescheid wissen...
Andererseits, das haben sich doch alle vom R600 erhofft.

deekey777
2007-03-04, 23:41:16
Hört sich gut an :) Ich frage mich nur, woher ATIs ärgste Konkurenten so gut bescheid wissen...
Andererseits, das haben sich doch alle vom R600 erhofft.
Du hast doch die Bilder des R600 gesehen? Wie groß ist der R600-Die? Wei das jemand noch?
Oder waren das nur Fakes?:uponder:
Bei B3D gibt's einen Blogeintrag (http://www.beyond3d.com/forum/showpost.php?p=940689&postcount=279) zu lesen:
Given the state of the NV drivers for the G80 and that ATI hasn’t released their hw yet; it’s hard to see how this is really a bad plan. We really want to see final ATI hw and production quality NV and ATI drivers before we ship our DX10 support. Early tests on ATI hw show their geometry shader unit is much more performant than the GS unit on the NV hw. That could influence our feature plan.
Ist doch alles USA.

LovesuckZ
2007-03-04, 23:44:17
Schoen; und jetzt lies nochmal nach wie auch andere einen solchen "Refresh" im Vergleich zur GTX einschaetzen. Falls das Zeug stimmen sollte, dann ist es lediglich eine Wiederholung des GTX512 Bloedsinns und diese war ja nicht sooo viel schneller als die GTX256.


25% für eine Karte, welche ca. 4 Monate später erschienen ist, ist vollkommen in Ordnung.
Wer weiß, ob der r600 überhaupt auf diesen Wert bei Computerbase.de kommt.

Ailuros
2007-03-04, 23:51:31
Hört sich gut an :) Ich frage mich nur, woher ATIs ärgste Konkurenten so gut bescheid wissen...

Es gibt viele Wege solche Infos zu erreichen.

Andererseits, das haben sich doch alle vom R600 erhofft.

Ich hab mich oben auf budget GPUs bezogen.

Hauwech
2007-03-05, 00:02:18
Hmm also wenn ich Ailuros' Posting bzgl der Gewinner/Verlierer bei den einzelnen Segmenten so sehe, scheint der Yield bei den ganz kleinen Chips noch nicht soooooo gut zu sein. Allerdings, wenn die Nvidia Leute da recht nervös werden, scheint bei AMD da doch recht schnell Besserung in Sicht zu sein, oder nicht?

horn 12
2007-03-05, 00:10:54
Langsam kristallisiert sich nun heraus, dass der R600 dennoch viel viel besser wird, als sich dies hier einige nur erhofft hatten. Da könnten die ca. 50% der XTX von Flagship (forumdeluxx-Forum) nun doch wieder zutreffen, was nicht verwunderlich wäre. Nun wird NV langsam unter Druck geraten, wenn dann auch noch die A/A Preise passen würden..... Hoffen wirs mal stark!:smile:

Ailuros
2007-03-05, 00:12:43
Hmm also wenn ich Ailuros' Posting bzgl der Gewinner/Verlierer bei den einzelnen Segmenten so sehe, scheint der Yield bei den ganz kleinen Chips noch nicht soooooo gut zu sein. Allerdings, wenn die Nvidia Leute da recht nervös werden, scheint bei AMD da doch recht schnell Besserung in Sicht zu sein, oder nicht?

NV weiss eben schon dass die Chancen fuer ATI im entry level besser sein koennten, wenn sich die 65nm yields auch zeitlich genug verbessern.

Es erwartet auch wohl keiner dass es ueberall nur einen Gewinner geben wird. Man gewinnt hier und verliert eben woanders. Nervoes wuerde ich nicht sagen; eher auf gewisse Realitaeten vorbeiretet.

Ailuros
2007-03-05, 00:15:19
Langsam kristallisiert sich nun heraus, dass der R600 dennoch viel viel besser wird, als sich dies hier einige nur erhofft hatten. Da könnten die ca. 50% der XTX von Flagship (forumdeluxx-Forum) nun doch wieder zutreffen, was nicht verwunderlich wäre. Nun wird NV langsam unter Druck geraten, wenn dann auch noch die A/A Preise passen würden..... Hoffen wirs mal stark!:smile:

Zu viel Selbstsicherheit und zu hohe Hoffnungen koennen leicht zu Enttaeuschungen fuehren. Zwischen dem gezielten PR-Material und Echtzeitleistung in Spielen gibt es schon einen Unterschied.

Hauwech
2007-03-05, 00:27:36
NV weiss eben schon dass die Chancen fuer ATI im entry level besser sein koennten, wenn sich die 65nm yields auch zeitlich genug verbessern.

Es erwartet auch wohl keiner dass es ueberall nur einen Gewinner geben wird. Man gewinnt hier und verliert eben woanders. Nervoes wuerde ich nicht sagen; eher auf gewisse Realitaeten vorbeiretet.

Da wird Nvidia wohl beten, dass die Yields noch einige Zeit nicht so gut aussehen. Gerade der Entry Level Markt ist ja nicht gerade eine kleine Milchkuh die gemolken werden will.

Würde gerne mal wissen ob Nvidia die kleineren Karten jetzt einfach zu spät in den Markt drückt oder ob es vorher einfach nicht geklappt hat.

Ailuros
2007-03-05, 00:37:42
Da wird Nvidia wohl beten, dass die Yields noch einige Zeit nicht so gut aussehen. Gerade der Entry Level Markt ist ja nicht gerade eine kleine Milchkuh die gemolken werden will.

Würde gerne mal wissen ob Nvidia die kleineren Karten jetzt einfach zu spät in den Markt drückt oder ob es vorher einfach nicht geklappt hat.

Das dumme ist dass sie selber 65nm fuer H2 absolut brauchen LOL. Ergo wuerde ich mir so was an der Stelle von NV erst gar nicht wuenschen.

G72 war auch um ca. 20% kleiner als RV515, machte aber trotzdem fuer NV keinen besonderen Unterschied.

80nm hat immer noch so seine "Wehwehchen", sonst haette NV ihr midrange/budget Zeug schon bei Cebit vorgestellt. Es laeuft eben fast gar nichts mehr heutzutage nach Plan und davon sind beide IHVs befallen.

Gmax
2007-03-05, 00:52:12
Das dumme ist dass sie selber 65nm fuer H2 absolut brauchen LOL. Ergo wuerde ich mir so was an der Stelle von NV erst gar nicht wuenschen.

G72 war auch um ca. 20% kleiner als RV515, machte aber trotzdem fuer NV keinen besonderen Unterschied.

80nm hat immer noch so seine "Wehwehchen", sonst haette NV ihr midrange/budget Zeug schon bei Cebit vorgestellt. Es laeuft eben fast gar nichts mehr heutzutage nach Plan und davon sind beide IHVs befallen.

Profitiert nV denn nicht von Atis Vorarbeit in Sachen 65nm?
Der Hersteller ist doch derselbe, oder?

Du hast doch die Bilder des R600 gesehen? Wie groß ist der R600-Die? Wei das jemand noch?
Oder waren das nur Fakes?:uponder:
Bei B3D gibt's einen Blogeintrag (http://www.beyond3d.com/forum/showpost.php?p=940689&postcount=279) zu lesen:

Ist doch alles USA.

Ja, habe ich :) Aber soweit ich mich erinnern kann (ich liege gerne falsch) sah man den DIE nicht in Relation zur Größe der Platine. D.h. die tatsächliche Größe des Chips ist doch somit relativ schwer einzuschätzen.

Gast
2007-03-05, 01:31:52
Ich denke auch, das Hauptproblem bezieht sich aufschließlich auf den Fertigungsprozess oder GDDR4.

Da macht etwas warten, schon einiges aus. Die in 80nm gefertigen X1950 Chips sind bisher auch kein Burner, sie ziehen kaum weniger Strom und lassen sich auch nicht wirklich besser takten.

Sollte dies ebenso auf den R600 zutreffen, so verwundert es nicht, das er verschoben wurde, weil die Ausbeute vielleicht noch zu gering ist.

Gouvernator
2007-03-05, 01:45:35
Da macht etwas warten, schon einiges aus. Die in 80nm gefertigen X1950 Chips sind bisher auch kein Burner, sie ziehen kaum weniger Strom und lassen sich auch nicht wirklich besser takten.
Auf solche Chips wird nicht viel Wert gelegt, deshalb lassen sie sich nicht gut übertakten. Für einen Highend Chip der für alle mögliche Freuquenzen ausgelegt wird trifft der Vergleich zu r600 gar nicht zu. Mein r580 brauch einbisschen Spannung und gute Kühlung um die GPU auf 770mhz zu bringen.

Gast
2007-03-05, 01:52:43
Wenn auf solche Chips nicht so viel wert gelegt wird, dann sollten sie aber auch etwas weniger Strom verbrauchen als die Vorgänger... aber selbst das ist kaum zu sehen. Das könnte hier ein Problem der Leckströme sein, die sie noch nicht im griff haben?

Gouvernator
2007-03-05, 01:55:49
Kennst du das Minimalprinzip? Das soll dich bei diesen Chips nicht wundern.

Gast
2007-03-05, 02:04:04
Das Minimalprinzip wird selten angewandt, wenn es Produkte sind, die einen großen Umsatz ausmachen. Denn unzufriedene Kunden kaufen nichts. Daher sollte es ATI sehr daran gelegen sein, überzeugende Produkte zu liefern... sei es nun ein leiser Kühler, wenig Stromverbrauch oder eine gute Leistung.

Gouvernator
2007-03-05, 02:08:38
Es zählt im highend nur die Leistung. Bezüglich des Kühlers mache ich überhaupt keine Gedanken, da zwei rechte Hände vorhanden sind und ein Kopf.

Gast
2007-03-05, 02:21:03
Ich red ja auch nicht vom High End, sondern vom bisherigen (schlechten) 80nm Prozess, der vielleicht ein Grund der Verzögerung sein könnte.

Ailuros
2007-03-05, 05:48:50
Profitiert nV denn nicht von Atis Vorarbeit in Sachen 65nm?
Der Hersteller ist doch derselbe, oder?

Ein G7x@65nm hat NV selber schon in der Mache.

Ailuros
2007-03-05, 05:49:45
Ich red ja auch nicht vom High End, sondern vom bisherigen (schlechten) 80nm Prozess, der vielleicht ein Grund der Verzögerung sein könnte.

Es war eins der Gruende fuer 2006, aber nicht die letzte Verzoegerung.

PCGH_Carsten
2007-03-05, 09:51:14
Du hast doch die Bilder des R600 gesehen? Wie groß ist der R600-Die? Wei das jemand noch?
Oder waren das nur Fakes?:uponder:
Bei B3D gibt's einen Blogeintrag (http://www.beyond3d.com/forum/showpost.php?p=940689&postcount=279) zu lesen:

Ist doch alles USA.

Du kannst auch eine USA schön ausbremsen/beschleunigen, beispielsweise durch Register- oder Cachegrößen/-geschwindigkeiten.

edit:
Zur 8800 "Ultra": Wenn es da nicht eine Verbesserung der Fertigung inkl. Spannungsabsenkung gibt, sehe ich da wenig Chancen für. Der Kühler läuft auch so schon am dicht am Limit.


Zur vorherigen Diskussion noch kurz:
"X1950 Pro deutlich schneller als 7900 GTX" -> Meint ihr wirklich, es hilft, sich Rosinen in der einen oder anderen Richtung herauszupicken?

AnarchX
2007-03-05, 11:32:15
R600XTX OEM Prototyp + X6800@3.8GHZ

3DMark06 1600x1200 -> 10234

Imo klingt dies gar nicht mal so unrealistisch...;)

micki
2007-03-05, 11:39:19
NV und ATI waeren echt hyperdaemlich wenn sie es treibermaessig zuliessen nen 3dmark durchlaufen zu lassen bevor die karten offiziel raus sind.

Gast
2007-03-05, 12:30:20
Imo klingt dies gar nicht mal so unrealistisch...;)

auf diesen wert kommt die 8800gtx aber auch ... wäre für den r600 zu wenig

Gast
2007-03-05, 12:35:15
Imo klingt dies gar nicht mal so unrealistisch...;)

Quelle?

AnarchX
2007-03-05, 12:40:14
auf diesen wert kommt die 8800gtx aber auch ... wäre für den r600 zu wenig
Dafür wird ja ATi auch nochmal kräftig am Treiber arbeiten und ich denke die finalen Taktraten werden auch höher ausfallen als bei den Prototypen.


Quelle?
Asien... ;)

Gast
2007-03-05, 12:44:39
Nvidia hat ja auch noch immer beta treiber ... und ein deaktiviertes mul .... hoffe das schalten sie mit einem neuen final treiber mal frei

PCGH_Carsten
2007-03-05, 13:23:39
Nvidia hat ja auch noch immer beta treiber ... und ein deaktiviertes mul .... hoffe das schalten sie mit einem neuen final treiber mal frei
Wieso deaktiviert? Es läuft doch - nur eben nicht allein.

Aber wenigstens haben sie unter Vista schonmal ordentlich zugelegt.

Nakai
2007-03-05, 15:04:10
Und wie groß ist denn die Chance dass es aktiviert wird?

mfg Nakai

micki
2007-03-05, 15:17:38
Und wie groß ist denn die Chance dass es aktiviert wird?das koennte dir nur jemand sagen der auch weiss weshalb es nicht unbenutzung ist, und public weiss das niemand ;)

AnarchX
2007-03-05, 15:18:19
Sehr groß.
Warum sollte man es auch nicht?

Langsam sollte doch bewusst sein, dass NV bisher nicht viel an den Treibern getan hat um wohl ATi es bei der Einschätzung es G80 schwer zu machen.

AnarchX
2007-03-05, 15:33:50
Hier noch etwas FUD von Fuad:

R600 performance questionable - Was not enough to beat G80 - today (http://www.fudzilla.com/index.php?option=com_content&task=view&id=68&Itemid=1)

R600 GDDR4 board postponed - That's what caused the delay (http://www.fudzilla.com/index.php?option=com_content&task=view&id=65&Itemid=1)

Also wird die Launchkarte nur die X2900XT mit 512MB GDDR3 sein? :|

reunion
2007-03-05, 15:47:12
Sehr groß.
Warum sollte man es auch nicht?

Langsam sollte doch bewusst sein, dass NV bisher nicht viel an den Treibern getan hat um wohl ATi es bei der Einschätzung es G80 schwer zu machen.

Es ist schon von Anfang an aktiv, auch wenn sich manche weigern, das einzusehen. Nur kann es eben nicht für general shading verwendet werden, und vielleicht ist das auch eine bewusste Designentscheidung, denn in den CUDA-Dokumenten taucht dieses mysteriöse MUL im Gegensatz zu den Marketingdokumenten jedenfalls nicht auf.

Also wird die Launchkarte nur die X2900XT mit 512MB GDDR3 sein? :|

Das ist ungefähr so wahrscheinlich wie das morgen die Sonne nicht mehr aufgeht. Wenn schon, dann kommt nur die XTX, denn diese Karte muss die Benchs gewinnen, und das dümmste was man tun könnte, wäre ausgerechnet auf dieses Prestigeobjekt beim großen Launch zu verzichten.

Zur vorherigen Diskussion noch kurz:
"X1950 Pro deutlich schneller als 7900 GTX" -> Meint ihr wirklich, es hilft, sich Rosinen in der einen oder anderen Richtung herauszupicken?

Wenn ich mal dezent auf das neueste Leistungsrating von CB hinweisen dürfte: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/24/#abschnitt_performancerating_qualitaet

Im Schnitt aller hier getesteten Spielen liegt die X1950pro nur minimal hinter einer 7900GTX, und das auch nur, weil dort noch immer Uraltspiele wie "The Chronicles of Riddick" und "Doom 3" getestet werden. Deutlich schneller ist sicherlich übertrieben, aber ebenbürtig kann man IMHO durchaus gelten lassen.

DrumDub
2007-03-05, 15:59:25
Also wird die Launchkarte nur die X2900XT mit 512MB GDDR3 sein? :| eben nicht. wegen der probleme mit der xtx (mit gddr4) wurde der launch ja auf mitte mai verschoben.

AnarchX
2007-03-05, 16:00:59
eben nicht. wegen der probleme mit der xtx (mit gddr4) wurde der launch ja auf mitte mai verschoben.

Aber der Launch soll ja Anfang Mai sein... ;)
Wobei ich aber auch eher an die X2900XTX als Launchkarte glaube.

Hauwech
2007-03-05, 16:05:20
Eine Vorstellung der XTX Anfang Mai, Benches, und ein extra Hinweis auf Kaufbarkeit ab Mitte Mai sollte eigentlich kein Problem darstellen. Die zwei bis drei Wochen länger machen den Kohl dann auch nicht mehr fett.

Edit: Stimmen die angenommenen +15-20% von der 89er ggü der 88er, muss ATI da imho noch einige mehr %e vorlegen um nicht mit der Verzögerung wirklich peinlich dazustehen. Laut Fuad soll es mit der Performance des R600 ja nicht sooo rosig aussehen. Mal gespannt ob irgendwann Zahlen durchsickern, wieviele G80 Chips Nvidia zusätzlich zu den schon bekannten knapp 400.000 bis zum R600 Launch absetzen konnte.

DrumDub
2007-03-05, 16:05:51
Aber der Launch soll ja Anfang Mai sein... ;)
Wobei ich aber auch eher an die X2900XTX als Launchkarte glaube. ob jetzt anfang oder mitte mai ist mittlerweile auch egal. so wie ich fuad verstehe, könnte man die xt mit gddr3 schon im april ausliefern, wartet aber anfang/mitte mai, um die xtx mit gddr4 in ausreichenden stückzahlen ausliefern zu können.

PCGH_Carsten
2007-03-05, 16:09:30
Es ist schon von Anfang an aktiv, auch wenn sich manche weigern, das einzusehen. Nur kann es eben nicht für general shading verwendet werden, und vielleicht ist das auch eine bewusste Designentscheidung, denn in den CUDA-Dokumenten taucht dieses mysteriöse MUL im Gegensatz zu den Marketingdokumenten jedenfalls nicht auf.
CUDA beschäftigt sich mit GP-GPU-Sachen. Im GP-Bereich wird i.d.R. sowieso nur MADD/FMAC als Maß für die Rechenleistung angesehen.

Bis auf ein Diagram - welches die ~345 GFLOPs des G80 illustriert - taucht allerdings auch "das MADD", also die 128 MADD nicht im Programming-Guide auf.

Hvoralek
2007-03-05, 17:31:10
Das ist ungefähr so wahrscheinlich wie das morgen die Sonne nicht mehr aufgeht. Wenn schon, dann kommt nur die XTX, denn diese Karte muss die Benchs gewinnen, und das dümmste was man tun könnte, wäre ausgerechnet auf dieses Prestigeobjekt beim großen Launch zu verzichten.Es könnte auch sein, dass alle Modelle gleichzeitig vorgestellt werden, die XTX aber erst später verfügbar ist. Ähnlich wie bei R520. Ich sehe die letzte Verspätung aber auch eher als Hinweis, dass man einen Hardlaunch mit allen Modellen erreichen möchte.

Langsam kristallisiert sich nun heraus, dass der R600 dennoch viel viel besser wird, als sich dies hier einige nur erhofft hatten. Da könnten die ca. 50% der XTX von Flagship (forumdeluxx-Forum) nun doch wieder zutreffen, was nicht verwunderlich wäre. Nun wird NV langsam unter Druck geraten, wenn dann auch noch die A/A Preise passen würden..... Hoffen wirs mal stark!:smile:Gibt es irgendetwas Konkretes, was zu dieser Erkenntnis geführt hat (Wenn, dann bitte Link) oder ist das wieder Dein übliches Allwissen, dass ATI Gott ist? :rolleyes:

K4mPFwUr$t
2007-03-05, 17:36:31
@horn12
bitte glaube nicht diesem spinner von flagship. oder würdest jedem daher gelaufenen glauben das dich gleich ein LKW überfährt?
zumal bitte was kristalisiert sich um den R600? uns ist nach wie vor wenig bzw. angesichts des umfanges garnichts bekannt.
alle bisherigen angaben sind entweder veraltet, fake oder einfach nur fantasie werte.

und nV wird solange nicht unter druck gesetzt bis es eine breit verfügbare masse an R600 karten gibt für den kunden. ein papiertiger dessen werte fast unbekannt sind, als druckmittel zu nehmen finde ich so ziemlich das albernste was es gibt.

horn 12
2007-03-05, 20:27:58
@All

Wird zur Cebit das Geheimnis zum R600 etwas gelüftet oder wird A/A standhaft bleiben bis Anfang Mai/ und wir werden zur Cebit nichts erfahren.

Demirug
2007-03-05, 20:48:48
Es ist schon von Anfang an aktiv, auch wenn sich manche weigern, das einzusehen. Nur kann es eben nicht für general shading verwendet werden, und vielleicht ist das auch eine bewusste Designentscheidung, denn in den CUDA-Dokumenten taucht dieses mysteriöse MUL im Gegensatz zu den Marketingdokumenten jedenfalls nicht auf.

Dafür gibt es in der OpenGL Dokumentation eine Unterscheidung zwischen 24 und 32 Bit integer. Daraus könnte man Schlussfolgern das es tatsächlich zwei ALUs/FPUs mit unterschiedlichen Fähigkeiten gibt. Das CUDA davon nichts sieht könnte daran liegen das die zweite ALU/FPU für GPGPU nicht genau genug ist.

Gast
2007-03-05, 20:52:34
Die wäre dann ja maximal für DX8-style-Shader nutzbar, wenn kein FP?

AnarchX
2007-03-05, 21:03:14
@All

Wird zur Cebit das Geheimnis zum R600 etwas gelüftet oder wird A/A standhaft bleiben bis Anfang Mai/ und wir werden zur Cebit nichts erfahren.

Wohl kaum, da dies mit einem Launch gleichzusetzen wäre. ;)
Wenn du gute Kontakte hast, dann wirst du aber sicherlich auf der CeBIT hinter verschlossenen Türen einen Blick auf einen R600-Prototyp und RV610/630-Prototypen bei den ATi-Partner werfen können.

btw.

R600 disappoints Hector
It sucks as it's late says CEO
http://www.fudzilla.com/index.php?option=com_content&task=view&id=72&Itemid=34

Als hätte der arme Mann nicht schon genug Sorgen... ;)

Demirug
2007-03-05, 21:13:46
Die wäre dann ja maximal für DX8-style-Shader nutzbar, wenn kein FP?

Nein. nvidia benutzt kombinierte FPU/ALUs. Eine FP32 FPU kann sehr leicht als 24 Bit Integer Einheit benutzt werden. Um sie für 32 Bit zu nutzen muss man mehr Aufwand treiben.

horn 12
2007-03-05, 21:21:43
Kann es sein dass uns A/A hinters Licht führen will, um NV beruhigen zu wollen.
Immer mehr Infos von Problemem, Schwierigkeiten, zu geringe Performance ... .... und man wollte den R600 Ende März bringen.
Da muss doch was faul langsam sein bei den ganzen Geschichten!:confused:
Langsam glaube ich der R600 kommt gar nicht mehr, oder dennoch früher als alle meinen.... blicke langsam echt nicht mehr durch.:mad: :mad:
Was macht/ plant da A/A um Gottes Willen...:confused:

Gmax
2007-03-05, 22:03:23
Kann es sein dass uns A/A hinters Licht führen will, um NV beruhigen zu wollen.
Immer mehr Infos von Problemem, Schwierigkeiten, zu geringe Performance ... .... und man wollte den R600 Ende März bringen.
Da muss doch was faul langsam sein bei den ganzen Geschichten!:confused:
Langsam glaube ich der R600 kommt gar nicht mehr, oder dennoch früher als alle meinen.... blicke langsam echt nicht mehr durch.:mad: :mad:
Was macht/ plant da A/A um Gottes Willen...:confused:

Was ist an der Sache so negativ? Er sagt, es suckt, daß die Karte verspätet ist, aber später werden die Leute es verstehen, da die Karte ein außerodentliches Potential hat.

The big boss confirmed that it is bad as the R600 is being late but he also said that it is such an outstanding product that people will understand the potentials of such a product.

horn 12
2007-03-05, 23:06:59
Hoffe er behält Recht,- und der R600 schlägt wirklich ein wie eine Bombe, ansonsten muss man dem Gesagtem nur schmunzelnd entgegenwirken.

|MatMan|
2007-03-05, 23:30:09
oh man horn 12, du kannst doch bestimmt schon nicht mehr ruhig schlafen wegen dem R600 :D

ich persönlich warte fast nur auf den R600 damit die G80 Karten etwas billiger werden *duck*, außer der R600 ist wirklich so überzeugend wie du hoffst. Ansonsten kann ich mir kaum vorstellen, dass es ein überzeugenderes Gesamtpaket werden wird als ein G80 (ok, nicht-Beta Treiber fehlen noch), alleine schon wenn die Zahlen vom Stromverbrauch hinkommen - der Strom ist mir egal, aber der Krach der Kühllösung nicht.
Und ja ich lege wert auf eine vernünftige Standardkühllösung, nicht wie einige hier, die meinen die gleich am 2ten Tag herunterfetzen zu müssen...

K4mPFwUr$t
2007-03-05, 23:43:53
die bisherigen angaben von der verlustleistung waren aber nur die TDP werte, keine realen verbrauchswerte.

Gast
2007-03-06, 00:08:21
Laut Hardwareluxx neuer Artikel

Geometrieberechnung: R600 schneller als G80

kann jemand was mit anfangen?

mfg

Gast
2007-03-06, 00:08:35
However, a document presumably sent to AMD’s add-in-card partners, revealed that certain versions of R600 graphics cards would reach the partners only in late March, days before the quarter ends.


schreibt die xbitlabs. Damit wäre vielleicht ein früher Launch im Q2 möglich. Mal abwarten.

|MatMan|
2007-03-06, 00:14:50
die bisherigen angaben von der verlustleistung waren aber nur die TDP werte, keine realen verbrauchswerte.
wie ich schon sagte, der reale Verbrauch ist für mich nicht so das Argument, sondern was die Kühllösung daraus macht. Da waren die X1xxx nicht immer toll (hatten meist auch mehr Wärme abzuführen als die nVidia Pendants).
Wenn ich mir die Bilder von der OEM Version mit diesem Monsterlüfter anschaue, sieht das für mich nicht sonderlich vielversprechend (= leise) aus, aber ich lasse mich gerne überraschen!

micki
2007-03-06, 00:39:41
Dafür gibt es in der OpenGL Dokumentation eine Unterscheidung zwischen 24 und 32 Bit integer. Daraus könnte man Schlussfolgern das es tatsächlich zwei ALUs/FPUs mit unterschiedlichen Fähigkeiten gibt. Das CUDA davon nichts sieht könnte daran liegen das die zweite ALU/FPU für GPGPU nicht genau genug ist.
ich glaube ich hab das in der cuda doku heute erst gelesen, dass 24bit int anders gehandhabt werden koennen, aber das ist doch nur ein float mit 0 explonent, afaik rechnet NV oefters so, auch bei float selbst.

6.1.1.1 __mul24 __umul24 ;)

Coda
2007-03-06, 00:46:39
Oder auch genauer:
32-bit integer multiplication takes 8 clock cycles, but __mul24 and __umul24 (see Appendix A) provide signed and unsigned 24-bit integer multiplication in 2 clock cycles.
Also tatsächlich noch nich mal die ALU verbreitert für 32-Bit-Integer-Zeug.

micki
2007-03-06, 01:26:54
Oder auch genauer:

Also tatsächlich noch nich mal die ALU verbreitert für 32-Bit-Integer-Zeug.
hab hier schon zig r600 threads davor geschrieben dass int-support nur eine compilerfrage ist *hehe* und deswegen locker schon auf dx9 hardware moeglich waere :)

aber es ist auf jedenfall gut das man 24bit nutzen kann, reicht fuer sehr viele dinge eigentlich.

Coda
2007-03-06, 02:07:03
Nicht ganz. Bitshifts und logische Operationen kannst du nicht so einfach auf FPUs emulieren...
Wobei man Shifts für die FPU in der Hardware auch braucht, aber nur der Compiler allein kann das für Integer nicht benützen.

Ailuros
2007-03-06, 05:15:51
Die R600 ALUs duerften tatsaechlich nicht alle identisch sein.

Uebrigens:

Their test was written using Brook and the DX9 backend. CTM isn't magic, just like CUDA isn't magic. However, a simple MAD test with only a few registers being used, no texture lookups, and lots of iterations and pixels should run just about any board at full tilt. Where things get more complicated is a mix of instructions which pushes how the compiler and hardware do instruction scheduling.

http://www.beyond3d.com/forum/showpost.php?p=941211&postcount=326

Ailuros
2007-03-06, 05:41:35
Im Schnitt aller hier getesteten Spielen liegt die X1950pro nur minimal hinter einer 7900GTX, und das auch nur, weil dort noch immer Uraltspiele wie "The Chronicles of Riddick" und "Doom 3" getestet werden. Deutlich schneller ist sicherlich übertrieben, aber ebenbürtig kann man IMHO durchaus gelten lassen.

Die Debatte ist weiterhin sinnlos und das aus zwei Gruenden, erstens weil es ebenso sinnlos waere Radeons mit AI off zu benchen und zweitens werden die gesamten vorigen Produkte dank G8x vernachlaessigt fuer die sehr neuen Spiele.

ATI hat ja auch keine Vector-->Scalar Kopfschmerzen was den Compiler betrifft.

Was jetzt die jeglichen Treiber-einstellungen betrifft wurde das Thema ja so oft ausgelatscht dass es langweilig ist es nochmal durchzukauen. Wieso wird aber ueberhaupt die G80 mit "quality" getestet? Das etwas "mildere" brilinear auf G80 kann ebenso auf Nebeneffekte fuehren in ein paar Stellen fuehren wie auf Radeons.

Entweder macht man sich noch zusaetzlich die Muehe und bencht auf allen mit allen Optimierungen ausgeschaltet und einmal mit "default". Fuer den ersten Fall warnt man ganz einfach dass ATI auch nicht relevante Optimierungen im AI hat und im zweiten Fall linkt man auf einen Anhang der die Qualitaetsunterschied deutlich zeigt.

High quality G7x ist eigentlich nur mit high quality G8x vergleichbar. Es gibt fuer mich hier keine "Gefallen" und das zwar in alle Richtungen. NV koennte locker den "quality" Modus bzw. brilinear loswerden und ATI haette schon seit einer Ewigkeit die anderen Optimierungen aus AI herauskapseln sollen.

Als letztes spielen genau wieviele mit TSAA/AAA konstant eingeschaltet?

robbitop
2007-03-06, 08:55:19
Oder auch genauer:

Also tatsächlich noch nich mal die ALU verbreitert für 32-Bit-Integer-Zeug.
Sollte fuers FP Format doch aber keine Relevanz haben und damit auch nicht fuer heutigen Shadercode. Somit waere sie theoretisch fuer General Shading nutzbar.

James Ryan
2007-03-06, 09:04:33
Kann es sein dass uns A/A hinters Licht führen will, um NV beruhigen zu wollen.
Immer mehr Infos von Problemem, Schwierigkeiten, zu geringe Performance ... .... und man wollte den R600 Ende März bringen.
Da muss doch was faul langsam sein bei den ganzen Geschichten!:confused:
Langsam glaube ich der R600 kommt gar nicht mehr, oder dennoch früher als alle meinen.... blicke langsam echt nicht mehr durch.:mad: :mad:
Was macht/ plant da A/A um Gottes Willen...:confused:

Der R600 erinnert mich immer mehr an Duke4Ever!
Es heißt er kommt mit Verspätung, aber dann wird er alles andere in den Schatten stellen blabla...
Ich kann mich nur wiederholen: Wenn der R600 wirklich so stark ist, hätte ATi ihn schon längst gebracht, Paperlaunch hin oder her!
Die Leute tun teilweise so als wäre ATi der Wohltäter der nur das absolut beste für alle Kunden will, gleich am Start Millionen von absoluten fehlerfreien und mit perfekten Treibern ausgestatte R600 Karten bringen wird etc.
Leute, wacht auf! ATi will nur unser bestes... unser Geld! Genau wie jede andere Firma auch! Die Ausreden bezüglich der Verspätungen sind reines Marketing-Blabla, nichts weiter. Jeder logisch denkende Mensch versteht das!
Und sorry @horn12, mein Post war jetzt nicht gegen dich gerichtet!

MfG :cool:

MartinRiggs
2007-03-06, 09:15:00
Der R600 erinnert mich immer mehr an Duke4Ever!
Es heißt er kommt mit Verspätung, aber dann wird er alles andere in den Schatten stellen blabla...
Ich kann mich nur wiederholen: Wenn der R600 wirklich so stark ist, hätte ATi ihn schon längst gebracht, Paperlaunch hin oder her!
Die Leute tun teilweise so als wäre ATi der Wohltäter der nur das absolut beste für alle Kunden will, gleich am Start Millionen von absoluten fehlerfreien und mit perfekten Treibern ausgestatte R600 Karten bringen wird etc.
Leute, wacht auf! ATi will nur unser bestes... unser Geld! Genau wie jede andere Firma auch! Die Ausreden bezüglich der Verspätungen sind reines Marketing-Blabla, nichts weiter. Jeder logisch denkende Mensch versteht das!
Und sorry @horn12, mein Post war jetzt nicht gegen dich gerichtet!

MfG :cool:

Du wiederholst dich zu oft und es interessiert keine Sau.
Du gehörst doch eh nicht zu denen die überhaupt drüber nachdenken sich ne High-End-Karte zu kaufen oder?
Ansonsten hol dir ne G80 und sei doch glücklich.

paul.muad.dib
2007-03-06, 09:24:09
However, a document presumably sent to AMD’s add-in-card partners, revealed that certain versions of R600 graphics cards would reach the partners only in late March, days before the quarter ends.


schreibt die xbitlabs. Damit wäre vielleicht ein früher Launch im Q2 möglich. Mal abwarten.

Es sind aber nur "certain versions". Wenn die XTX nicht verfügbar ist, werden sie sie nicht launchen.

Winter[Raven]
2007-03-06, 09:25:10
Du wiederholst dich zu oft und es interessiert keine Sau.
Du gehörst doch eh nicht zu denen die überhaupt drüber nachdenken sich ne High-End-Karte zu kaufen oder?
Ansonsten hol dir ne G80 und sei doch glücklich.

Als würde es nicht der Wahrheit entsprechen was James Ryan sagt... :crazy2:

micki
2007-03-06, 09:28:13
Nicht ganz. Bitshifts und logische Operationen kannst du nicht so einfach auf FPUs emulieren...
Wobei man Shifts für die FPU in der Hardware auch brauchtja, nun angenommen man wuerde die operationen aufsplitten in zwei operationen, sodass der compiler selbst fuers shift verantwortlich ist, dafuer aber dann den takt verdoppeln, dann haette man keinen verlust an performance aber mehr flexibilitaet bzw. koennte sehr einfach int und float mit der selben einheit rechnen :)

(ich meine das shiften usw. das noetig ist damit das fuehrende bit 1 ist und der exponent entsprechend angepasst ist, was sicher eine instruction sein koennte)

K4mPFwUr$t
2007-03-06, 09:54:31
es sind doch irgendwie immer die gleichen die wieder einen neuen G80 vs R600 bash war anfeuern müssen :shake:

mal so an die leute die nur am nörgeln, meckern und motzen sind ... wenn ihr doch den G80 so hoch lobt, wieso seit ihr hier dann zum kommentieren. wenn doch nur wieder am ende das gleiche dumme gelaber rauskommt?
bla dies und das ... bla ati kacke ... bla nv ist besser ...

das sollte sich mal besonders james ryan ans herz legen. und nicht nur von ihn werden sinnfreie bash postings angezettelt als mal was "sinnvolles" zum thema beitragen.

MartinRiggs
2007-03-06, 10:09:04
;5303445']Als würde es nicht der Wahrheit entsprechen was James Ryan sagt... :crazy2:

Ach ist doch wahr, er schwätzt immer das gleiche.
Und ein Vergleich mit Duke Nukem Forever ist ja wohl das dümmste was ich je gehört habe.

PCGH_Carsten
2007-03-06, 10:11:16
Wenn ich mal dezent auf das neueste Leistungsrating von CB hinweisen dürfte: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/24/#abschnitt_performancerating_qualitaet

Im Schnitt aller hier getesteten Spielen liegt die X1950pro nur minimal hinter einer 7900GTX, und das auch nur, weil dort noch immer Uraltspiele wie "The Chronicles of Riddick" und "Doom 3" getestet werden. Deutlich schneller ist sicherlich übertrieben, aber ebenbürtig kann man IMHO durchaus gelten lassen.
Klar kannst du "dezent" (?) auf alles hinweisen wie es dir beliebt. :) Wie du ja bereits von mir zitiert hast: "deutlich schneller" ist eine X1950 Pro wohl kaum.

Ohne AA/AF (ja, finde ich ebenfalls wichtig, weil man darauf mit zunehmender Lebensdauer der Karten "zurückfallen" muss)
1.280x1.024: GTX +21%
1.600x1.200: GTX +20%

Mit AA/AF
1.280x1.024: GTX +3%
1.600x1.200: GTX +1%

Ob da nun zwei "alte" Spiele (im etwas shaderlastigeren und neueren Prey sieht's übrigens ähnlich aus...) dabei sind oder nicht, fällt IMO wieder unter "Rosinen" picken - genausogut könnte ich halt anführen, dass Rainbox Six: Vegas - UE3-Engine! - die GTX weiter vorn sieht, als es das "Qualitätsrating" zeigt.

Ich denke, ich kann ruhigen Gewissens weiterhin bei meiner von dir zitierten Aussage bleiben. Sorry für OT, welches ich hiermit auch abschließen möchte - bei weiterem Diskussionsbedarf werde ich mich gern in einem separaten Thread äußern.

robbitop
2007-03-06, 12:02:21
G7x verliert vor allem durch einen langsameren AA Algoritmus und/oder aufgrund der schlechteren Granularitaet des Speichercontrollers mehr Performance. Die genauen Gruende sind vermutlich nur wenigen bekannt. An der Kopplung der Einheiten allein liegt der Rueckstand jedenfalls nicht.

PCGH_Carsten
2007-03-06, 13:53:50
Die R600 ALUs duerften tatsaechlich nicht alle identisch sein.

Uebrigens:



http://www.beyond3d.com/forum/showpost.php?p=941211&postcount=326
Ich glaube, Mike bezog das mehr darauf, wenn Latenzen, bedingt durch Textur-Ops mit ins Spiel kommen, nicht darauf, welche der arithmetischen Ops gerade gemacht werden (mal ausgenommen die Marko-Dinger).

Coda
2007-03-06, 13:56:38
ja, nun angenommen man wuerde die operationen aufsplitten in zwei operationen, sodass der compiler selbst fuers shift verantwortlich ist, dafuer aber dann den takt verdoppeln, dann haette man keinen verlust an performance aber mehr flexibilitaet bzw. koennte sehr einfach int und float mit der selben einheit rechnen :)
Ich weiß nicht auf was du hinauswillst. Du kannst mit FP-MADD in 2 Befehlen keine Bitshifts machen, wenn mich nicht alles täuscht.

(ich meine das shiften usw. das noetig ist damit das fuehrende bit 1 ist und der exponent entsprechend angepasst ist, was sicher eine instruction sein koennte)
Quatsch. Das macht die FPU automatisch. Wär ja noch schöner, wenn man jedesmal bevor man mit FP rumrechnet ne Shiftinstruction einfügen müsste. Vor allem weil die Register die sichtbar sind dafür gar nicht groß genug wären.

micki
2007-03-06, 14:15:48
Ich weiß nicht auf was du hinauswillst. Du kannst mit FP-MADD in 2 Befehlen keine Bitshifts machen, wenn mich nicht alles täuscht.lies nochmal, ich schrieb: einen befehl in zwei aufsplitten, also simplen int mul und dann shiften sowie exponent anpassen als einzelne befehle. auf diese weise haette man sehr simpel int-mul und float-mul



Quatsch. Das macht die FPU automatisch. Wär ja noch schöner, wenn man jedesmal bevor man mit FP rumrechnet ne Shiftinstruction einfügen müsste. Vor allem weil die Register die sichtbar sind dafür gar nicht groß genug wären.wie ich schon sagte, das kann aufgesplittet werden weil es dann hardwaremaessige vorteile haette -> weniger transistoren weil nicht extra eine int implementierung aller befehle noetig ist +flexibler.
ich hoffe dein unfreundlicher ton ist dir jetzt ein wenig peinlich.

Coda
2007-03-06, 14:18:38
lies nochmal, ich schrieb: einen befehl in zwei aufsplitten, also simplen int mul und dann shiften sowie exponent anpassen als einzelne befehle. auf diese weise haette man sehr simpel int-mul und float-mul
Dann müsste der Scheduler aber das doppelte an Befehlen durch die Pipeline drücken und das ist sicher nicht der Fall.

wie ich schon sagte, das kann aufgesplittet werden weil es dann hardwaremaessige vorteile haette -> weniger transistoren weil nicht extra eine int implementierung aller befehle noetig ist +flexibler.
ich hoffe dein unfreundlicher ton ist dir jetzt ein wenig peinlich.
Man kann aber auch einfach eine andere zusätzliche Instruction hinzufügen die den vorhanden Barrell Shifter auch für Integer benützt...

Was man ziemlich sicher auch gemacht hat, denn int shift ist eine low-latency-instruction auf G80.

micki
2007-03-06, 14:29:40
Dann müsste der Scheduler aber das doppelte an Befehlen durch die Pipeline drücken und das ist sicher nicht der Fall.da die taktung nun doppelt so hoch ist im shadercore und auch bei jedem zweiten takt die einheiten wissen muessen was sie tun sollen, gibt es auch dafuer sicherlich anweisungen.


Man kann aber auch einfach eine andere zusätzliche Instruction hinzufügen die den vorhanden Barrell Shifter auch für Integer benützt...

Was man ziemlich sicher auch gemacht hat, denn int shift ist eine low-latency-instruction auf G80.es geht nicht um den int-shift, sondern das float-shift das nach jeder float operation stattfindet um das fuehrende bit ne 1 zu machen und um den exponenten entsprechend anzupassen, denn laesst man das weg, hat man so ziemlich eine normale int operation.

anders:
int mul: mul tmp, r0, r1 ; mov r0, tmp
float mul: mul tmp, r0, r1 ; adjust r0, tmp

das ist natuerlich alles hoechste spekulation von mir, aber es wuerde in meinen augen eklaeren weshalb nv den takt verdoppelt hat
klar kann man fuer int einen neuen instruktionssatz einfuehren, ich denke nur dass es auf diese weise einfacher/simpler war und vielleicht effizienter ist.

deswegen doppelter takt -> halbe leistung (mul add usw. kosten 2cycles)

dargo
2007-03-06, 15:12:17
Die Debatte ist weiterhin sinnlos und das aus zwei Gruenden, erstens weil es ebenso sinnlos waere Radeons mit AI off zu benchen und zweitens werden die gesamten vorigen Produkte dank G8x vernachlaessigt fuer die sehr neuen Spiele.

AI Off hier, AI Off da. Q und HQ, diese ganzen Vergleiche bringen langsam nichts. Der eine ist mit Q zufrieden, der andere erst mit AI Off. Ich hätte mal einen anderen Vorschlag. Wie wäre es eigendlich beide Karten ohne AF zu benchen? Einfach max. Details, von mir aus immer 4xAA, aber halt 1xAF. Somit müssten diese ganzen Optimierungen gar nicht erst greifen. Wäre interessant wie sich die G7900GTX und die X1900XT dann in den "kritischen" Games verhalten.

AnarchX
2007-03-06, 15:13:29
RV610 Features Native CrossFire But Say NO to 128-Bit Memory!?
http://img338.imageshack.us/img338/7616/attachmentpq5.jpg
http://www.hkepc.com/bbs/itnews.php?tid=751990

Low-Profile! Das wird sicher so manchen freuen.

Nakai
2007-03-06, 15:15:50
Das bedeutet das ATI total den LowEnd-Markt abdecken will, wird auch Zeit.
Also dann bekommen wir den R600 wohl auch in diesem Zeitabschnitt.

mfg Nakai

paul.muad.dib
2007-03-06, 16:10:20
Also dann bekommen wir den R600 wohl auch in diesem Zeitabschnitt.


Denke ich auch. ATI wird wohl kaum die low-End Produkte als erstes launchen.

Ph0b0ss
2007-03-06, 16:21:26
AI Off hier, AI Off da. Q und HQ, diese ganzen Vergleiche bringen langsam nichts. Der eine ist mit Q zufrieden, der andere erst mit AI Off. Ich hätte mal einen anderen Vorschlag. Wie wäre es eigendlich beide Karten ohne AF zu benchen? Einfach max. Details, von mir aus immer 4xAA, aber halt 1xAF. Somit müssten diese ganzen Optimierungen gar nicht erst greifen. Wäre interessant wie sich die G7900GTX und die X1900XT dann in den "kritischen" Games verhalten.

Gute Idee!

Zusätzlich könnte man die ATI dann auch bei 1xAF 4xAA einmal mit AI Off und einmal mit AI Standard benchen. So könnte man mal sehen was die Optimierungen außerhalb der AF-Optimierungen bei ATI bringen. Das Ergebnis davon könnte man dann quasi auf die vorhandenen Benchmarks der ATIs mit 16xAF 4xAA übertragen. Das ist zwar nicht so genau wie ein echter Bench mit AI Standard ohne AF-Optimierungen, aber immer noch besser als einfach mit AI Standard (und dessen Zwangs-AF-Optimierungen) zu benchen und dabei sowieso nur Murks heraus zu bekommen.

Wär nett, wenn mal jemand, der eine X1900XT(X) besitzt, ein paar Spiele mit 1xAF 4xAA bei z.B. 1600x1200 (evtl auch mal mit noch höheren Auflösungen) mit AI Off und AI Standard durchtesten würde und das Ergebnis postet.

Godmode
2007-03-06, 16:58:38
Dadürch würde sich die Arbeit für ein Review verdoppeln! Ich denke das wird leider niemand machen, obwohl die Idee gut wäre!

Gast
2007-03-06, 17:03:31
Denke ich auch. ATI wird wohl kaum die low-End Produkte als erstes launchen.
Kann sein, muss aber nicht. Die sonst gültigen Regeln könnten beim R600 Launch zwangsweise verändert sein.

paul.muad.dib
2007-03-06, 17:45:24
Kann sein, muss aber nicht. Die sonst gültigen Regeln könnten beim R600 Launch zwangsweise verändert sein.

Es macht einfach keinen Sinn. Low-End bis Mid-End ist durch die derzeitige Produktpalette gut abgedeckt und es wäre schlecht für's Image.
Gelohnt hätte es sich nur, falls die Chips schon letztes Jahr fertig gewesen wären.

micki
2007-03-06, 17:49:26
Es macht einfach keinen Sinn. Low-End bis Mid-End ist durch die derzeitige Produktpalette gut abgedeckt geht es nicht um D3D10 chips?

reunion
2007-03-06, 18:04:34
RV610 Features Native CrossFire But Say NO to 128-Bit Memory!?
http://img338.imageshack.us/img338/7616/attachmentpq5.jpg
http://www.hkepc.com/bbs/itnews.php?tid=751990

Low-Profile! Das wird sicher so manchen freuen.

Das erklärt dann auch, warum nV hier etwas nervös ist. HDMI-Unterstützung - im Gegensatz zu nV, die dies wohl auch mit G84/G86 noch nicht unterstützten, was gerade bei Lowend-Karte durchaus von Relevanz ist. Außerdem denkt man mit gleich vier Modellen doch einiges ab, dazu auch Low-Prfil-Karten. Und dank 65nm höchstwahrscheinlich sehr billig zu fertigen.

Gast
2007-03-06, 18:11:06
Wo ist nV nervös? HDCP auf ein PCB draufzuklatschen ist nun wirklich kein Problem... Aber mit Fantasy...

reunion
2007-03-06, 18:20:35
Die R600 ALUs duerften tatsaechlich nicht alle identisch sein.


Hm, da der Test von AMD soweit ich das verstanden habe nur die MADD-Leistung getestet hat, würde das bedeuten, dass die tatsächliche GFLOP-Rate > 512 liegt?

Wo ist nV nervös? HDCP auf ein PCB draufzuklatschen ist nun wirklich kein Problem... Aber mit Fantasy...

AiL sagte AFAIK vor kurzem, dass nV im Lowend-Bereich etwas nervös ist.

paul.muad.dib
2007-03-06, 18:23:33
geht es nicht um D3D10 chips?

DX10 ist für low-End Ohnehin nur ein Checklistenfeature, genauso wie DX9 es für GF 5200 war.

micki
2007-03-06, 18:31:17
DX10 ist für low-End Ohnehin nur ein Checklistenfeature, genauso wie DX9 es für GF 5200 war.genau und kann ATI das ausfuellen? mehr geht es dabei ja nicht.

AnarchX
2007-03-06, 18:50:37
Das erklärt dann auch, warum nV hier etwas nervös ist. HDMI-Unterstützung - im Gegensatz zu nV, die dies wohl auch mit G84/G86 noch nicht unterstützten, was gerade bei Lowend-Karte durchaus von Relevanz ist. Außerdem denkt man mit gleich vier Modellen doch einiges ab, dazu auch Low-Prfil-Karten. Und dank 65nm höchstwahrscheinlich sehr billig zu fertigen.

IMO sollte der G78 HDMI-Support mitbringen, immerhin wurde es ja für den 80nm Shrink spekuliert, der dann zum 65nm Shrink wurde.
Nur hat man hier das Problem, dass man leider kein D3D10 bieten kann, aber ansonsten dürfte der G78 auf das Segment der kleineren RV610-Modelle abzielen.

~40mm² vs ~70mm²

Da wird wohl NV versuchen die OEMs mit niedrigen Preisen zu locken.

Kinman
2007-03-06, 20:23:53
3DMark06
Hardware wie in der Sig.
1920x1200 kein AA, kein AF

AI Standart: 3824 (http://the-assassines.com/3dmark06/ai_standart.htm)
AI Off: 3816 (http://the-assassines.com/3dmark06/ai_off.htm)

mfg Kinman

Gast
2007-03-06, 20:27:18
AiL sagte AFAIK vor kurzem, dass nV im Lowend-Bereich etwas nervös ist.
Ja, aber wegen 20% geringerer Chipfläche dank 65nm. Wärst ein guter "Gast" ;)

Gast
2007-03-06, 20:30:02
3DMark06
Hardware wie in der Sig.
1920x1200 kein AA, kein AF

AI Standart: 3824 (http://the-assassines.com/3dmark06/ai_standart.htm)
AI Off: 3816 (http://the-assassines.com/3dmark06/ai_off.htm)

mfg Kinman

Schlechtestes Beispiel für Filteroptimierungen, wenn das deine Absicht gewesen sein sollte.

a) Ist der 3DMark06 nicht sehr texturlastig und
b) Hat er ab Werk keine trilineare Filterung eingestellt, sondern "optimal" (o.ä.), sodass nur die wenigsten Texturen tri abbekommen.

Kinman
2007-03-06, 20:35:35
Schlechtestes Beispiel für Filteroptimierungen, wenn das deine Absicht gewesen sein sollte.

a) Ist der 3DMark06 nicht sehr texturlastig und
b) Hat er ab Werk keine trilineare Filterung eingestellt, sondern "optimal" (o.ä.), sodass nur die wenigsten Texturen tri abbekommen.

Hab derzeit leider nix besseres drauf, nur UT2004

mfg Kinman

Coda
2007-03-06, 20:57:01
UT2004 ist dafür perfekt. Das ist praktisch nur texturlastig.

reunion
2007-03-06, 21:04:32
Ja, aber wegen 20% geringerer Chipfläche dank 65nm. Wärst ein guter "Gast" ;)

Den Vorteil dank 65nm habe ich ja unter anderem auch erwähnt. Also erspar dir deine Anspielungen.

Gast
2007-03-06, 21:23:42
IMO sollte der G78 HDMI-Support mitbringen, immerhin wurde es ja für den 80nm Shrink spekuliert, der dann zum 65nm Shrink wurde.
Nur hat man hier das Problem, dass man leider kein D3D10 bieten kann, aber ansonsten dürfte der G78 auf das Segment der kleineren RV610-Modelle abzielen.

Ich glaube nicht das D3D10 momentan ein Marketing Schreier ist, gibt ja kein Crysis oder UT07 als Zugpferd dafür. Vista Rdy hingegen dürfte jetzt "In" werden, und da kanns irgend ein 08/15 Chip sein, hauptsache DX9 und billig.

horn 12
2007-03-06, 21:33:09
http://www.corporate-ir.net/ireye/confLobby.zhtml?ticker=AMD&item_id=1473686

Morgen oder übermorgen Könnte sich was tun beim R600, viell. sickert da mal ein Bench oder etwas anderes mal durch, um die Käuferschicht bei Laune zu halten. Hoffen wir mal!:smile:

K4mPFwUr$t
2007-03-06, 21:45:45
horn12, aber bitte glaube nicht gleich wieder jeden mist. es gibt schon genug "benches" die sich als schlechter fake entlarvt haben.
die wirklich ersten realen und vertrauenswürdigen reviews werden erst zum launch kommen. oder gabs zum R520 ein monat vor launch auch schon ein review oder vertrauenswürdigen bench?

Gast
2007-03-06, 22:33:51
UT2004 ist dafür perfekt. Das ist praktisch nur texturlastig.

Genau - Und obwohl synthetisch wäre hier ein Flyby optimal.


@reunion:
Klar, haste im Nebensatz bissel weiter oben mit einfließen lassen. Tenor deines Postings war jedoch die angeblich fehlende HDMI-Unterstützung.

Zum Thema HDMI/HDCP:
Das kostet - nicht nur der Anschluss, auch das Durchschleifen der Audio-Signale ist nicht umsonst, ebensowenig die Lizenzgebühren.

Low-End-Karten werden vermutlich also nur in Ausnahmefällen damit ausgestattet sein, oder eben merklich teurer als vergleichbare Low-Ender.

w0mbat
2007-03-06, 23:15:06
AMD hat den R600 anscheinend nur verschoben um die komplette Reihe gleichzeitig zu launchen :)

Paul Brain
2007-03-06, 23:18:56
AMD hat den R600 anscheinend nur verschoben um die komplette Reihe gleichzeitig zu launchen :)
...was keinen Sinn macht und daher nur eine dumme Ausrede ist. IMHO.

Gast
2007-03-06, 23:20:03
AMD hat den R600 anscheinend nur verschoben um die komplette Reihe gleichzeitig zu launchen :)

Besser gesagt, da sich R600 so verpätet ist dies nun möglich.
Ich glaube kaum, dass Hector Ruiz darüber glücklich ist, dass er nun als Lügner dasteht, nachdem er vollmundig versprochen hat dass der R600 im Q1 kommt. ;)

Ailuros
2007-03-07, 05:33:42
Hm, da der Test von AMD soweit ich das verstanden habe nur die MADD-Leistung getestet hat, würde das bedeuten, dass die tatsächliche GFLOP-Rate > 512 liegt?

Was ist eine "tatsaechliche" GFLOP-Rate? Wohl eher das was Mike Houston fuer Echtzeit andeutet, und ich will bezweifeln dass er kein R600 Testsample schon seit einiger Zeit hat.

AiL sagte AFAIK vor kurzem, dass nV im Lowend-Bereich etwas nervös ist.

100 vs 120mm^2 afaik. Es muessen sich nur die 65nm yields verbessern, denn wie ich schon sagte der grosse Vorteil fuer RV610 ist 65nm und der grosse Nachteil 65nm ;)

Ailuros
2007-03-07, 05:47:09
AI Off hier, AI Off da. Q und HQ, diese ganzen Vergleiche bringen langsam nichts. Der eine ist mit Q zufrieden, der andere erst mit AI Off. Ich hätte mal einen anderen Vorschlag. Wie wäre es eigendlich beide Karten ohne AF zu benchen? Einfach max. Details, von mir aus immer 4xAA, aber halt 1xAF. Somit müssten diese ganzen Optimierungen gar nicht erst greifen. Wäre interessant wie sich die G7900GTX und die X1900XT dann in den "kritischen" Games verhalten.

Erstens hat Dein Vorschlag rein gar nichts mit dem zu tun was die Mehrzahl in Echtzeit gebrauchen wuerde. Es koennte noch ein paar geben die von AA nichts halten und es einfach weglassen, aber dass jemand ueberhaupt kein AF benutzt halte ich fuer unwahrscheinlich.

Noch schlimmer wenn die gesamte Industrie so testen wuerde wie Du vorschlaegst, gibt es dann wohl keinen besonderen indirekten Druck mehr dass IHVs etwas aendern wuerde. Dreimal darfst Du raten was ATI machen wuerde wenn die Mehrzahl ploetzlich mit AI off benchen wuerde.

Setzt Dich mal vor eine G80 hin in Echtzeit und spiel ein paar Spiele durch und erklaer mir dann ob default brilinear immer noch einen Grund zur Existenz hat.

Und nein man kann definitiv trilinear mit brilinear nicht vergleichen, da gibt es keine besondere "aber". Wenn schon dann bitte gefaelligst zumindest G7x mit nur brilinear eingeschaltet und allen anderen Optimierungen aus.

PCGH_Carsten
2007-03-07, 10:19:34
100 vs 120mm^2 afaik. Es muessen sich nur die 65nm yields verbessern, denn wie ich schon sagte der grosse Vorteil fuer RV610 ist 65nm und der grosse Nachteil 65nm ;)

Da stellt sich dann die große Frage, wer billiger produzieren kann. Außer Chipgröße und Ausbeute spielt da ja auch noch der Preis pro Wafer eine Rolle, welcher bei neuen Verfahren IMO höher liegen dürfte und die Ersparnisse, die man beim PCB-Design durch einen eventuell geringeren Stromverbrauch hat. Klart, letzteres ist hauptsächlich eine Sache der Boardpartner, aber wenn eine Karte einen Preis von 49 "Währung" anpeilt und man PCB inkl. Bestückung für entweder für 10 oder für 15 "Währung" bekommt, bleibt eine unterschiedliche Marge für die restlichen Komponenten.

Dazu noch die Frage, wie schnelles und damit wie teures RAM der jeweilige Chip zu seiner hoffentlich konkurrenzfähigen Leistung benötigt. Schneller GDDR3 kostet sicherlich deutlich mehr als mittelschneller GDDR2-RAM.

dargo
2007-03-07, 15:06:22
Erstens hat Dein Vorschlag rein gar nichts mit dem zu tun was die Mehrzahl in Echtzeit gebrauchen wuerde. Es koennte noch ein paar geben die von AA nichts halten und es einfach weglassen, aber dass jemand ueberhaupt kein AF benutzt halte ich fuer unwahrscheinlich.

Die Mehrzahl hat auch keinen G71 oder R580. ;)

Darum ging es mir gar nicht. Es ging nur um den CB Test. Und der Gast meinte man solle die ATI mit AI off benchen. Da aber, wie wir wissen AI nicht nur Filteroptimierungen beinhaltet habe ich eben 1xAF für den Vergleich vorgeschlagen. Dann müssen nämlich die Filteroptimierungen bei AI standard nicht mehr greifen. Und ich behaupte mal, dass selbst in diesem Vergleich die X1950Pro in den besagten Games an eine G7900GTX rankommt bzw. diese sogar leicht überholt. Das sieht man schon beim CB Test bei den Benches ohne AA und AF.
Mit AA wäre der Unterschied zu gunsten von ATI noch größer da der G7x etwas stärker beim Einsatz von AA einbricht.

Gast
2007-03-07, 15:41:58
Dann müssen nämlich die Filteroptimierungen bei AI standard nicht mehr greifen.


auch ohne AF gibt es mit AI brilinear.

dargo
2007-03-07, 15:50:52
auch ohne AF gibt es mit AI brilinear.
Man kann mit ATT trilinear afaik erzwingen oder etwa nicht?
Außerdem dürfte der Performanceunterschied zwischen bri und tri ohne den anisotropischen Filter so gering sein (meine ich zumindest), dass sich nicht mal lohnt darüber zu diskutieren. Ich kann es aber auch gerne testen. Welche Games sollte ich dafür am besten nehmen, außer UT2004? Geht Quake 4 oder FEAR zb.?

Gast
2007-03-07, 16:01:50
Man kann mit ATT trilinear afaik erzwingen oder etwa nicht?
Außerdem dürfte der Performanceunterschied zwischen bi und tri ohne den anisotropischen Filter so gering sein (meine ich zumindest), dass sich nicht mal lohnt darüber zu diskutieren. Ich kann es aber auch gerne testen. Welche Games sollte ich dafür am besten nehmen, außer UT2004? Geht Quake 4 oder FEAR zb.?
Painkiller, Serious Sam, Games mit der Source-Engine sind auch gut, falls vorhanden. Ich würde allerdings einmal mit AF und A.I off und dann mit A.I. on spielen, und gucken ob man optische Unterschiede feststellen kann und falls ja, dann erst den Performanceunterschied ermitteln. Wenn man die Optimierungen nicht sieht, sind sie imho legitim.

dargo
2007-03-07, 16:08:18
Dark Messiah (Source Engine) habe ich, dann werde ich das mal nehmen. :)

Gast
2007-03-07, 16:27:21
Man kann mit ATT trilinear afaik erzwingen oder etwa nicht?Das funktioniert nicht mit R5x0 und aktuellen Treibern. Da bleibt nur AI-Off um den Dingern die Bri-Sauereien auszutreiben.

reunion
2007-03-07, 16:39:39
Ich glaube nicht das D3D10 momentan ein Marketing Schreier ist, gibt ja kein Crysis oder UT07 als Zugpferd dafür. Vista Rdy hingegen dürfte jetzt "In" werden, und da kanns irgend ein 08/15 Chip sein, hauptsache DX9 und billig.

Dazu braucht es IMHO kein besonderes Zugpferd. Spätestens die FX5200, die für Dx9-Spiele völlig ungeeignet war, aber sich trotzdem sehr gut verkauft hat, hat bewiesen, dass ein hohes Tech-Level gerade im Lowend sehr wichtig ist, um Erfolg zu haben. Wenn auch nur damit die Hersteller ihr tolles "DX10"-Pickerl aufkleben können.

@reunion:
Klar, haste im Nebensatz bissel weiter oben mit einfließen lassen. Tenor deines Postings war jedoch die angeblich fehlende HDMI-Unterstützung.


Und weiter?
Wenn sich die Gerüchte bewahrheiten hat das auch seine Richtigkeit.
BTW, noch immer dein Passwort und offensichtlich auch deinen Usernamen vergessen?


Zum Thema HDMI/HDCP:
Das kostet - nicht nur der Anschluss, auch das Durchschleifen der Audio-Signale ist nicht umsonst, ebensowenig die Lizenzgebühren.

Low-End-Karten werden vermutlich also nur in Ausnahmefällen damit ausgestattet sein, oder eben merklich teurer als vergleichbare Low-Ender.

Das ist bei ATI vermutlich wie beim 690G schon im Die integriert. Und der Anschluss selbst sollte den Brei auch nicht mehr fett machen. Bei den Lizenzgebühren müsste man wissen, was das konkret ausmacht. Soviel kann das jedenfalls nicht sein, sonst würde man das nicht sogar in einen Mainboardchipsatz integrieren. Aber es wird sicher ähnlich wie bei 690G/690V auch billigere Karten ohne HDCP/HDMI geben.

Gast
2007-03-07, 18:16:46
http://www.extremetech.com/article2/0,1697,2099613,00.asp

horn 12
2007-03-07, 20:49:36
Kommt da heute noch was? Infos zum R600?

is that 12:30 - 1:30 Eastern ST?
And what's all the excitement on R600 today? Conference?

2:30 to 3:30pm pacific time. So here in San Antonio that means 4:30pm to 5:30pm. Keep on the look out guys for those leaks. Hopefully we see a video of the demo

Gmax
2007-03-07, 21:27:41
http://666kb.com/i/amfg4b9yeylskva2c.jpg

Kleiner Größenvergleich.

http://64.233.179.104/translate_c?hl=en&u=http://www.beareyes.com.cn/2/lib/200703/07/20070307411.htm&prev=/search%3Fq%3Dbeareyes.com%26hl%3Den%26sa%3DG

w0mbat
2007-03-07, 21:29:27
In San Francisco ist es jetzt ca. 12:30 Uhr. Um 14:30 Uhr, also in 2 Std. beginnt die Präsentation. Hier also um 23:30 Uhr.

reunion
2007-03-07, 21:32:07
http://666kb.com/i/amfg4b9yeylskva2c.jpg

Kleiner Größenvergleich.

http://64.233.179.104/translate_c?hl=en&u=http://www.beareyes.com.cn/2/lib/200703/07/20070307411.htm&prev=/search%3Fq%3Dbeareyes.com%26hl%3Den%26sa%3DG

Und was ist was?
Interessant wäre ja vorallem der Vergleich zur Konkurrenz.

w0mbat
2007-03-07, 21:40:40
http://img114.imageshack.us/img114/1827/atigt9.jpg
RV410 (110nm) - R520 (90nm) - R580 (90nm) - R600 (80nm) - RV630 (65nm)
Oder so ähnlich ;)

crux2005
2007-03-07, 21:41:22
die Google übesetzung:

http://www.google.com/translate?u=http%3A%2F%2Fwww.beareyes.com.cn%2F2%2Flib%2F200703%2F07%2F200703074 11.htm&langpair=zh%7Cen&hl=en&ie=UTF8

horn 12
2007-03-07, 21:43:05
@Wombat

Hi, kennen uns aus dem Forumdlxx Forum.
Meinst Heute Nacht bekommen wir mal endlich infos zu der Performance/ Stromverbrauch der R600 Karte, denke werden nur die XTX testen, event. Benches aber nur von der XT Karte weitergeben, und auch deren Taktraten immer noch geheim halten.
Wünschenswert wäre es langsam schon, da eben die Käufer des R600 langsam unentschlossen werden und viell. sogar zur 8800 gts/ x greifen wenn nie was durchsickert.
Wie hoch ist die Chance dass heute was von A/A offiziell bestätigt wird, oder alles hinter verschlossener Tür und erneut keine Infos?

w0mbat
2007-03-07, 21:46:45
Denke wir werden höchstens ein paar Bilder und mit etwas Glück erste Benches bekommen. Laut AMD geht es mit R600 derzeit ja gut weiter. Vielleicht werden sie die 64 Vec5 Shader und die 1GB GDDR4 anpreisen.

Nakai
2007-03-07, 21:54:11
64 Vec5 Shader

Wie es aussieht werden das Vec5 MADD-Shader, wobei sie vll noch andere Berechnungen durchführen können.

mfg Nakai

w0mbat
2007-03-07, 21:56:31
Keine Ahnung was das ist. Sry, aber kann da nicht so differenzieren.

horn 12
2007-03-07, 22:05:30
Könnte gar der Launch der X2900 XT / XL vorverlegt werden und das Koloss XTX kommt dann halt später, um NV bereits mit der XT unter Druck zu setzen und die 8800 Ultra aus dem Sack zu lassen, und diese mit dem R600 2900 XTX komplett zu vernichten. Könnte nicht auch dies AUCH ein Grund der Verschiebung gewesen sein. Denn den Fehler der R520 GPU wollte/ will man nicht wiederholen!
Der R600 wird stark werden, sehr stark.

@Wombat/ Nakai
Ihr beide wisst ja mehr als ihr hier zugeben könnt, stimmt´s oder habe ich Recht!
Der R600 wird der Knaller oder nur teuflich gut werden:tongue:

Moralelastix
2007-03-07, 22:13:17
Ja ja, der wird jeden Tag besser.


Hector Ruiz sollte ne Winzergenossenschaft gründen wenn das so weiter geht.

robbitop
2007-03-07, 22:22:05
Keine Ahnung was das ist. Sry, aber kann da nicht so differenzieren.
MADD steht fuer Multiply Add. Das heisst, dass eine ALU eine Operation pro Takt ausfuehren kann, die entweder das eine oder das andere oder sogar beides (fuer ein Skalarprodukt) koennen.
Alles andere erledigt die MiniALU oder wird ueber ein Makro nachgebildet (mittels Multiplikation und Addition lassen viele mathematischen Operationen nachbilden. Integration ueber das ober oder untersummenverfahren, sinus und cosinus ueber Taylorreiehen, lineare Interpolation ect ...kostet halt entsprechende Takte oder ist per FF eingebaut und geht sehr schnell.)

Ich persoenlich bin jedenfalls sehr gespannt, wie das Ding am Ende im Detail aussieht. Aber diesbezueglich werden wir uns auf B3D gedulden muessen.

Hauwech
2007-03-07, 22:34:21
@Wombat

...
Wünschenswert wäre es langsam schon, da eben die Käufer des R600 langsam unentschlossen werden und viell. sogar zur 8800 gts/ x greifen wenn nie was durchsickert.
...


Na, nun übertreib' mal nicht. Es klingt ja fast so als wäre es ein Fehler zur 88er zu greifen...

Das der R600 nicht so zeitgerecht gekommen ist wie AMD es sich gewünscht hat, ist halt Pech, falsche Strategie und letztlich durch den Willen einen kompletten Familienlaunch hinzulegen, gewollt. Ohne Informationen braucht sich also keiner wundern das die Leute keine Lust mehr haben zu warten und zum Konkurrenzprodukt greifen.

Ich bezweifele nicht, das der R600 schneller als die 88er wird, nur der "G80-Killer" wird er bestimmt nicht. Dazu kommen noch der ominöse Wundertreiber und die 88er Ultra.

Einfach abwarten.

Edit: Also horn12, ich glaube du solltest deine Wünsche nicht zu hoch hängen. Unter Druck setzen kann AMD Nvidia mit einer ebenbürtigen XT nur dann, wenn sie sie massenweise für einen Appel und nen Ei verschleudern, nicht sehr realistisch denn sie wollen auch noch Geld verdienen. Gleiches mit der XTX. Vernichten werden sie sie wohl kaum, hat schon mit dem R300/NV30 nicht geklappt, warum sollte es jetzt so sein.

Coda
2007-03-07, 22:35:54
MADD steht fuer Multiply Add. Das heisst, dass eine ALU eine Operation pro Takt ausfuehren kann, die entweder das eine oder das andere oder sogar beides (fuer ein Skalarprodukt) koennen.
Hm da vertust du was. MADD rechnet für jede einzelne Komponente MUL und dann ADD. Ein Skalarprodukt rechnet zuerst MUL für jede einzelne Komponenten und addiert dann alle diese Resultate zusammen.

Kleiner aber feiner Unterschied ;)

robbitop
2007-03-07, 22:38:22
Hm da vertust du was. MADD rechnet für jede einzelne Komponente MUL und dann ADD. Ein Skalarprodukt rechnet zuerst MUL für jede einzelne Komponenten und addiert dann alle diese Resultate zusammen.

Kleiner aber feiner Unterschied ;)
Ich meine jetzt nicht die Instruktion "MADD" sondern die MADD Faehigkeit der ALU per se.
Dank dieser ist ein DP3 pro Takt kein Problem.
Wie ein Skalarprodukt gerechnet wird, brauchst du mir natuerlich nicht zu erklaeren. ;)

Coda
2007-03-07, 22:41:55
Das Skalarprodukt ist aber dennoch deutlich aufwändiger, weil man die Additionen der Komponenten aufwändiger parallelisieren muss um den gleichen Durchsatz wie bei einem einfachen MADD zu haben (und wahrscheinlich auch mehr als eine Additionseinheit braucht). Nicht umsonst haben x86-CPUs bis heute keine Skalarprodukt-SIMD-Anweisung.

AnarchX
2007-03-07, 22:42:56
die Google übesetzung:

http://www.google.com/translate?u=http%3A%2F%2Fwww.beareyes.com.cn%2F2%2Flib%2F200703%2F07%2F200703074 11.htm&langpair=zh%7Cen&hl=en&ie=UTF8

Der RV630 scheint aber ganz schön groß zu sein, dafür das er nur 16 ALUs haben soll laut Text. (RV410 war 156mm² groß, der angebliche RV630 dort im Bild scheint ja ähnlich groß)

Übrigens geht auch das Gerücht um, dass die RV630 basierenden Modelle als Radeon X2400 bezeichnet werden könnten.

Godmode
2007-03-07, 22:44:42
Der RV630 scheint aber ganz schön groß zu sein, dafür das er nur 16 ALUs haben soll laut Text. (RV410 war 156mm² groß, der angebliche RV630 dort im Bild scheint ja ähnlich groß)

Übrigens geht auch das Gerücht um, dass die RV630 basierenden Modelle als Radeon X2400 bezeichnet werden könnten.

Ail hat auch was in die Richtung angedeutet, dass sich NV nur über den RV610 sorgen macht, weil dieser eben in 65nm gefertigt werden soll. Der RV630 aber kein Problem für Nvidia werden sollte. Ich bin schon verdammt gespannt auf die neuen Radeons!

robbitop
2007-03-07, 22:44:53
Das ist klar, da es die beiden Operationen hintereinander erfolgen muessen und dennoch muss es in einem Takt fertig sein.

Ailuros
2007-03-07, 22:49:18
Die Mehrzahl hat auch keinen G71 oder R580. ;)

Es geht darum was im Test benutzt wurde.

Darum ging es mir gar nicht. Es ging nur um den CB Test. Und der Gast meinte man solle die ATI mit AI off benchen. Da aber, wie wir wissen AI nicht nur Filteroptimierungen beinhaltet habe ich eben 1xAF für den Vergleich vorgeschlagen.

Es wird Zeit dass ATI den Mist endlich entkoppelt und nicht dass es so bleibt. Es ist eben zufaelligerweise eine (von ATI absichtliche) Ausrede nicht AI off zu benutzen.


Dann müssen nämlich die Filteroptimierungen bei AI standard nicht mehr greifen.

Sei Dir aber bloss nicht so sicher.

Und ich behaupte mal, dass selbst in diesem Vergleich die X1950Pro in den besagten Games an eine G7900GTX rankommt bzw. diese sogar leicht überholt. Das sieht man schon beim CB Test bei den Benches ohne AA und AF.
Mit AA wäre der Unterschied zu gunsten von ATI noch größer da der G7x etwas stärker beim Einsatz von AA einbricht.

Ein ziemlich fetter Brocken, aber wenn's schon sein muss lass zumindest brilinear auf der G71 eingeschaltet und nix da mit X1950 PRO; wohl doch eher auf X1900XTX Niveau.

Ailuros
2007-03-07, 22:52:49
Der RV630 scheint aber ganz schön groß zu sein, dafür das er nur 16 ALUs haben soll laut Text. (RV410 war 156mm² groß, der angebliche RV630 dort im Bild scheint ja ähnlich groß)

Übrigens geht auch das Gerücht um, dass die RV630 basierenden Modelle als Radeon X2400 bezeichnet werden könnten.

Dem Kauderwelsch kann man sowieso nichts anstaendiges entnehmen; im besten Fall hat der Author midrange mit budget verwechselt. RV630 hat afaik 32 ALUs.

Coda
2007-03-07, 22:53:35
Das ist klar, da es die beiden Operationen hintereinander erfolgen muessen und dennoch muss es in einem Takt fertig sein.
Falls nicht klar ist was ich mein:
http://www.mental-asylum.de/files/maddvsdot.png

Oder hab ich da nen Denkfehler? Aber ich denke man macht es wirklich so und optimiert halt die Gates darauf dass die das in einem Takt durchdrücken. Die Frequenz der GPUs ist ja nicht so unglaublich hoch.

Auf einem skalaren Prozessor ist das übrigens nicht mehr nötig, weil man da mit MADDs tatsächlich ein DOT3 einfach nachbauen kann wenn ich mich nicht ganz vertu :)

Ein ziemlich fetter Brocken, aber wenn's schon sein muss lass zumindest brilinear auf der G71 eingeschaltet und nix da mit X1950 PRO; wohl doch eher auf X1900XTX Niveau.
Finde ich eigentlich auch eher komisch. Kein AF müsste eigentlich G7x als R5xx helfen, weil die TMU-Stalls kürzer werden.

Ailuros
2007-03-07, 22:57:39
Wie es aussieht werden das Vec5 MADD-Shader, wobei sie vll noch andere Berechnungen durchführen können.

mfg Nakai

Nicht alle ALUs sind zu Integer OPs faehig.

Godmode
2007-03-07, 23:00:49
Falls nicht klar ist was ich mein:
http://www.mental-asylum.de/files/maddvsdot.png

Oder hab ich da nen Denkfehler? Aber ich denke man macht es wirklich so und optimiert halt die Gates darauf dass die das in einem Takt durchdrücken. Die Frequenz der GPUs ist ja nicht so unglaublich hoch.

Auf einem skalaren Prozessor ist das übrigens nicht mehr nötig, weil man da mit MADDs tatsächlich ein DOT3 einfach nachbauen kann wenn ich mich nicht ganz vertu :)


Finde ich eigentlich auch eher komisch. Kein AF müsste eigentlich G7x als R5xx helfen, weil die TMU-Stalls kürzer werden.

Ich kann mir gerade nicht wirklich vorstellen wie du das DOT3 auf die MADD Alu abbilden willst, wenn das alles in einem Takt erledigt sein soll? Du müsstest quasi die Ergebnisse von den 4 Muls zuerst in die 2 Add Alus schicken und dieses Ergebnis dann in die 3. oder 4. Add Alu. Oder sind die verschiedenen Bestandteile der MADD Alu doch noch mehr verschaltet als in deinem linken Bild?

deekey777
2007-03-07, 23:01:53
Dem Kauderwelsch kann man sowieso nichts anstaendiges entnehmen; im besten Fall hat der Author midrange mit budget verwechselt. RV630 hat afaik 32 ALUs.
Nicht 34? :wink: :biggrin:

Also doch kein 1/4-R600. Schön, der Rest ist mir egal, wenn der Preis stimmt. :)

Coda
2007-03-07, 23:03:39
Ich kann mir gerade nicht wirklich vorstellen wie du das DOT3 auf die MADD Alu abbilden willst, wenn das alles in einem Takt erledigt sein soll?
Es können in einem Takt auch zuerst 4 Multiplikationen, dann 2 Additionen und dann noch eine durchgeführt werden, wenn die Gates schnell genug sind.

robbitop
2007-03-07, 23:08:19
@Coda
Vermutlich habe ich mich etwas schwammig ausgedrueckt.
Deine Skizze ist jedenfalls IMO korrekt.

Xa * Xb + Ya * Yb + Za * Zb + Ua * Ub = Result

Also wird erst multipliziert (4x) und dann werden die Ergebnisse addiert (bei SIMD Einheiten natuerlich schrittweise, wie du es dargestellt hast).
Wie die genaue Verschaltung der Crossbars und der Register nun aussieht, weiss ich natuerlich nicht. (Ob das ueber Pipelining laeuft oder ueber einfach nur hoeher getaktete Register und eine hoehere Anzahl an ADD und MUL Einheiten in der ALU selbst. Keine Ahnung.) Aber fertig ist es in einem Takt.

Coda
2007-03-07, 23:13:51
Logo, aber DOT4 machst nich einfach so aus MADD. Da braucht's doch noch etwas mehr dazu. Einig? ;)

Ailuros
2007-03-07, 23:27:13
Nicht 34? :wink: :biggrin:

Also doch kein 1/4-R600. Schön, der Rest ist mir egal, wenn der Preis stimmt. :)

Uhmmm kommt ganz drauf an was Du mit 1/4 meinst. In dem Fall dann wohl hoechstwahrscheinlich RV630=R600/4 und G86=G80/3.

Gast
2007-03-07, 23:30:05
Die Präsentation beginnt jetzt. :)

(+44)
2007-03-07, 23:31:11
Wo? Gibts da nen Stream oder sowas?

Steve1
2007-03-07, 23:31:50
Kann man die vielleicht irgendwo mitverfolgen.

deekey777
2007-03-07, 23:41:30
Uhmmm kommt ganz drauf an was Du mit 1/4 meinst. In dem Fall dann wohl hoechstwahrscheinlich RV630=R600/4 und G86=G80/3.
So wie beim RV530 <-> R580. Wenn der RV630 mit 32 ALUs kommt, dann wäre er eher ein halber R600 (wie der RV560 ein halber R580 ist).
:confused:

Sterem
2007-03-07, 23:57:06
Kann man die vielleicht irgendwo mitverfolgen.

Ja geht das irgendwie?

Ailuros
2007-03-07, 23:59:00
So wie beim RV530 <-> R580. Wenn der RV630 mit 32 ALUs kommt, dann wäre er eher ein halber R600 (wie der RV560 ein halber R580 ist).
:confused:

Wenn RV630 nicht 2 clusters haben sollte, was soll denn dann RV610 haben? Einen halben cluster?

Ich bezog mich uebrigens offensichtlich nicht auf die ALUs.

***edit: 16 * 10 FLOPs * 0.8 (?) GHz = 128 GFLOPs ? errrr....

Hvoralek
2007-03-07, 23:59:21
RV630 hat afaik 32 ALUs.

[...]

Uhmmm kommt ganz drauf an was Du mit 1/4 meinst. In dem Fall dann wohl hoechstwahrscheinlich RV630=R600/4 [...].Ich dachte, 128 ALUs für R600 wären schon länger vom Tisch? :confused:

Oder was meinst Du mit "dem" Fall?

Ailuros
2007-03-08, 00:00:16
Ich dachte, 128 ALUs für R600 wären schon länger vom Tisch? :confused:

Oder was meinst Du mit "dem" Fall?

Raster Operations oder Render Outputs....tstststs....

Hvoralek
2007-03-08, 00:02:29
Raster Operations oder Render Outputs....tstststs....Ich hatte jetzt nur an die wirklich wichtigen Eckdaten gedacht (Also v.a. TMUs und ALUs). Aber gut, natürlich ist RV630 nie ein ganz genau halbierter oder geviertelter R600 :redface:

robbitop
2007-03-08, 00:03:13
Logo, aber DOT4 machst nich einfach so aus MADD. Da braucht's doch noch etwas mehr dazu. Einig? ;)
Einig ;)

Ailuros
2007-03-08, 00:08:02
Ich hatte jetzt nur an die wirklich wichtigen Eckdaten gedacht (Also v.a. TMUs und ALUs). Aber gut, natürlich ist RV630 nie ein ganz genau halbierter oder geviertelter R600 :redface:

IMHLO 4 ROPs/8 TMUs.

Gast
2007-03-08, 00:58:20
das wär ja mit verlaub ne echte krücke
ein rv530 v2

(+44)
2007-03-08, 01:04:46
Wo gibts Infos zu der Pressevorstellung in San Francisco?

Wurde dauernd erwähnt und sollte schon längst angefangen haben.

Fetza
2007-03-08, 02:04:44
Wo gibts Infos zu der Pressevorstellung in San Francisco?

Wurde dauernd erwähnt und sollte schon längst angefangen haben.

Naja warscheinlich sind keine kameras zugelassen, und die eingeladenen redakteure dürfen nur später ihre artikel zum gezeigten veröffentlichen. Evtl mit entsprechenden ati grafiken.

greetz

Fetza

Gast
2007-03-08, 02:19:15
Hauptsache, der "Müll" kommt bald aufen Markt.
Gegen SLI können die guten A/A (hört sich ja an wie Kacke),
Leute eh nix machen.
Ich würd mir ja auch nen Crossfire Setup kaufen......
Aber im Moment ist´s ja nur pfusch.
Woher ich das weiss?
Ich teste alles selbst!!!

Gast
2007-03-08, 02:23:41
Wo gibts Infos zu der Pressevorstellung in San Francisco?

Wurde dauernd erwähnt und sollte schon längst angefangen haben.

Wenn da nix kommt, dass richtig "owned" dann schlag ich hier alles kurz und klein.

horn 12
2007-03-08, 07:07:07
Schon wieder nichts durchgesickert ....
Das darf wohl gar nicht wahr sein! Will ATI uns alle auf die Folter spannen,- und viell. alle welche den R600 abwarten zum gegnerischen Lager jagen.
Dies wird woh nach hinten losgehen, langsam werde auch ich bei der 8800 GTS schwach.
Lang habt ihr nicht mehr A/A:mad: :mad: :mad: :mad: :mad: :mad:

James Ryan
2007-03-08, 08:33:15
horn 12, kann es ein dass du das ganze zu persönlich nimmst? ;D
War doch sowas von klar dass keine Infos durchsickern.
Einfach ruhig bleiben und Tee trinken (und eine Gf 8800 kaufen :biggrin: ).

MfG :cool:

K4mPFwUr$t
2007-03-08, 08:45:06
irgendwie werden die posts auch immer sinnvoller.

was der herr gast mit seinem CF gebashe jetzt erreichen will, kann ich nicht nachvolziehen. zumal sollche systeme wie SLI oder sei es CF eh eine marktminderheit sind.

horn12 jammert wieder rum das es nichts neues gibt und AMD das NDA des R600 mit jeden mittel aufrecht erhalten will. nicht wie nVidia oder intel mit dem C2D. aber "kann es sein das du das ganze zu persönlich nimmst?" ganz gut trifft. und von kauf einer 8800er wirds auch nicht besser.
die treiberpolitik und den 2D "sparmodus" muss man nicht wirklich mit dem kauf unterstützen.

James Ryan
2007-03-08, 09:04:19
irgendwie werden die posts auch immer sinnvoller.

was der herr gast mit seinem CF gebashe jetzt erreichen will, kann ich nicht nachvolziehen. zumal sollche systeme wie SLI oder sei es CF eh eine marktminderheit sind.

horn12 jammert wieder rum das es nichts neues gibt und AMD das NDA des R600 mit jeden mittel aufrecht erhalten will. nicht wie nVidia oder intel mit dem C2D. aber "kann es sein das du das ganze zu persönlich nimmst?" ganz gut trifft. und von kauf einer 8800er wirds auch nicht besser.
die treiberpolitik und den 2D "sparmodus" muss man nicht wirklich mit dem kauf unterstützen.

FULL ACK! ;D (zum letzten Punkt: Genau darum warte ich auf den G81).
Noch etwas: Diese Posts bezüglich "Der R600 wird NVIDIA vernichten" sind nicht gut. Das schlimmste für den Kunden wäre, wenn ATi oder NVIDIA aussteigt! Darum hoffe ich dass der R600 bald kommt und wieder Leben in den seit November langweiligen Graka-Markt bringt!

MfG :cool:

Ailuros
2007-03-08, 13:17:00
A wizzard is never late; he arrives precisely when he means to! :biggrin:

Gast
2007-03-08, 13:19:47
A wizzard is never late; he arrives precisely when he means to! :biggrin:
Du schraubst damit die Erwartungen wieder hoch, ist dir das bewusst?! Am Ende kann er gar nicht zaubern und berechnet die Pixel auf herkömmliche Weise. ;(

DrumDub
2007-03-08, 13:31:38
und wieder was neues von fuad: A13 ist wohl die endgültige chiprevision. grund für die verschiebung in den mai sind wohl angeblich der treiber, die taktrate und das pcb.

quelle: http://www.fudzilla.com/index.php?option=com_content&task=view&id=96&Itemid=1

Nakai
2007-03-08, 13:36:43
@Wombat/ Nakai
Ihr beide wisst ja mehr als ihr hier zugeben könnt, stimmt´s oder habe ich Recht!
Der R600 wird der Knaller oder nur teuflich gut werden:tongue:

Viel Spaß beim Spekulieren.^^:tongue:

A wizzard is never late; he arrives precisely when he means to!

:D

Dann definieren mal "late"!

Nicht alle ALUs sind zu Integer OPs faehig.

Eigentlich wollte ich nicht darauf hinaus.
Wieso müssen es genau eine Vec4-MADD und ein Scalar-MADD werden?
Imho wurde durch den Benchmark bei dem 1018 Gflops MADD-Leistung bestimmt.
Imho könnte man sich dann noch etwas anderes vorstellen, was nichts mit MADD zu tun hat.
Aber da hast du bestimmt bessere Infos.
;)

mfg Nakai

Ailuros
2007-03-08, 14:06:47
Du schraubst damit die Erwartungen wieder hoch, ist dir das bewusst?! Am Ende kann er gar nicht zaubern und berechnet die Pixel auf herkömmliche Weise. ;(

Das Zitat sollte eigentlich zeigen dass es auch schoen formulierte Ausreden fuer etwas geben kann. Ganz nebenbei das Zitat stammt von Gandalf aus Lord of the Rings :P

Ailuros
2007-03-08, 14:10:58
Eigentlich wollte ich nicht darauf hinaus.
Wieso müssen es genau eine Vec4-MADD und ein Scalar-MADD werden?

Hast Du eine bessere Idee fuer 5 Dimensionen? Natuerlich koennte ich jetzt Vec3 + Vec2 lesen, aber denk mal scharf nach ob das Zeug ueberhaupt Sinn machen wuerde.

Imho wurde durch den Benchmark bei dem 1018 Gflops MADD-Leistung bestimmt.
Imho könnte man sich dann noch etwas anderes vorstellen, was nichts mit MADD zu tun hat.
Aber da hast du bestimmt bessere Infos.
;)

mfg Nakai

Ich kann den armen Herrn Houston bis morgen zitieren; bis jetzt scheint es ja nicht geholfen zu haben.

crusader4
2007-03-08, 14:12:14
Das Zitat sollte eigentlich zeigen dass es auch schoen formulierte Ausreden fuer etwas geben kann. Ganz nebenbei das Zitat stammt von Gandalf aus Lord of the Rings :PUnd der Verschreibsler mit Übereinstimmung zu einem recht bekannten Software-Schreiber für ein ATI-Tool war sicher auch nur zufällig, oder? :biggrin:

Nakai
2007-03-08, 14:17:43
Natuerlich koennte ich jetzt Vec3 + Vec2 lesen, aber denk mal scharf nach ob das Zeug ueberhaupt Sinn machen wuerde.

Das macht natürlich keinen Sinn und ich zweifle auch nicht der Sache mit 5D an.
Ich meine eigentlich ob die ALUs wirklich nur eine Vec4-MADD und ein Scalares MADD sind. Ich könnte mir gut vorstellen, das mindestens die skalare Einheit mit einem ADD, wie beim R5x0, erweitert wird.

mfg Nakai

Ailuros
2007-03-08, 14:33:22
Das macht natürlich keinen Sinn und ich zweifle auch nicht der Sache mit 5D an.
Ich meine eigentlich ob die ALUs wirklich nur eine Vec4-MADD und ein Scalares MADD sind. Ich könnte mir gut vorstellen, das mindestens die skalare Einheit mit einem ADD, wie beim R5x0, erweitert wird.

mfg Nakai

Je groesser das theoretische GFLOP Maximum des R600 waere, desto mehr spricht es gegen seine eigentliche Echtzeit-Effizienz. Was mir eigentlich fehlt ist die Begeisterung unter den Entwicklern die das Ding schon in der Hand haben. Vergleichsmaessig sind sie ausserorderntlich still hinter den Kulissen und sie meckern genauso ueber besch***ene Vista Treiber wie bei der Konkurrenz.

dargo
2007-03-08, 15:57:35
Ein ziemlich fetter Brocken, aber wenn's schon sein muss lass zumindest brilinear auf der G71 eingeschaltet und nix da mit X1950 PRO; wohl doch eher auf X1900XTX Niveau.
Hä? Du meinst also - würde CB in diesen Tests ...
Test1 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/8/#abschnitt_anno_1701)
Test2 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/14/#abschnitt_gothic_3)
(NfS Carbon und Splinter Cell Double Agent sind übrigens auch solche Kandidaten)

... die G7900GTX mit Q bzw. bri Filter (kenne die "Feineinstellungen" bei NV nicht ganz) mit 1xAF benchen würde diese an die X1900XTX rankommen?
Das kann ich gar nicht glauben. Leider habe ich keinen G71 um das gegenzutesten. ;(

robbitop
2007-03-08, 16:29:10
Hast Du eine bessere Idee fuer 5 Dimensionen? Natuerlich koennte ich jetzt Vec3 + Vec2 lesen, aber denk mal scharf nach ob das Zeug ueberhaupt Sinn machen wuerde.
Welchen Sinn macht eine 5D ALU denn ueberhaupt? (bis auf weniger Ausnahmen)

PCGH_Carsten
2007-03-08, 18:03:00
A wizzard is never late; he arrives precisely when he means to! :biggrin:
There is no dawn – for men.

PCGH_Carsten
2007-03-08, 18:13:25
Welchen Sinn macht eine 5D ALU denn ueberhaupt? (bis auf weniger Ausnahmen)
IMO kommt es drauf an. Vertexshader waren bisher auch 5D - und die müssen die ALUs ja jetzt auch mit übernehmen. Bei Skalaren ist das kein so großes Problem, aber bei Vec4-ALUs brauchst du dann quasi zwei davon auch wenn die zweite noch ein bißchen was nebenbei machen kann.

Zudem ist es für Splits sehr gut. Du kannst beispielsweise eine RGB- und eine 2D-Textur-Op für Normals gleichzeitig machen (3:2-Split).

The_Invisible
2007-03-08, 18:24:30
Hä? Du meinst also - würde CB in diesen Tests ...
Test1 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/8/#abschnitt_anno_1701)
Test2 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/14/#abschnitt_gothic_3)
(NfS Carbon und Splinter Cell Double Agent sind übrigens auch solche Kandidaten)

... die G7900GTX mit Q bzw. bri Filter (kenne die "Feineinstellungen" bei NV nicht ganz) mit 1xAF benchen würde diese an die X1900XTX rankommen?
Das kann ich gar nicht glauben. Leider habe ich keinen G71 um das gegenzutesten. ;(

deswegen ist sie aber nicht mit ner 1950pro gleichzustellen nur weil eine handvoll spiele gleichschnell laufen.

zb in tomb raider legend im nextgen modus läuft ne gtx alle radeons davon, in UE3 spielen performt sie auch sehr gut

mfg

dargo
2007-03-08, 19:07:19
deswegen ist sie aber nicht mit ner 1950pro gleichzustellen nur weil eine handvoll spiele gleichschnell laufen.

Ich habe auch nicht gesagt, dass dies bei allen Games so ist. Es sind aber schon einige. Da hätten wir:

1. Anno 1701
2. Gothic 3
3. NfS Carbon
4. Splinter Cell Double Agent
5. Call of Juarez
6. Call of Duty 2 (G7900GTX mit 9% Vorsprung in 16x12 ohne AA/AF)
7. Company of Heroes (G7900GTX mit 9% Vorsprung in 16x12 ohne AA/AF)
8. Oblivion

Komischerweise (;)) sind es immer neuere Spiele wo der G71 schwächelt.

Coda
2007-03-08, 19:13:24
Was genau ist daran so komisch? R580 hat nunmal gleich einen doppelten Vorteil bei hoher Alulast. Einmal können sie dahinter die Texture-Fetches verstecken und zweitens haben sie mehr ALUs.

dargo
2007-03-08, 19:21:57
Was genau ist daran so komisch?

Du hast den Smiley übersehen.

Sterem
2007-03-08, 19:22:44
Was genau ist daran so komisch? R580 hat nunmal gleich einen doppelten Vorteil bei hoher Alulast. Einmal können sie dahinter die Texture-Fetches verstecken und zweitens haben sie mehr ALUs.

Ah intressant.

reunion
2007-03-08, 19:32:57
deswegen ist sie aber nicht mit ner 1950pro gleichzustellen nur weil eine handvoll spiele gleichschnell laufen.

zb in tomb raider legend im nextgen modus läuft ne gtx alle radeons davon, in UE3 spielen performt sie auch sehr gut

mfg

Diese "handvoll" Spiele wird fast mit jedem neu veröffentlichten Spiel um eins mehr. Man braucht kein Prophet zu sein, um zu wissen, wie es in Zukunft aussehen wird.

Gast
2007-03-08, 19:52:52
On Topic pls... immer das Geschwafel um Altmetall und e.p-Enlargement *g

Gibts denn keine News/Gerüchte von der GDC, wäre ja Ideal mal ein Game zu zeigen mit "Das läuft auf R600", das Hellgate Video is ja von einer G80.

Raff
2007-03-08, 19:55:46
Nächste Woche ist CeBIT. Bis dahin kann man sich doch gedulden. ;)

MfG,
Raff

robbitop
2007-03-08, 19:57:46
IMO kommt es drauf an. Vertexshader waren bisher auch 5D - und die müssen die ALUs ja jetzt auch mit übernehmen.
Natuerlich sind Vertexshader(programme) nicht 5D. Auch die VS Hardware war 4D (+1 Skalar bei ATI ein paar Generationen lang). Wie sollte eine solche Matrix aussehen und welchen mathematischen Sinn haette sie? ;)
Ab und an kann man das zusaetzliche Skalar mal fuer einige Beschleunigungen nutzen. Ist aber AFAIK relativ selten.


Zudem ist es für Splits sehr gut. Du kannst beispielsweise eine RGB- und eine 2D-Textur-Op für Normals gleichzeitig machen (3:2-Split).
Kommt (aktuell) AFAIK auch nur relativ selten vor.

Beides inkludierte meine Frage ausser nach Ausnahmen bereits btw. :)

dargo
2007-03-08, 19:58:42
Nächste Woche ist CeBIT. Bis dahin kann man sich doch gedulden. ;)

Das sagst du einfach so, ich bin schon ganz wuschig. *g
Diese Warterei schlaucht ganz schön. ;(
Ich will einfach nur wissen ob sich das Warten lohnt.

Ailuros
2007-03-09, 06:00:10
Hä? Du meinst also - würde CB in diesen Tests ...
Test1 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/8/#abschnitt_anno_1701)
Test2 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/14/#abschnitt_gothic_3)
(NfS Carbon und Splinter Cell Double Agent sind übrigens auch solche Kandidaten)

... die G7900GTX mit Q bzw. bri Filter (kenne die "Feineinstellungen" bei NV nicht ganz) mit 1xAF benchen würde diese an die X1900XTX rankommen?
Das kann ich gar nicht glauben. Leider habe ich keinen G71 um das gegenzutesten. ;(

Dass sich kein Schwein in letzter Zeit mehr mit neueren Spielen auf G7x/6x beschaeftigt seit dem G8x/Vista-Rennen hab ich schon so oft erwaehnt dass man es so langsam schnallen koennte.

Brilinear sollte trotz allem stets gegen brilinear getestet werden.

Ailuros
2007-03-09, 06:00:47
Das sagst du einfach so, ich bin schon ganz wuschig. *g
Diese Warterei schlaucht ganz schön. ;(
Ich will einfach nur wissen ob sich das Warten lohnt.

Etwas mehr Takt halt noch ;)

Ailuros
2007-03-09, 06:11:55
Diese "handvoll" Spiele wird fast mit jedem neu veröffentlichten Spiel um eins mehr. Man braucht kein Prophet zu sein, um zu wissen, wie es in Zukunft aussehen wird.

Wenn NV alle G7x-User nicht im Stich laesst fuer die gesamte G8x-Linie, ist das obrige keine Garantie.

Das nicht offizielle "Versprechen" hinter den Kulissen ist dass man wenn der G8x/Vista-Radau ueber den Berg ist das Ganze nachholen wird. Mit den extremen Sparmassnahmen generell intern bei NV, erwarte ich auch nicht unbedingt dass es auch eingehalten wird.

Beide IHVs haben momentan enorme Kopfschmerzen mit ihren D3D10 GPUs und ihren Vista Treibern. Das eigentliche Rennen zwischen den beiden ist woanders und die letzte Verzoegerung des R600 war natuerlich um einer Blamage zu entgehen und nicht dem BS die Orton vor ein paar Tagen auftischte.

PCGH_Carsten
2007-03-09, 09:45:25
Natuerlich sind Vertexshader(programme) nicht 5D. Auch die VS Hardware war 4D (+1 Skalar bei ATI ein paar Generationen lang). Wie sollte eine solche Matrix aussehen und welchen mathematischen Sinn haette sie? ;)
Ab und an kann man das zusaetzliche Skalar mal fuer einige Beschleunigungen nutzen. Ist aber AFAIK relativ selten.
Da sagen die Hersteller aber was anderes, sorry.


Kommt (aktuell) AFAIK auch nur relativ selten vor.

Beides inkludierte meine Frage ausser nach Ausnahmen bereits btw. :)
Sorry, das war mir aus deinen "wenige Ausnahmen" nicht ersichtlich. :) So macht es natürlich keinen Sinn - ebensowenig zusätzliche Skalarprozessoren oder sonst irgendwas, was man nicht 100 % der Zeit nutzen kann.

"Wenige Ausnahmen" finde ich etwas zu generell.

robbitop
2007-03-09, 11:51:53
Da sagen die Hersteller aber was anderes, sorry.
Konkreter bitte.




"Wenige Ausnahmen" finde ich etwas zu generell.
Da hast du Recht. Wenn man diese Faelle aufsummiert und relativ zum restlichen Code legt, ist es relativ wenig (abhaengig vom Code natuerlich).

Es waere schoen, wenn sich einer von euch 3D Entwicklern einklinken koennte und vieleicht ein paar konkrete Zahlen haette? Ich habe bisher nur ein paar Kommentare ohne Zahlen von einem Entwickler aus einem Interview. (was mir mathematisch bisher auch einleuchtet)

crux2005
2007-03-09, 12:04:56
Was mir eigentlich fehlt ist die Begeisterung unter den Entwicklern die das Ding schon in der Hand haben.

da habe ich aber was ganz anderes erlebt :eek: :eek:

Gast
2007-03-09, 12:09:15
da habe ich aber was ganz anderes erlebt :eek: :eek:


Was hast du denn erlebt?

Paul Brain
2007-03-09, 12:23:59
Was hast du denn erlebt?
Offenbar keine Begeisterung, wie ers in der Hand gehabt hat, sondern Brandblasen... ;D

AnarchX
2007-03-09, 12:39:25
DAAMIT kills the R600XT
Unifies XTX and XT at new price
http://www.fudzilla.com/index.php?option=com_content&task=view&id=106&Itemid=34

Wenn ich Fuad richtig verstanden habe, so werden sich "XT" und "XTX" nur durch den Speicher unterscheiden, während die GPU-Specs gleich sein werden.
Was den Verdacht aufkommen lassen könnte, dass man auch die XT ans Maximum takten muss, um sie konkurrenzfähig gestalten zu können.

PCGH_Carsten
2007-03-09, 12:51:15
Konkreter bitte.
Nvidia: Vertexshader 5D*3 Flops*6Units. Habe ich neulich aus einer GF6-Präsenation herauskopiert - frag jetzt bitte nicht, welche.




Da hast du Recht. Wenn man diese Faelle aufsummiert und relativ zum restlichen Code legt, ist es relativ wenig (abhaengig vom Code natuerlich).

Es waere schoen, wenn sich einer von euch 3D Entwicklern einklinken koennte und vieleicht ein paar konkrete Zahlen haette? Ich habe bisher nur ein paar Kommentare ohne Zahlen von einem Entwickler aus einem Interview. (was mir mathematisch bisher auch einleuchtet)
Demirug meinte IIRC, dass 2D-lookups für Normal-Mapping und dergleichen immer populärer wird.

PCGH_Carsten
2007-03-09, 12:51:52
Was hast du denn erlebt?
Der FSX-Mensch hat neulich ja geblogged, dass die GS-Performance des R600 deutlich über der der G80 läge. Nur so als Beispiel.

Gast
2007-03-09, 13:07:00
Was den Verdacht aufkommen lassen könnte, dass man auch die XT ans Maximum takten muss, um sie konkurrenzfähig gestalten zu können.

Anders rum: die angepeilten XTX Takte (was auch immer da geplant war) sind nicht zu erreichen, also kommt auch die XTX nur mit XT Takten.

James Ryan
2007-03-09, 13:12:16
Anders rum: die angepeilten XTX Takte (was auch immer da geplant war) sind nicht zu erreichen, also kommt auch die XTX nur mit XT Takten.

Klingt sogar irgendwie logischer. ;)
Lassen wir uns überraschen!

MfG :cool:

deekey777
2007-03-09, 13:40:11
Ich will die Glaubwürdigkeit und die Seriösität der Fuad-Seite nicht untergraben, aber bei einer Seite, die FUDzilla heißt, wäre ich sehr vorsichtig. :biggrin: ;)

dargo
2007-03-09, 15:14:55
Dass sich kein Schwein in letzter Zeit mehr mit neueren Spielen auf G7x/6x beschaeftigt seit dem G8x/Vista-Rennen hab ich schon so oft erwaehnt dass man es so langsam schnallen koennte.

Das ist aber eine sehr gewagte Behauptung von dir. Sag das den Leuten die kein Geld für eine neue Graka haben bzw. je 2-3 Jahre diese wechseln.
Oder war das jetzt auf NV (Treiberabteilung) bezogen?


Brilinear sollte trotz allem stets gegen brilinear getestet werden.
Ich habe nichts dagegen. Ach übrigens, ich habe mal 20 Sekunden von Dark Messiah mit meiner X1900XT gebencht. Hier das Ergebnis:

1280x1024 6xAA/1xTri-AF

Avg: 61.450 - Min: 53 - Max: 74 - AI off
Avg: 60.950 - Min: 54 - Max: 76 - AI standard

Hmm ... :uponder:

PS: auch optisch ist mir kein Unterschied aufgefallen.

Etwas mehr Takt halt noch ;)
Bezieht sich das auf die X2900XTX?
Diese interessiert mich recht wenig da zu teuer und zu "warm". ;)
Viel mehr würde ich gerne wissen wo die X2900XL performancemäßig positioniert wird. Über oder unter der G8800GTS?

Gast
2007-03-09, 15:29:34
Das ist aber eine sehr gewagte Behauptung von dir. Sag das den Leuten die kein Geld für eine neue Graka haben bzw. je 2-3 Jahre diese wechseln.


Ich habe nichts dagegen. Ach übrigens, ich habe mal 20 Sekunden von Dark Messiah mit meiner X1900XT gebencht. Hier das Ergebnis:

1280x1024 6xAA/1xTri-AF

Avg: 61.450 - Min: 53 - Max: 74 - AI off
Avg: 60.950 - Min: 54 - Max: 76 - AI standard

Hmm ... :uponder:

PS: auch optisch ist mir kein Unterschied aufgefallen.


Bezieht sich das auf die X2900XTX?
Diese interessiert mich recht wenig da zu teuer und zu "warm". ;)
Viel mehr würde ich gerne wissen wo die X2900XL performancemäßig positioniert wird. Über oder unter der G8800GTS?
Hast auch mal mit AF getestet. Könntes ja auch nochmal Call of Juarez testen. Aber vielleicht besser einen Thread aufmachen, wie A.I. erweitert vs A.I. standard vs A.I. off - die pure Wahrheit analog zum DC Thread.
Vergeht die Zeit auch bis zum R600 Launch schneller ;)

dargo
2007-03-09, 15:54:29
Hast auch mal mit AF getestet. Könntes ja auch nochmal Call of Juarez testen. Aber vielleicht besser einen Thread aufmachen, wie A.I. erweitert vs A.I. standard vs A.I. off - die pure Wahrheit analog zum DC Thread.

Nee, lass mal. Das ist mir zuviel Aufwand da mehrere Games zu testen. Vielleicht ein anderes Mal. Ich wollte auch gar nicht wissen wie stark der R5x0 mit AI off bei 16xAF einbrechen kann. Mir ging es nur darum zu beweisen, dass ein R5x0 mit 1xTri-AF (AI off) kaum/gar nicht langsamer ist als mit 1xAF (AI standard).

ShadowXX
2007-03-09, 16:24:21
Nee, lass mal. Das ist mir zuviel Aufwand da mehrere Games zu testen. Vielleicht ein anderes Mal. Ich wollte auch gar nicht wissen wie stark der R5x0 mit AI off bei 16xAF einbrechen kann. Mir ging es nur darum zu beweisen, dass ein R5x0 mit 1xTri-AF (AI off) kaum/gar nicht langsamer ist als mit 1xAF (AI standard).
Das war doch schon vorher klar, das AI Off erst dann richtig "reinhaut", wenn man hohe AF-Grade einstellt.

dargo
2007-03-09, 16:36:12
Das war doch schon vorher klar, das AI Off erst dann richtig "reinhaut", wenn man hohe AF-Grade einstellt.
Einigen anscheinend nicht. Deswegen hatte ich ja vorgeschlagen die G7900GTX gegen die X1900XT mit 4xAA aber nur 1xTri-AF zu benchen. ;)

Somit müßten die Filteroptimierungen bei ATI gar nicht erst greifen und das Geschwaffel, von wegen ATI müßte man immer mit AI off benchen wäre vom Tisch. Und eben bei dieser Methode behaupte ich mal, dass die X1950Pro nicht selten in vielen Games an eine G7900GTX rankommt.

Das ändert aber nichts an der Tatsache, dass ich auch dafür bin endlich diese Optimierungen in AI zu trennen.

Gast
2007-03-09, 16:52:56
und das Geschwaffel, von wegen ATI müßte man immer mit AI off benchen wäre vom Tisch.Wenn man ATI-Karten gegen einen G80 bencht, gehört AI auf jeden Fall abgeschaltet. 1xAF-Tests fallen weg, da das G80 zu stark benachteiligen würde, da dieser seine volle Leistung erst bei Nutzung von AF bringt. Und wer zockt schon auf einem G80 ohne AF?

Welchen vernünftigen Grund gibt es AI anzulassen? Ganz in Gegenteil, wenn jeder mit AI-Off bencht, ist ATI praktisch gezwungen die ganze AI-Sauerei zu entkoppeln.

Gast
2007-03-09, 16:54:48
Das ändert aber nichts an der Tatsache, dass ich auch dafür bin endlich diese Optimierungen in AI zu trennen.Das passiert aber nicht solange der AI-Schalter ATI auch noch Vorteile bringt, weil der Großteil der Reviewer mit AI-Standard bencht. Wenn jeder mit AI-Off testet, wird ATI ganz schnell mit diesem Mist aufhören.