PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil2]


Seiten : [1] 2 3 4 5 6

deekey777
2008-04-16, 01:42:15
Ich weiß nicht, wie ernst die Meldung ist, aber Overclockers.ru gibt eigentlich nicht jeden Mist wieder:
http://www.overclockers.ru/hardnews/28879.shtml

Die Autoren meinen, dass der GT200 ein echter Nachfolger des G80 darstellt und somit ein echter Ultrahighendsuperduper-Chip sei. Es kommt zur Verdopplung der Recheneinheiten, aber mit geändertem Aufbau: 10 Cluster mit je 24 "SPs" (8+8+8), der Chip soll in voller Konfiguration 80 TMUs haben ("Octo-TMUs"?). 32 ROPs = 8 ROP-Partitions. 512bit-SI mit GDDR3 (dabei schreibt der Autor, dass der Nachfolger des GT200 mit 256bit-SI und GDDR5 kommt), auch soll neben D3D10.1 auch programmierbares MSAA unterstützt werden (wie bei den Radeons).

Keine Ahnung, woher sie das Zeug haben. CDR-Info hat zB aus den Statements von Golem.de über den GT-200 diesem gleich 200 SPs verpasst.

Teil 1. (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=398955)

Coda
2008-04-16, 01:52:11
So pfeifen meine Vögel auch ungefähr.

mictasm
2008-04-16, 05:32:52
Hört sich spannend an. Da kann man sich ja mal wieder richtig auf ein Stück Hardware freuen.

Ailuros
2008-04-16, 09:02:55
(dabei schreibt der Autor, dass der Nachfolger des GT200 mit 256bit-SI und GDDR5 kommt)

Der Performance-chip dieser Generation schon; "Nachfolger" koennte auch nach refresh klingen. 4*64/GDDR5 und 55nm.

Gast
2008-04-16, 09:15:31
Die Autoren meinen, dass der GT200 ein echter Nachfolger des G80 darstellt und somit ein echter Ultrahighendsuperduper-Chip sei. Es kommt zur Verdopplung der Recheneinheiten, aber mit geändertem Aufbau: 10 Cluster mit je 24 "SPs" (8+8+8), der Chip soll in voller Konfiguration 80 TMUs haben ("Octo-TMUs"?). 32 ROPs = 8 ROP-Partitions. 512bit-SI mit GDDR3

Das wärs ja eventuell,wenn sich das Ding so gut ocen läst wie die G92er,ansonsten auch nur wischiwaschi.

AnarchX
2008-04-16, 09:24:23
Das wärs ja eventuell,wenn sich das Ding so gut ocen läst wie die G92er,ansonsten auch nur wischiwaschi.
Wer sagt, dass er es nicht tun wird?
Die aktuelen Verbrauchsspekulationen sehen jedenfalls ganz danach aus.

Gast
2008-04-16, 09:26:15
Wer sagt das ers tut?
Abwarten Tee trinken.

Gast
2008-04-16, 09:37:20
Die Frage ist nur was kommt dabei rau,die G92er (ich hatte 3 auch ne GX2)da geht es ab 730 Core,rückwärts mit den Pünktchen.

GeneralHanno
2008-04-16, 12:44:09
http://www.nordichardware.com/news,7644.html

nordichardware will was zum Gt200 wissen ...

deekey777
2008-04-16, 12:48:03
http://www.nordichardware.com/news,7644.html

nordichardware will was zum Gt200 wissen ...
Wie kommen die Typen auf 120 TMUs?
Sonst ist es wie eine Zusammenfassung mehrerer Äußerungen (die Daten sind eigentlich seit Sonntag auf einer Wanderung im Web).

Gast
2008-04-16, 12:51:42
Die Frage ist nur was kommt dabei rau,die G92er (ich hatte 3 auch ne GX2)da geht es ab 730 Core,rückwärts mit den Pünktchen.

Quatsch.

AnarchX
2008-04-16, 12:51:50
Wie kommen die Typen auf 120 TMUs?
http://img530.imageshack.us/img530/2010/helpfularchitecturea521ao8.png
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6425563&postcount=1056

Wobei ich da auch keinen wirklichen Sinn drin sehe, vorallem wären solche Duodeca-TMUs wohl ziemlich ineffizient.

GeneralHanno
2008-04-16, 12:59:05
das würde bedeuteb, dass die cluster allgemein um 50% verbreitert würden, also sowohl ALU, als auch TEX ...

Gast
2008-04-16, 12:59:19
DDR3 Speicher deutet glaube ich auf 'ne Menge davon sprich 2Gb villeicht. Find ich äusserst gut, dann kann man endlich überall SSAA vollknallen bzw. Crysis bei 2560x1600@4xAA spielen ... ;D

The_Invisible
2008-04-16, 13:01:50
DDR3 Speicher deutet glaube ich auf 'ne Menge davon sprich 2Gb villeicht. Find ich äusserst gut, dann kann man endlich überall SSAA vollknallen bzw. Crysis bei 2560x1600@4xAA spielen ... ;D

naja, die gpu wird trotzdem zu langsam sein für 4x4SSAA @ 2560. für quad sli wärs aber sicher interessant :D

mfg

GeneralHanno
2008-04-16, 13:03:53
ich denke es wird ein "günstiges GTX" modell mit 1GiB-1,0ns-RAM geben und eine ULTRA/QUADRO mit 0,83ns-RAM (1 oder 2 GiB denkbar!)

deekey777
2008-04-16, 13:04:21
http://img530.imageshack.us/img530/2010/helpfularchitecturea521ao8.png
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6425563&postcount=1056

Wobei ich da auch keinen wirklichen Sinn drin sehe, vorallem wären solche Duodeca-TMUs wohl ziemlich ineffizient.
Die gingen einfach "mathematisch" vor (16 vs 8 -> 24 vs 12), aber das ist IMO Quark.
Die Anzahl der TMUs und die Anzahl der "SPs" sind voneinander unabhängig. Auch wenn die Batch-Größe steigt (zB von 32 Pixeln auf 48), kommen die 8 TMUs damit klar, es wird nur länger dauern.

GeneralHanno
2008-04-16, 13:10:17
wie sieht das eigentlich mit der TMU/TAU rechenleistung aus? es ist ja so, dass CUDA,GPGPU, tesla, tegra usw immer weiter im kommen sind ...
liegen dabei eigentlich die TU immer brach und die shader machen alles?

Gast
2008-04-16, 13:33:42
naja, die gpu wird trotzdem zu langsam sein für 4x4SSAA @ 2560. für quad sli wärs aber sicher interessant :D

mfg
2560 @ 4x4SSAA kann gar nicht gehen wegen dem Rendertarget. Würde Nvidia villeicht auch noch ihr Rendertarget von 8196 auf 16392 anheben?

Godmode
2008-04-16, 13:39:36
wie sieht das eigentlich mit der TMU/TAU rechenleistung aus? es ist ja so, dass CUDA,GPGPU, tesla, tegra usw immer weiter im kommen sind ...
liegen dabei eigentlich die TU immer brach und die shader machen alles?

Nein, die TMUs können natürlich auch verwendet werden. Steht in der CUDA Doku drinnen, leider kann ich mich nicht mehr genau an die Details erinnern.

edit: Seite 32, NVIDIA_CUDA_Programming_Guide_1.0.pdf

Gast
2008-04-16, 13:49:53
Ich weiß nicht, wie ernst die Meldung ist, aber Overclockers.ru gibt eigentlich nicht jeden Mist wieder:
http://www.overclockers.ru/hardnews/28879.shtml

Die Autoren meinen, dass der GT200 ein echter Nachfolger des G80 darstellt und somit ein echter Ultrahighendsuperduper-Chip sei. Es kommt zur Verdopplung der Recheneinheiten, aber mit geändertem Aufbau: 10 Cluster mit je 24 "SPs" (8+8+8), der Chip soll in voller Konfiguration 80 TMUs haben ("Octo-TMUs"?). 32 ROPs = 8 ROP-Partitions. 512bit-SI mit GDDR3 (dabei schreibt der Autor, dass der Nachfolger des GT200 mit 256bit-SI und GDDR5 kommt), auch soll neben D3D10.1 auch programmierbares MSAA unterstützt werden (wie bei den Radeons).

Keine Ahnung, woher sie das Zeug haben. CDR-Info hat zB aus den Statements von Golem.de über den GT-200 diesem gleich 200 SPs verpasst.

Teil 1. (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=398955)

Das ist eh das was man von AiL schon lange hört.

GeneralHanno
2008-04-16, 14:06:34
Nein, die TMUs können natürlich auch verwendet werden. Steht in der CUDA Doku drinnen, leider kann ich mich nicht mehr genau an die Details erinnern.

edit: Seite 32, NVIDIA_CUDA_Programming_Guide_1.0.pdf

mit meinen schul-C kenntnissen, wird mir das nicht viel helfen ;)
wie ist denn etwa die leistung der TU zu bewerten (für wissenschaftliche berechnungen)? schließlich verschlingen sie ja extrem viele transistoren ... und nvidia will den GPGPU bereich ja nicht an ATi verlieren(die wesentlich mehr ALU leistung haben im vgl zu TEX).

Godmode
2008-04-16, 14:49:15
mit meinen schul-C kenntnissen, wird mir das nicht viel helfen ;)
wie ist denn etwa die leistung der TU zu bewerten (für wissenschaftliche berechnungen)? schließlich verschlingen sie ja extrem viele transistoren ... und nvidia will den GPGPU bereich ja nicht an ATi verlieren(die wesentlich mehr ALU leistung haben im vgl zu TEX).

Die TMUs könnten zb für Interpolation verwendet werden. Wieviel GFlops das sind, kann ich nicht sagen.

Gast
2008-04-16, 14:57:02
(die wesentlich mehr ALU leistung haben im vgl zu TEX).

sie haben zwar wesentlich mehr ALU-leistung im vergleich zu TEX, aber kaum mehr im vergleich zu nvidia. theoretisch sollte die NV-architektur auch noch effizienter arbeiten, wodurch die reale ALU-leistung kaum unterschiedlich ist.

GeneralHanno
2008-04-16, 15:03:29
naja mein gedanken war folgender: nvidia und ATi wollen ihre "grafikkarten" zunehmend auch auf dem GPGPU markt absetzen. dafür ist es (vermutlich) nachteilig, wenn viele transistoren in TUs steckt und weniger in ALUs ...

Gast
2008-04-16, 17:56:08
Quatsch.
Nö leider nicht.
Womit man eigenartigerweise am meisten rausholen kann,zumindest bei der GX2,auf Standard Takt laufen lassen und den Bus auf 105 erhöhen.
Die GTS/92 reagiert ab 730 überhaupt nicht mehr.

AnarchX
2008-04-17, 06:59:43
Original NVIDIA roadmaps put the GT200 launch in late Fall 2008. However internal memos sent out to board partners in early March detail that the GT200 processor has already been taped out. The same document alludes to the fact that the GT200 chip is very stable, and has been ready to ship for reference designs for several weeks already.
http://www.dailytech.com/NVIDIA+AMD+Set+to+Square+Off+Once+Again+This+Summer/article11451.htm
Also wohl doch ein A1-Shipping...;)

Gast
2008-04-17, 08:17:04
http://www.dailytech.com/NVIDIA+AMD+Set+to+Square+Off+Once+Again+This+Summer/article11451.htm
Also wohl doch ein A1-Shipping...;)

Steht wo? Man hat wohl eher etwas mehr Gas gegeben, nachdem RV770 wohl schon im Q2 kommt.

Gast
2008-04-17, 09:23:47
Steht wo? Man hat wohl eher etwas mehr Gas gegeben, nachdem RV770 wohl schon im Q2 kommt.

LOL, als könnte man mal einfach so mehr Gas geben wenn man zeitlich zurückliegt. Wir sprechen hier von Chip-Entwicklung und nicht von Autorennen.

AnarchX
2008-04-17, 09:26:23
Ich mag auch zu bezweifeln, dass NV mal eben schnell eine A2-Rev. nachgeschoben hat, es wird wohl einfach so sein, dass A1 schon in Produktion gehen kann, womit wohlmöglich schon gehofft hat, aber es in den ursprünglichen Roadmaps noch nicht geäußert hat.

Ailuros
2008-04-17, 09:57:12
http://www.dailytech.com/NVIDIA+AMD+Set+to+Square+Off+Once+Again+This+Summer/article11451.htm
Also wohl doch ein A1-Shipping...;)

http://forum.beyond3d.com/showpost.php?p=1149082&postcount=552

Bob ist ein NV engineer.

Steht wo? Man hat wohl eher etwas mehr Gas gegeben, nachdem RV770 wohl schon im Q2 kommt.

Man kann nicht "Gas geben" wenn ein chip nicht zu 100% operativ ist. Wenn das letztere zutrifft dann wird veroeffentlicht egal ob A1, A2 oder A99.

Beide Firmen haben das exakt gleiche Problem was GDDR5 Verfuegbarkeit betrifft und NV hat nicht innerhalb ein paar Wochen den MC um X Prozent erhoeht. RV770+GDDR3 verhungert an Bandbreite, waehrend GT200 offensichtlich keine aehnliche Sorgen haben wird.

Es ist eben so dass jemand hier es nicht glauben wollte dass das Ding vor Q3 antanzen koennte, gell reunion? ;)

GeneralHanno
2008-04-17, 10:22:33
als möglicher vorstellungs-termin wurde doch schonmal über ende august spekuliert (da ist irgend so ein nvidia convention ...)

reunion
2008-04-17, 10:31:45
RV770+GDDR3 verhungert an Bandbreite, waehrend GT200 offensichtlich keine aehnliche Sorgen haben wird.

Warum sollte ein RV770 an der Bandbreite verhungern? Das Ding soll auch nicht das High-End-Segment aufräumen. Das ein GT200 durch die höhere Leistung mehr Bandbreite benötigt sollte klar sein. Und sonst kann man zumindest immer noch auf GDDR4 ausweichen.


Es ist eben so dass jemand hier es nicht glauben wollte dass das Ding vor Q3 antanzen koennte, gell reunion? ;)

Noch kann ich ihn nicht kaufen und wir haben schon Q2. ;) Stay tuned!

deekey777
2008-04-17, 10:32:18
Steht wo? Man hat wohl eher etwas mehr Gas gegeben, nachdem RV770 wohl schon im Q2 kommt.
Ich frage mich, wieviele RV770 nötig sind, um mit dem GT200 mitzuhalten.

Ailuros
2008-04-17, 10:55:36
Warum sollte ein RV770 an der Bandbreite verhungern? Das Ding soll auch nicht das High-End-Segment aufräumen. Das ein GT200 durch die höhere Leistung mehr Bandbreite benötigt sollte klar sein. Und sonst kann man zumindest immer noch auf GDDR4 ausweichen.

Nur weil ALUs nicht so viel Bandbreite brauchen wie andere Einheiten, heisst es nicht dass man fuer X FLOPs auch nicht Y GB/s braucht (stets je nach Architektur). Und wenn's schon sein muss:

http://forum.beyond3d.com/showpost.php?p=1148854&postcount=531

Noch kann ich ihn nicht kaufen und wir haben schon Q2. ;) Stay tuned!

Keine Sorge. Ich bestell einen Besen aus Schokolade fuer Dich, damit er sich besser verdauen laesst ;) Die gestrige Einladung ueber e-mail war ziemlich deutlich.

Ich frage mich, wieviele RV770 nötig sind, um mit dem GT200 mitzuhalten.

Welche GT200-SKU denn genau?

dargo
2008-04-17, 11:20:25
Welche GT200-SKU denn genau?
Wieviele soll es am Anfang denn überhaupt geben? Weißt du schon was genaueres, falls du es überhaupt verraten darfst? GTX, GTS und GT oder eher nur zwei?

Gast
2008-04-17, 11:33:11
Ich frage mich, wieviele RV770 nötig sind, um mit dem GT200 mitzuhalten.

Genau einer!

dargo
2008-04-17, 11:37:24
Genau einer!
Das glaubst du wohl selbst nicht oder?

Gast
2008-04-17, 11:38:27
Genau einer!
Quatsch, ein RV770 hechelt einem G80 hinterher, 2 könnten dem G92b gefährlich werden.

mrt
2008-04-17, 11:39:01
Zwei RV770@GDDR4 wären wohl realistischer.

Die gelbe Eule
2008-04-17, 11:45:09
Also ob es nun 2Ghz @ 256bit werden oder "nur" 1.1GHz @ 512bit, ich glaube die letztere Variante ist wahrscheinlicher und kann schneller kommen.

Ailuros
2008-04-17, 12:11:32
Genau einer!

Mal sehen wie viele Besen wir diesmal wieder brauchen werden....

Wieviele soll es am Anfang denn überhaupt geben? Weißt du schon was genaueres, falls du es überhaupt verraten darfst? GTX, GTS und GT oder eher nur zwei?

Was gibt's da grosses zu verraten, wenn trash tabloid Seiten schon einen Treffer zum Thema gemacht haben?

8*64/512bit/1024MB
7*64/448bit/896MB

....und ich hoffe es wird diesmal keine 448MB Variante der letzteren geben.

Adam D.
2008-04-17, 12:20:32
Genau einer!
Ich glaub auch manchmal an Wunder ... manchmal.

8*64/512bit/1024MB
7*64/448bit/896MB
Also wohl genau wieder GTX und GTS, wie beim G80. Find ich ok, bin aber sehr auf den Preis der GTS gespannt.

dargo
2008-04-17, 12:25:19
Was gibt's da grosses zu verraten, wenn trash tabloid Seiten schon einen Treffer zum Thema gemacht haben?

8*64/512bit/1024MB
7*64/448bit/896MB

....und ich hoffe es wird diesmal keine 448MB Variante der letzteren geben.
Achso, ich dachte das wären noch unbestätigte Gerüchte. Sehr schön, knapp 900MB bei der abgespeckten Version finde ich sehr gut. :up:
Das mit dem GT200 und 448MB könnte ich mir aber gut vorstellen, dass so ein "Krüppel" wieder erscheint. :D

NV haben auch nicht bei der G8800GT die 256MB abgeschreckt. ;)

Ailuros
2008-04-17, 12:25:22
Um die $450?

NV haben auch nicht bei der G8800GT die 256MB abgeschreckt. ;

Ich hab mich mit dem Dingsbums nie beschaeftigt; selbst wenn sie sagen wir mal um 50-70 Euro billiger ist als die 512/GT ist es leider eine total falsche Investition.

Godmode
2008-04-17, 12:25:43
Mal sehen wie viele Besen wir diesmal wieder brauchen werden....


Was meinst du den immer mit Besen, ich stehe gerade auf der Leitung? Weiter oben hast auch was von nem Schockobesen erwähnt?

Sonyfreak
2008-04-17, 12:32:12
Was gibt's da grosses zu verraten, wenn trash tabloid Seiten schon einen Treffer zum Thema gemacht haben?

8*64/512bit/1024MB
7*64/448bit/896MB

....und ich hoffe es wird diesmal keine 448MB Variante der letzteren geben.Oder:
8*64/512bit/1024MB => GTX
6*64/384bit/768MB(384MB) => GTS/GT

Diese Variante wäre zwar für den Kunden schlechter, aber meiner Meinung nach im Vergleich zu den G80 Varianten wahrscheinlicher. :(
Was meinst du den immer mit Besen, ich stehe gerade auf der Leitung? Weiter oben hast auch was von nem Schockobesen erwähnt?Ich denke er spielt auf die Redewendung "Ich fress' nen Besen wenn das passieren sollte!" an. ;)

mfg.

Sonyfreak

Ailuros
2008-04-17, 12:40:46
Was meinst du den immer mit Besen, ich stehe gerade auf der Leitung? Weiter oben hast auch was von nem Schockobesen erwähnt?

Der vorige Gast wollte "wissen" dass ein einziger RV770 fuer einen einzigen GT200 ausreichen wuerde (ohne natuerlich zu erwaehnen welcher GT200 genau).

Ich stelle fuer den Fall einen Besen bereit, den ich entweder selber fressen muss oder eben der anonyme Gast der sowieso jeglichen Unsinn verantwortungslos in die Luft schmeissen kann.

Der Schokobesen ist fuer reunion; denn er wollte und will nicht glauben dass GT200 frueher als in Q3 antanzen wird.

Oder:
8*64/512bit/1024MB => GTX
6*64/384bit/768MB(384MB) => GTS/GT

Diese Variante wäre zwar für den Kunden schlechter, aber meiner Meinung nach im Vergleich zu den G80 Varianten wahrscheinlicher. :(

Nein. Die 8/7 partitions / Speichermengen Details stammen von AIBs.

dargo
2008-04-17, 12:41:52
Um die $450?

Das hört sich gut an. Dann dürfte eine GT200GTS bei guter Verfügbarkeit ca. 320-330€ kosten. Genau mein Ding. =)

Wenn ich das hier aber richtig verstanden habe:
8*64/512bit/1024MB
7*64/448bit/896MB

scheint die mögliche GTS diesmal nicht so stark kastriert zu werden als es noch beim G80 der Fall war. Ausgehend von den 450$ für die abgespeckte Version stehen die Chancen gar nicht mal so schlecht, dass die GT200GTX dann ca. 550$ kosten könnte. Oder wie siehst du das?


Ich hab mich mit dem Dingsbums nie beschaeftigt; selbst wenn sie sagen wir mal um 50-70 Euro billiger ist als die 512/GT ist es leider eine total falsche Investition.
Da bin ich ganz deiner Meinung. :)

Gast
2008-04-17, 12:48:25
Quatsch, ein RV770 hechelt einem G80 hinterher, 2 könnten dem G92b gefährlich werden.

Du meinst wohl den RV670. Dieser liegt ca. 30 % hinter dem G80. Der RV770 wird doppelt so schnell wie der RV670 und somit den G92 um ca. 50 % hinter sich lassen. Der R700 besteht aus 2 RV770 und wird damit ca. 3mal so schnell wie ein G92. Da wird auch der GT200 keine Chance haben, welcher ca. doppelt so schnell wie ein G92 wird, und eine Dualkarte mit dem GT200 wird es wohl aufgrund des hohen Stromverbrauches nicht geben.

Ailuros
2008-04-17, 12:49:37
scheint die mögliche GTS diesmal nicht so stark kastriert zu werden als es noch beim G80 der Fall war. Ausgehend von den 450$ für die abgespeckte Version stehen die Chancen gar nicht mal so schlecht, dass die GT200GTX dann ca. 550$ kosten könnte. Oder wie siehst du das?

Errr wieso? Die 8800GTS hatte auch nur eine ROP partition weniger als die GTX. Seit wann ist die Anzahl der ROP partitions eine Indizie fuer die Anzahl der clusters? Du hast Recht wenn die GT200"GTS" dann 9 cluster haben wird, oder eben nicht wenn sie nur 8 haben wird.

Bei der Chip-Komplexitaet hoeren sich 8 cluster aber doch wahrscheinlicher an.

---------------------


Die tolle Logik muss aber nun wirklich analysiert werden:

Du meinst wohl den RV670. Dieser liegt ca. 30 % hinter dem G80. Der RV770 wird doppelt so schnell wie der RV670 und somit den G92 um ca. 50 % hinter sich lassen.

Damit der RV770 um 50% den G92 hinter sich laesst, muessten RV670 und G92 gleich schnell sein im Durchschnitt. Welcher G92 aber bitte schoen?

Dem ganzen Unsinn zuliebe: wo immer z/stencil hauptsaechlich limitieren koennte macht RV770 einen gigantischen Sprung nach vorne, wo immer die Texelfuellrate limitiert gewinnen immer noch die GFs und wo immer arithmetik limitiert....na Du musst ja auch nicht alles auf einen Schlag erfahren.... :P

Der R700 besteht aus 2 RV770 und wird damit ca. 3mal so schnell wie ein G92.
Da wird auch der GT200 keine Chance haben, welcher ca. doppelt so schnell wie ein G92 wird, und eine Dualkarte mit dem GT200 wird es wohl aufgrund des hohen Stromverbrauches nicht geben.

Rolling On The Floor Laughing My A** Off :devil:

dargo
2008-04-17, 12:58:26
Errr wieso? Die 8800GTS hatte auch nur eine ROP partition weniger als die GTX. Seit wann ist die Anzahl der ROP partitions eine Indizie fuer die Anzahl der clusters?
Hmm, ich glaub ich habe hier was verwechselt. :redface:
Dann wird es bei der GTX wohl doch in Richtung 599$ (~430-450€) gehen.

Gibt es schon irgendwelche Informationen zu neuen AA-Modis? Mich würde mal interessieren ob NV beim CSAA noch was verändert hat. Ich habe letztens 16xQCSAA getestet und fand die Glättungsqualität durchaus überzeugend bei wenig Performanceverlust.

Gast
2008-04-17, 13:02:09
Rolling On The Floor Laughing My A** Off :devil:

Same here :D

Gast2
2008-04-17, 13:02:56
Ach ja, ich bin nicht der Gast der diesen RV770 bullshit von sich gibt.

Gast
2008-04-17, 13:06:38
[QUOTE=Ailuros;6437005]
Damit der RV770 um 50% den G92 hinter sich laesst, muessten RV670 und G92 gleich schnell sein im Durchschnitt. Welcher G92 aber bitte schoen?
QUOTE]

Die 9800GTX liegt ca. 10 % vor der 8800GTX (siehe Test auf Computerbase).
Der RV670 liegt dann 40 % hinter dieser. 100 % dazu und man ist 60 % vor der 9800GTX.

Ailuros
2008-04-17, 13:10:49
Ich habe letztens 16xQCSAA getestet und fand die Glättungsqualität durchaus überzeugend bei wenig Performanceverlust.

Du meinst 16x ohneQ oder? Falls Du tatsaechlich 16xQ (8x sparse MSAA + 12x CSAA) meinen solltest, dann haben sie entweder irgend etwas am Treiber gedreht dass die Leistung ploetzlich erhoeht hat, oder Dir faellt einfach (ich schaetze) die niedrige Aufloesung zu Gunsten.

Von 1x auf 16xCSAA hatte ich in 2048*1536 einen Verlust von 53% damals gemessen und von 1x auf 16xQ einen Verlust von 82%.

Von 1xAA-->4xMSAA ist der Verlust je nach Aufloesung:

1280 = 15%
1600 = 29%
2048 = 41%


Die 9800GTX liegt ca. 10 % vor der 8800GTX (siehe Test auf Computerbase).
Der RV670 liegt dann 40 % hinter dieser. 100 % dazu und man ist 60 % vor der 9800GTX.

Schoen und jetzt setzt Dich hin und erklaer mir in jeglicher Einzelheit woher die magischen 100% bzw. 60% genau her kommen sollen.

Gast
2008-04-17, 13:21:20
Schoen und jetzt setzt Dich hin und erklaer mir in jeglicher Einzelheit woher die magischen 100% bzw. 60% genau her kommen sollen.

Aus 800 SPs, 1Ghz Chiptakt und 4 Ghz Speichertakt (GDDR5).

Ailuros
2008-04-17, 13:25:23
Aus 800 SPs, 1Ghz Chiptakt und 4 Ghz Speichertakt (GDDR5).

Na dann hab ich Dir tatsaechlich nicht vorgeeilt Guten Appetit gewuenscht. Mit Pommes den Besen oder ohne? ;D:D:biggrin:

GeneralHanno
2008-04-17, 13:32:27
ein vergleich von RV770 (der wohl etwa auf 8800 GTX niveau liegen dürfte ...) und GT200 ist imo sinnlos, da es sich um 2 verschiedene märkte handelt. selbst wenn nidia doppelt so schnell wäre, dann senkt ati eben den preis (der RV770 wird von der die-size etwa zwischen G94 (100€) und G92 (200€) liegen ;))

Gast
2008-04-17, 13:34:13
Du meinst wohl den RV670. Dieser liegt ca. 30 % hinter dem G80.
Nö, RV670 liegt 30% hinter dem lahmsten G92, der 8800GT, diese ist bekanntlich langsamer als der schnellste G80.
Der schnellste G92 in der 9800GTX ist noch mal erheblich schneller.


Der R700 besteht aus 2 RV770 und wird damit ca. 3mal so schnell wie ein G92.
Toller Vergleich Multi GPU Schrott gegen Single GPUs vergleichen?
Übrigens mit dem R700 kanns auch die heutige 9800GX2 aufnehmen.

GeneralHanno
2008-04-17, 13:37:21
bevor ihr alle den RV670 sooo schlecht darstellt, guckt euch mal diesen test an:
http://www.hardware-infos.com/tests.php?test=39
scheinbar war die treiberabteilung von ATi besser als die jungs von nvidia ;)

Gast
2008-04-17, 13:39:48
Oder den hier: http://ht4u.net/reviews/2008/msi_n9600gt_zilent_1gb/index16.php
9600GT doppelt so schnell wie 3850, nanu? ;)

Ailuros
2008-04-17, 13:41:51
Der RV770 Spekulations-Thread ist hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=407254&page=19

...und es gibt in diesem Thread auch ziemlich gute Treffer was die Specs des chips betrifft. So langsam wird es mir zu bunt mit dem Schwachsinn von den angeblichen 800SPs pro chip.

w0mbat
2008-04-17, 13:44:06
AMD setzt in der aktuellen Roadmap den GT200 noch auf Q3 an und ist damit "Faster than the competition". Mal sehen ob das auch so klappt wie sie es sich vorstellen -.-

Gast
2008-04-17, 13:44:28
Nö, RV670 liegt 30% hinter dem lahmsten G92, der 8800GT, diese ist bekanntlich langsamer als der schnellste G80.
Der schnellste G92 in der 9800GTX ist noch mal erheblich schneller.

Falsch. Der RV670 ligt genau 35 % hinter der 9800GTX. Siehe Link:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/21/#abschnitt_performancerating

Gast
2008-04-17, 13:46:54
Falsch. Der RV670 ligt genau 35 % hinter der 9800GTX. Siehe Link:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/21/#abschnitt_performancerating
57%. :)
Der oberste Eintrag 1280x1024 ist CPU limitiert.

Gast
2008-04-17, 13:48:11
57%. :)
Der oberste Eintrag 1280x1024 ist CPU limitiert.

Im Durchschnitt über alle Einträge. Bei 8x Antialiasing ist wiederum der RV670 deutlich schneller.

Ailuros
2008-04-17, 13:50:13
AMD setzt in der aktuellen Roadmap den GT200 noch auf Q3 an und ist damit "Faster than the competition". Mal sehen ob das auch so klappt wie sie es sich vorstellen -.-


AMD hat in ihrer roadmap einen GT200? *kopfkratz*

Coda
2008-04-17, 13:50:31
Im Durchschnitt über alle Einträge. Bei 8x Antialiasing ist wiederum der RV670 deutlich schneller.
Man dürfte aber davon ausgehen, dass der 8xMSAA Bottleneck bei GT200 beseitigt wird. An der verfügbaren Bandbreite liegt es nicht.

Gast
2008-04-17, 13:52:58
Ja es liegt eher an der auf 1/5 geschrumpften z-Füllrate.

w0mbat
2008-04-17, 14:00:26
AMD hat in ihrer roadmap einen GT200? *kopfkratz*

Jep, so ne schöne Tabelle mit den ATI-Produkten links und den NVIDIA-GPUs rechts. Dann wird der Launchzeitpunkt verglichen und es ist sichtbar das ATI eindeutig viel besser und schneller arbeitet :wink:

Und auf dieser "Roadmap" steht der GT200 bei NVIDIA erst unter Q3 2008, während ATI aber schon im Q2 kontert. Damit will ich sagen das ATI, vor noch nicht so langer Zeit, wohl mit dem GT200 erst im Q3 gerechnet hat.

Gast
2008-04-17, 14:04:37
Jep, so ne schöne Tabelle mit den ATI-Produkten links und den NVIDIA-GPUs rechts. Dann wird der Launchzeitpunkt verglichen und es ist sichtbar das ATI eindeutig viel besser und schneller arbeitet :wink:

Ist das nicht immer so in Herstellerroadmabs? Dass die eigenen Produkte gut aussehen?

GeneralHanno
2008-04-17, 14:13:28
Man dürfte aber davon ausgehen, dass der 8xMSAA Bottleneck bei GT200 beseitigt wird. An der verfügbaren Bandbreite liegt es nicht.

da wäre ich mir nicht zu sicher ;)
eventuell ist der z-fill einbruch von 4x auf 8x immer noch gleich hoch ...
ich denke eher, dass nvidia sein speudo-8x-AA mit custom sample weiter entwickeln wird ...

Gast
2008-04-17, 14:16:39
ich denke eher, dass nvidia sein speudo-8x-AA mit custom sample weiter entwickeln wird ...
Wäre begrüßenswert, wenn 8xMSAA zu den inoffiziellen Modi wandert, dann testet hoffentlich niemand mehr diesen Rotz.

Ailuros
2008-04-17, 14:25:54
Jep, so ne schöne Tabelle mit den ATI-Produkten links und den NVIDIA-GPUs rechts. Dann wird der Launchzeitpunkt verglichen und es ist sichtbar das ATI eindeutig viel besser und schneller arbeitet :wink:

Und auf dieser "Roadmap" steht der GT200 bei NVIDIA erst unter Q3 2008, während ATI aber schon im Q2 kontert. Damit will ich sagen das ATI, vor noch nicht so langer Zeit, wohl mit dem GT200 erst im Q3 gerechnet hat.

Ein Quartal frueher oder spaeter unterstuetzt aber auch nicht die "faster than the competition" These. Aehnliche Thesen gab es ja auch vor dem R680.

Ich sag nur eines: falls es AMD tatsaechlich schaffen sollte mit einem ~240-250 die@55nm einen <600mm@65nm zu schlagen, dann kann NVIDIA tatsaechlich einpacken und sich mit Intel um die Effizienz von IGPs streiten.

Die roadmap duerfte uebrigens ziemlich alt sein; so naiv sind die Kerle bei AMD bei weitem nicht.

Wäre begrüßenswert, wenn 8xMSAA zu den inoffiziellen Modi wandert, dann testet hoffentlich niemand mehr diesen Rotz.

Ich will hoffen dass es weiterhin getestet wird und dass die Forschung und Entwicklung was AA betrifft zu weiteren Fortschritten sowohl im Bereich Bildqualitaet als auch Leistung fuehren wird.

Coda
2008-04-17, 14:28:41
da wäre ich mir nicht zu sicher ;)
Es ist in Benchmarks inzwischen relevant. Mehr braucht man dazu eigentlich nicht sagen.

Ich weiß dass es dir lieber wäre weiterhin einen Punkt zu haben auf den man hirnlos flamen kann, aber ich bin mir ziemlich sicher, dass NVIDIA dir den Gefallen nicht tut.

ich denke eher, dass nvidia sein speudo-8x-AA mit custom sample weiter entwickeln wird ...
Erstmal ist es nicht "pseudo" sondern für >90% der Kanten äquivalent zu 8xMSAA und zweitens gibt's da nicht viel dran zu verbessern außer evtl. die Samplezuordnung.

Ailuros
2008-04-17, 14:39:45
Erstmal ist es nicht "pseudo" sondern für >90% der Kanten äquivalent zu 8xMSAA und zweitens gibt's da nicht viel dran zu verbessern außer evtl. die Samplezuordnung.

8xCSAA ist eben dank der beschissenen Sample-Positionierung, fast nutzlos im Vergleich zu 4xMSAA.

looklikeass(tm):

http://www.beyond3d.com/images/reviews/g80-iq/aa/b3d/g80-8x.png

8xAAasitshouldbe(tm):

http://www.beyond3d.com/images/reviews/g80-iq/aa/b3d/g80-8xQ.png

aTADbetter(tm):

http://www.beyond3d.com/images/reviews/g80-iq/aa/b3d/g80-16x.png

http://www.beyond3d.com/content/reviews/3/2

dargo
2008-04-17, 15:04:59
Die 9800GTX liegt ca. 10 % vor der 8800GTX (siehe Test auf Computerbase).
Der RV670 liegt dann 40 % hinter dieser. 100 % dazu und man ist 60 % vor der 9800GTX.
Prozentrechnung ist aber nicht deine Stärke. :)

Wenn der RV670 40% langsamer als die G9800GTX sein sollte dann ist die G9800GTX 67% schneller als der RV670, wenn man es mal von der anderen Seite sieht. Sollte also ein RV770 100% schneller sein als der RV670 (was ich mir übrigens nicht vorstellen kann) wäre der RV770 nur 20% schneller als die G9800GTX.

Du meinst 16x ohneQ oder? Falls Du tatsaechlich 16xQ (8x sparse MSAA + 12x CSAA) meinen solltest, dann haben sie entweder irgend etwas am Treiber gedreht dass die Leistung ploetzlich erhoeht hat, oder Dir faellt einfach (ich schaetze) die niedrige Aufloesung zu Gunsten.

Von 1x auf 16xCSAA hatte ich in 2048*1536 einen Verlust von 53% damals gemessen und von 1x auf 16xQ einen Verlust von 82%.

Von 1xAA-->4xMSAA ist der Verlust je nach Aufloesung:

1280 = 15%
1600 = 29%
2048 = 41%

Ich meine schon 16xQCSAA, zumindest habe ich das mal bei DIRT über den nHancer eingestellt. Im Vergleich zu 2xMSAA war der Leistungsverlust relativ gering. Um mal ein grobes Beispiel zu nennen - 33fps mit 1680x1050 2xMSAA/16xAF und 26fps mit 1680x1050 16xQCSAA/16xAF.

PS: übrigens, die Auflösung ist bei mir mittlerweile etwas nach oben gegangen dank des neuen 22" TFTs. :wink:

PPS: Hier gibts die Bilder dazu.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6435294&postcount=989
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6435861&postcount=992
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6436846&postcount=995

Also mir gefällt die Kantenglättung sehr gut. Mehr brauche ich in DIRT zb. nicht.

Ailuros
2008-04-17, 15:24:56
Klingt dann eher nach CPU Limitierung. Etwas mehr als 20% von 2x auf 16xQ kann man sonst nicht erklaeren.

dargo
2008-04-17, 15:31:35
Klingt dann eher nach CPU Limitierung. Etwas mehr als 20% von 2x auf 16xQ kann man sonst nicht erklaeren.
Nee, also 26fps in DIRT ist alles andere als ein CPU-Limit mit einem ~3,3Ghz C2D. Es war wie gesagt grob geschätzt. Ich liefere gleich mal genaue Werte. :)

Edit:
Ich glaube den Vergleich kann ich mir schenken. Bei 16xQCSAA habe ich in DIRT mehr Details als bei 2xMSAA. :|
Das war mir vorher gar nicht aufgefallen. Wie kann es sein, dass ich nur durch das switschen zwischen Game und Desktop plötzlich andere Details habe? :confused:


http://www.pic-upload.de/17.04.08/6ejo39.jpg


http://www.pic-upload.de/17.04.08/yroqr9.jpg


Edit2:
Ok, jetzt wieder mit den gleichen Details. Keine Ahnung woran es lag.

http://www.pic-upload.de/17.04.08/zxkjs2.jpg

Also doch "nur" ~20% Verlust.

Coda
2008-04-17, 16:05:05
8xCSAA ist eben dank der beschissenen Sample-Positionierung, fast nutzlos im Vergleich zu 4xMSAA.

looklikeass(tm):
Hatte ich nicht mehr so im Kopf. Das Problem ist wohl dass die 4 vollen Samples wohl im normalen 4xMSAA-Raster sein sollten um immer gute Qualität zu erreichen auch in den Fällen wo CSAA nicht funktioniert. Und die anderen 4 anzuordnen wird dann schwierig.

Spasstiger
2008-04-17, 16:43:59
Beim großen D10E kann man wohl von dreifacher- bis vierfacher 9600-GT-Performance ausgehen, oder?
Dreifache 9600-GT-Performance wäre auf jeden Fall schon nett, das wäre dann schon mehr als 50% schneller als eine 9800 GX2 bei Nicht-VRAM-Limitierung und zwar ohne Mikroruckler.

GeneralHanno
2008-04-17, 16:49:47
wenn man sich die internen (spekulativen) daten so anschaut, dann hat man überall etwa die doppelte G92 performence (transistoren-count, shader, ROPs, SI, speichermenge ...) den rest kannst du dir ja dann selber überlegen. noch ein paar effizienzsteigerungen und das wäre dann (aber eher maximal) 3 fache G94 performence ...

Coda
2008-04-17, 17:21:17
Auch für dich gibt's nen Besen.

Gast
2008-04-17, 17:38:14
Beim großen D10E kann man wohl von dreifacher- bis vierfacher 9600-GT-Performance ausgehen, oder?
Dreifache 9600-GT-Performance wäre auf jeden Fall schon nett, das wäre dann schon mehr als 50% schneller als eine 9800 GX2 bei Nicht-VRAM-Limitierung und zwar ohne Mikroruckler.

Dann läuft ja Crysis endlich auf 1920xx1200 mit 8xAA

Gast
2008-04-17, 17:51:25
Dann läuft ja Crysis endlich auf 1920xx1200 mit 8xAA

Niemals! Das wird höchstens gerade so für 1920x1200 ohne AA ausreichen!

reunion
2008-04-17, 18:53:27
Der Schokobesen ist fuer reunion; denn er wollte und will nicht glauben dass GT200 frueher als in Q3 antanzen wird.


Nachdem du schon derart vehement darauf drängst scheint sich das ja geändert zu haben. Dann dürften die beiden Chips ja fast gleichzeitig kommen.

Erstmal ist es nicht "pseudo" sondern für >90% der Kanten äquivalent zu 8xMSAA und zweitens gibt's da nicht viel dran zu verbessern außer evtl. die Samplezuordnung.

Schon selbst verglichen? Wohl kaum. Der Modus heißt zwar "8x", ist davon aber in der Praxis doch deutlich entfernt.

robbitop
2008-04-17, 18:59:15
Naja man kann die Coverage Mask schon noch verbessern. Mit dem jetzigen Verfahren dürfen ja nicht all zu viele Dreiecke sich in einem Pixel befinden bzw sich dort schneiden für ein akkurates Ergebnis.

LovesuckZ
2008-04-17, 19:01:24
Schon selbst verglichen? Wohl kaum. Der Modus heißt zwar "8x", ist davon aber in der Praxis doch deutlich entfernt.

8xCSAA ist auch überflüsig. 16xCSAA sieht bei null Leistungsverlust wesentlich besser aus.

reunion
2008-04-17, 19:03:39
Ich sag nur eines: falls es AMD tatsaechlich schaffen sollte mit einem ~240-250 die@55nm einen <600mm@65nm zu schlagen, dann kann NVIDIA tatsaechlich einpacken und sich mit Intel um die Effizienz von IGPs streiten.

Das ist auch nicht der Sinn des Chips. AMD wird mit RV770 alles unter GT200 abdecken und da reicht es fürs erste wenn man den G92 schlägt. NV wird ihr 600mm² Die wohl gerade zu beginn nicht sonderlich günstig anbieten können.

robbitop
2008-04-17, 19:03:54
8xCSAA ist auch überflüsig. 16xCSAA sieht bei null Leistungsverlust wesentlich besser aus.
Weder 8xCSAA noch 16xCSAA haben "null" Frameratenverlust. Sie haben sogar für ein solches Verfahren einen nicht unerheblichen Frameratenverlust.

LovesuckZ
2008-04-17, 19:06:01
Weder 8xCSAA noch 16xCSAA haben "null" Frameratenverlust. Sie haben sogar für ein solches Verfahren einen nicht unerheblichen Frameratenverlust.

Ich bezog den Leistungverlust nur auf 8x -> 16x.
Ansonsten verbraucht 8 und 16 nicht wesentlich mehr Leistung als 4xMSAA - auf meinem System. Weder im Naturetest noch in Farcry mit HDR waren sie deutlich langsamer.

AnarchX
2008-04-17, 19:16:50
Das ist auch nicht der Sinn des Chips. AMD wird mit RV770 alles unter GT200 abdecken und da reicht es fürs erste wenn man den G92 schlägt.
Fragt sich nur ob man einen ähnlich großen G92B schlägt der neben höheren Taktraten wohlmöglich eben auch auf GDDR5 setzen könnte.
Die viel genannten 50% gegenüber RV670XT ist ja auch schon eine 9800GTX schneller, wenn man mal das praxisunrelevante 8xMSAA außen vor lässt.

reunion
2008-04-17, 19:31:51
Fragt sich nur ob man einen ähnlich großen G92B schlägt der neben höheren Taktraten wohlmöglich eben auch auf GDDR5 setzen könnte.

GDDR5 kannst du im Q2 vergessen wie es momentan aussieht.


Die viel genannten 50% gegenüber RV670XT ist ja auch schon eine 9800GTX schneller, wenn man mal das praxisunrelevante 8xMSAA außen vor lässt.

Die 50% werden momentan nur von FUAD genannt. Wie viel RV770 schneller sein wird wird sehr von der Anwendung abhängen. Das ALU/TEX-Verhältnis wird sich deutlich in Richtung TEX verschieben.

deekey777
2008-04-17, 19:33:03
Wen interessiert CSAA, wenn der GT200 mit CFAA kommen soll?

LovesuckZ
2008-04-17, 19:33:47
Und wie soll ein Chip mit exakt der Hälfte der Filtereinheiten schneller als das Konkurrenzprodukt sein, wenn hier ein limitierender Faktor entstünde?

Wen interessiert CSAA, wenn der GT200 mit CFAA kommen soll?

Warum sollte nVidia so etwas einsetzen, wenn sie die bessere Alternative besitzen?

deekey777
2008-04-17, 19:35:27
...
Warum sollte nVidia so etwas einsetzen, wenn sie die bessere Alternative besitzen?
Wie kommst du darauf?

reunion
2008-04-17, 19:36:50
Und wie soll ein Chip mit exakt der Hälfte der Filtereinheiten schneller als das Konkurrenzprodukt sein, wenn hier ein limitierender Faktor entstünde?


Indem der limitierende Faktor weit weniger oft in diesen Bereich entstehen wird und so der Chip seine (Rechen-)Leistung besser entfalten kann.

LovesuckZ
2008-04-17, 19:37:53
Wie kommst du darauf?

Kein Blur und geringerer Leistungsverlust.

Indem der limitierende Faktor weit weniger oft in diesen Bereich entstehen wird und so der Chip seine (Rechen-)Leistung besser entfalten kann.

Er kann aber nur in dem Faktor schneller sein. Und in einer Zeitspanne wird es sich zwischen 50(ALU)-100(TEX)% einpendeln. Das würde für Gleichstand reichen, aber nicht für bessere Leistung.

deekey777
2008-04-17, 19:42:19
Kein Blur und geringerer Leistungsverlust.

...
In der Humus-Demo erreichen die Geforces mit "Shader-AA" bessere Frames und bessere Qualität.

LovesuckZ
2008-04-17, 19:44:17
In der Humus-Demo erreichen die Geforces mit "Shader-AA" bessere Frames und bessere Qualität.

Das ist ja eher eine Anwendungssache. Wenn die Applikation das zu will, sollte die Hardware es so auch ausführen.

AnarchX
2008-04-17, 19:44:26
GDDR5 kannst du im Q2 vergessen wie es momentan aussieht.

G92B@Desktop (http://www.vr-zone.com/articles/Nvidia_First_55nm_Desktop_Graphics%3B_GeForce_9800_GT/5714.html) scheint wohl sein Debüt erst im Q3 zu haben.

Gast
2008-04-17, 20:01:44
G92B@Desktop (http://www.vr-zone.com/articles/Nvidia_First_55nm_Desktop_Graphics%3B_GeForce_9800_GT/5714.html) scheint wohl sein Debüt erst im Q3 zu haben.

Damit kommt dann wohl GT200 nicht mehr im Q2.

Gast
2008-04-17, 20:03:49
GT200 = Q2
G92B = Q3

Gast
2008-04-17, 20:05:54
GT200 = Q2
G92B = Q3

Aus der oberen Quelle:
Now we learned that the first desktop graphics card to be based on 55nm G92b core will be GeForce 9800 GT and it will be launched in July along with GeForce 9900 series. 9800 GT will support Hybrid Power.

Wie passt da der GT200 rein?

Gast
2008-04-17, 20:10:21
Niemals! Das wird höchstens gerade so für 1920x1200 ohne AA ausreichen!
Ich hoffe wenigstens auf 3840x1024... wenn nicht dann leckt mich am Arsch.
Übrigens hängt bei Crysis sehr viel an Speichermenge wenn NV dem GT200 Chip nicht grosszügigen Speicher spendiert wird trotz eventuell vorhandener Leistung für 1920x1200@8xAA kein 8xAA möglich sein.

mapel110
2008-04-17, 20:15:16
Bei 8xAA geht vorallem erstmal die Z-Füllrate aus bzw. sinkt auf ein Fünftel, wenn ich das richtig in Errinnerung hab.

G92 @55nm kann doch prima im 3. Quartal passen.

Erst kam G80 @90nm
dann kam G92 @65nm
dann kommt G200 @65nm
dann kommt G92 @55nm
dann kommt ...
:)

Gast
2008-04-17, 20:23:16
Bei 8xAA geht vorallem erstmal die Z-Füllrate aus bzw. sinkt auf ein Fünftel, wenn ich das richtig in Errinnerung hab.

G92 @55nm kann doch prima im 3. Quartal passen.

Erst kam G80 @90nm
dann kam G92 @65nm
dann kommt G200 @65nm
dann kommt G92 @55nm
dann kommt ...
:)

Erklärt aber nicht das "55nm G92b core will be GeForce 9800 GT and it will be launched in July along with GeForce 9900 series". Entweder ist der GT200=9900 Series, dann erscheint dieser wohl erst im July. Und wenn nicht, dann noch später.

Botcruscher
2008-04-17, 20:33:25
Irgendwie pack ich es nicht.

GT200 high end Q2
G92b mainstream Q3

Warum schiebt man einen "veralteten" Chip nach. Oder was soll G92b denn nun sein? Mit der Leistungslücke komm ich irgendwie nicht klar. Imo kann es auch garnicht mehr lange dauern. Der Ausverkauf ist in vollem Gange. Die Karten sind in 3,5 Monaten um 50% günstiger geworden. Wenn das so weider geht gibts bald nix mehr über 80€.

Gast
2008-04-17, 20:36:03
Ich hoffe wenigstens auf 3840x1024... wenn nicht dann leckt mich am Arsch.

Also bei der Auflösung wird die benötigte Power nochmal deutlich höher sein als nur der Mehrbedarf durch die ~71% mehr Pixel gegenüber 1920x1200, da du ja sicherlich einen horizotal stark erhöhten FOV fährst und somit viel mehr sichbar ist (was ja auch alles berechnet werden will)! Daher brauchst gegenüber 1920x1200 sicher über 100% mehr Power (trotz nur ~71% mehr Pixel). Und da eine 8800GTX auf 1920x1200 ohne AA und VERY HIGH oft nur noch 10-15fps liefert, wird ein G200 (bei 3x GTX-Leistung) vielleicht grad noch für 1920x1200 2xAA ausreichen, wenn man durchgehend über 30fps haben will!

Gast
2008-04-17, 20:41:37
Warum schiebt man einen "veralteten" Chip nach. Oder was soll G92b denn nun sein?
Weil man einen Performance Chip braucht, auf Dauer ist G92 in 65nm einfach zu groß/teuer, in 55nm kann er gut mitspielen ist sogar billiger als RV770.

Eigentlich würde ich eine komplette Umstellung der kleineren Chips auf 55nm erwarten, vor allem auch noch G94.

Bei 8xAA geht vorallem erstmal die Z-Füllrate aus bzw. sinkt auf ein Fünftel, wenn ich das richtig in Errinnerung hab.
Ja: http://www.hardware.fr/articles/671-4/ati-radeon-hd-2900-xt.html

dargo
2008-04-17, 20:54:52
Die Karten sind in 3,5 Monaten um 50% günstiger geworden.
Wo hast du das denn her? :confused:

AnarchX
2008-04-17, 20:54:56
Irgendwie pack ich es nicht.

GT200 high end Q2
G92b mainstream Q3

Warum schiebt man einen "veralteten" Chip nach. Oder was soll G92b denn nun sein?
7800GTX Juni 2005
6800 GS November 2005

;)

Wie der Gast schon sagt, ist G92B für alles unter GT200 die beste Wahl und durch einen optischen Shrink recht schnell hergestellt und bietet Raum für weitere Preissenkungen bzw. Produktrefreshes mit höheren Taktraten um die Preise zu halten.

Eigentlich würde ich eine komplette Umstellung der kleineren Chips auf 55nm erwarten, vor allem auch noch G94.
Laut VR-Zone sollen alle G9x bis auf G98 auf 55nm migrieren.

dargo
2008-04-17, 20:59:19
Also bei der Auflösung wird die benötigte Power nochmal deutlich höher sein als nur der Mehrbedarf durch die ~71% mehr Pixel gegenüber 1920x1200, da du ja sicherlich einen horizotal stark erhöhten FOV fährst und somit viel mehr sichbar ist (was ja auch alles berechnet werden will)! Daher brauchst gegenüber 1920x1200 sicher über 100% mehr Power (trotz nur ~71% mehr Pixel). Und da eine 8800GTX auf 1920x1200 ohne AA und VERY HIGH oft nur noch 10-15fps liefert, wird ein G200 (bei 3x GTX-Leistung) vielleicht grad noch für 1920x1200 2xAA ausreichen, wenn man durchgehend über 30fps haben will!
Ich verstehe eh nicht wie man auf die Idee kommt, eine Grafikkarte würde für 1920x1200 mit AA reichen. Das ist und bleibt SLI/CF Gebiet. Und daran wird sich auch mit dem GT200 so schnell nicht viel ändern. Es sei denn wir bekommen keine Games mehr die für den PC "zugeschnitten" sind wie Crysis sondern nur noch Portierungen.

Botcruscher
2008-04-17, 21:00:39
Weil man einen Performance Chip braucht


Das ist ja klar. Die Frage ist wie schnell soll das Ding werden. Wenn ein GT200 2,5 mal schneller sein soll als eine 9600GT, dann müste der G92b ja mindestens 2/3 davon bringen. Sonst wird das ganau so eine Versagerkarte wie die 8600er.

Als Lückenbüßer bis zu einem ordentlichen Mainstreamchip ist Q3 irgendwie schon wieder zuspät. Bis Weihnachten bekommt man da nichts mehr reingedrückt. Also wieder für 2 Jahre geplant oder wie?

robbitop
2008-04-17, 21:03:03
Warum sollte nVidia so etwas einsetzen, wenn sie die bessere Alternative besitzen?
Edge CFAA ist derzeit die beste Methode die du haben kannst. Die Grenzen des Boxfilters sind bei AA längst erreicht. Mit einer guten Implementierung erhält man mit einem solchen Downsamplingfilter schnelles und qualitativ sehr gutes AA.
Es spricht auch nichts dagegen, das mit Coverage Sampling zu kombinieren.
So erhält man neben eines besseren Downsampling Filters auch noch eine u.U. bessere Gewichtung der vorhandenen Samples.

Aber natürlich greift auch hier, wie immer, das Gesetz des sinkenden Grenzertrags und der Nutzer sieht den Fortschritt immer weniger.


Thema GT200 und G92b:

Wenn der GT200 im Prinzip nur ein verdoppelter G92 ist, macht es doch Sinn den G92b als Performancechip hinterher zu jagen. Man muss kaum R&D dafür investieren.
Ähnliche Situation hatten wir beim R420 schonmal. Dort wurde die X600 auch vom RV360 gestellt, der nur ein RV350 mit PEG Interface war.

Ailuros
2008-04-17, 21:30:16
Nachdem du schon derart vehement darauf drängst scheint sich das ja geändert zu haben. Dann dürften die beiden Chips ja fast gleichzeitig kommen.

Soll ich ein paar Wochen in der Datenbank zurueckblaettern und Dir aehnliche Andeutungen von mir in aehnlichen Debatten die wir hatten nochmal zeigen? Wie oft hab ich den internen Optimismus erwaehnt?

reunion
2008-04-17, 21:41:24
Soll ich ein paar Wochen in der Datenbank zurueckblaettern und Dir aehnliche Andeutungen von mir in aehnlichen Debatten die wir hatten nochmal zeigen? Wie oft hab ich den internen Optimismus erwaehnt?

NV führte GT200 in den AIB-Roadmaps stets im Herbst. Offensichtlich scheint man die eigenen Erwartungen übertreffen zu können. Schön wenn es so ist. Mein Pessimismus beruhte jedenfalls nicht auf irgendwelchen Bauchgefühlen oder dgl.

Thema GT200 und G92b:

Wenn der GT200 im Prinzip nur ein verdoppelter G92 ist, macht es doch Sinn den G92b als Performancechip hinterher zu jagen. Man muss kaum R&D dafür investieren.
Ähnliche Situation hatten wir beim R420 schonmal. Dort wurde die X600 auch vom RV360 gestellt, der nur ein RV350 mit PEG Interface war.

Es fehlt aber wohl zumindest D3D10.1 bei G92b und ev. andere Neuerungen des GT200 wird man auch vergeblich suchen. Insgesamt ist die Situation sicher nicht optimal, aber nV braucht eben was gegen RV770 und da bietet sich so ein Shrink natürlich an.

robbitop
2008-04-17, 22:23:23
Erstmal abwarten, ob GT200 überhaupt D3D10.1 bringt. Falls ja, wäre ein G92b im Performancesegment als Übergang erstmal kein Beinbruch. Die abgespeckten GPUs kommen traditionell eh erst Monate nach dem Launch der Vollausbauvariante.

Nightspider
2008-04-17, 22:25:22
Ich denke...

G92b @ late Q2 oder Anfang Q3
Gt200 @ late Q3

G92b(desktop @Q3) = 10600gt (?) Nachfolger der 9600gt mit hohem Shadertakt und langsamen GDDR5

Gibt es Gerüchte, das der G92b ein paar mehr ShaderUnits bekommt ?

Ailuros
2008-04-17, 22:30:16
NV führte GT200 in den AIB-Roadmaps stets im Herbst. Offensichtlich scheint man die eigenen Erwartungen übertreffen zu können. Schön wenn es so ist. Mein Pessimismus beruhte jedenfalls nicht auf irgendwelchen Bauchgefühlen oder dgl.

Welche AIB roadmaps? Als ich genaueres ueber das Ding erfuhr hiess es auch "done & ready" und nein zu dem Zeitpunkt wusste noch keiner dass es sich um [10*(3*8)] handelt. Ich wartete brav ab bis jemand anders ueber >200SPs blubbert bis ich mich darueber auesserte. Es war zur gleichen Zeit als ich 65nm sicherte.

Nix da mit besseren Erwartungen; bis gestern meckerten so manche dass das Ding zu spaet dran sei (nein natuerlich nicht Du); aber es ist weder vorzeitig noch zu spaet.

Ich kann es gar nicht oft sagen dass man nie zu 100% mit dem Scheiss durchblicken kann. Es gibt tatsaechlich einen 55nm chip von NV der hoechstwahrscheinlich mit GDDR5 in Q3 ankommen wird.

Es fehlt aber wohl zumindest D3D10.1 bei G92b und ev. andere Neuerungen des GT200 wird man auch vergeblich suchen. Insgesamt ist die Situation sicher nicht optimal, aber nV braucht eben was gegen RV770 und da bietet sich so ein Shrink natürlich an.

Wenn ich jetzt fuer G92b das fehlende (hoechstwahrscheinlich) 10.1 ankreuze und dann an all das denke was beim RV770 dazukam, dann grenzt der obrige Paragraph ans laecherliche. Man muss einen kompletten Vogel haben wenn man fuer D3D10 und noch mehr fuer 10.1 mit nur 2z/clock antanzt.

Ich verstehe eh nicht wie man auf die Idee kommt, eine Grafikkarte würde für 1920x1200 mit AA reichen. Das ist und bleibt SLI/CF Gebiet. Und daran wird sich auch mit dem GT200 so schnell nicht viel ändern. Es sei denn wir bekommen keine Games mehr die für den PC "zugeschnitten" sind wie Crysis sondern nur noch Portierungen.

Das ist mir zu stark generalisiert. 1920*1200 ist nicht eine sooo verdammt hohe Aufloesung dass selbst bei einem SLi/Crossfire System selbst mit der staerksten CPU die letztere nicht immer noch Limitierungen zeigen wird. Crysis ist momentan die Aussnahme, bleibt abzusehen ob sagen wir mal bis zu H2 2009 nochmal ca. 10 Titel a la Crysis auf die Ladentische kommen werden.

AnarchX
2008-04-17, 22:30:22
Gt200 @ late Q3

Die neueste News von Dailytech verpasst? GT-200 ist fertig.


Gibt es Gerüchte, das der G92b ein paar mehr ShaderUnits bekommt ?
Warum sollte eine neue Revision einer GPU grundlegende Änderungen in der Architektur erfahren? :|
G92B wird sicherlich nicht als GF10 vermarktet wird, mehr Shader(also wohl 3x Vec8 pro Cluster) gibt es erst mit weiteren GT-xxx, die man aber wohl erst Anfang 2009 @45nm(?) erwarten kann.

Nightspider
2008-04-17, 22:35:59
Die neueste News von Dailytech verpasst? GT-200 ist fertig.


Warum sollte eine neue Revision einer GPU grundlegende Änderungen in der Architektur erfahren? :|
G92B wird sicherlich nicht als GF10 vermarktet wird, mehr Shader(also wohl 3x Vec8 pro Cluster) gibt es erst mit weiteren GT-xxx, die man aber wohl erst Anfang 2009 @45nm(?) erwarten kann.

Ich lese immer nur "hat Tape-Out hinter sich". Fertig schon, Lieferbar @ late Q3

Dank 55nm wäre der G92b nochmal ein Stück kleiner als ein G92, man könnte dann günstig einen 9600gt-Nachfolger anbieten.
Wieso sollte man den G92b auch nicht als Low-End-Lösung mit GF10 betiteln dürfen ?
Grundlegende technische Änderungen scheint es nicht zu geben.
-> Kein DX10.1 und kein anderer Schnickschnack...

LovesuckZ
2008-04-17, 23:03:55
Wenn ich jetzt fuer G92b das fehlende (hoechstwahrscheinlich) 10.1 ankreuze und dann an all das denke was beim RV770 dazukam, dann grenzt der obrige Paragraph ans laecherliche. Man muss einen kompletten Vogel haben wenn man fuer D3D10 und noch mehr fuer 10.1 mit nur 2z/clock antanzt.


Keine verbesserten ROPs beim rv770?

Ailuros
2008-04-17, 23:21:03
Keine verbesserten ROPs beim rv770?

Natuerlich hat RV770 4z/clock afaik. Ich meinte lediglich dass die Liste an Einzelheiten die AMD seit R600 aufholen musste und muss um einiges laenger ist als das fehlende D3D10.1 auf G92 und wohl auch auf G92b.

Nur die Z und Pixel-Fuellraten werden leicht hoeher sein auf RV770 im Vergleich zu G92b.

Und wenn ich schon den konstanten Schwachsinn ueber 10.1 lesen muss, wuerde NV 10.1 kompliant sein, wuerden sie sich wenden und drehen dass sich zumindest ein IHV hinhockt und einen zusaetlichen path schreibt. So einen Vorteil haette man um einiges besser vermarkten koennen.

Coda
2008-04-17, 23:36:59
Wie meinst du das jetzt? Das D3D10.1 wahrscheinlich ist oder eher nicht?

Irgendwie würde ich ihnen auch zutrauen es nicht zu bringen :usad:

Gast
2008-04-17, 23:56:34
Das ist ja klar. Die Frage ist wie schnell soll das Ding werden. Wenn ein GT200 2,5 mal schneller sein soll als eine 9600GT, dann müste der G92b ja mindestens 2/3 davon bringen. Sonst wird das ganau so eine Versagerkarte wie die 8600er.

Die 8600GT war deutlich schwächer im Vergleich. 1/4 - 1/3 G80 Leistung.
Jetzt soll schon die 9600GT 0,4 GT200 bringen? Ist doch super.
Dazwischen gibts noch G92b mit 1/2 - 2/3 GT200 Leistung, dann gibt es einen abgespeckten GT200 als GTS und schwups haben wir ein vollbesetztes Feld von unten bis ganz nach oben, ich sehe hier keine Riesen Lücke, wie zu G80 Zeiten.


Dank 55nm wäre der G92b nochmal ein Stück kleiner als ein G92, man könnte dann günstig einen 9600gt-Nachfolger anbieten.
Wieso sollte man den G92b auch nicht als Low-End-Lösung mit GF10 betiteln dürfen ?
Ich bezweifel das die 9600GT abgelöst wird, wenn dann fehlt ein G94 @ 55nm.
G92b als Low-End?
Wo lebst du das Ding ist Performance, Low-End ist der G96/G98.

Nightspider
2008-04-18, 00:14:57
Ich bezweifel das die 9600GT abgelöst wird, wenn dann fehlt ein G94 @ 55nm.
G92b als Low-End?
Wo lebst du das Ding ist Performance, Low-End ist der G96/G98.

Dresden.
Ich rede davon, wenn der GT200 werden die beschnittenen G92b's mit Sicherheit den Low-End Markt füllen, während die besten Dice für mobile Endgeräte und 9900er Karten oder 9600-Nachfolger in der GF10 Reihe agieren.

Wenn der GT200 draußen ist, ist der G92b bestenfalls Mittelklasse.

PS: Wo lebst du denn ?

Gast
2008-04-18, 00:18:23
Im Süden ...

GT200 ist High-End, so viel klar.
Was ist dadrunter? Alles Low-End?
Die heutige Performanceklasse bleibt bestehen, mit neuen Spielern auf dem Feld, dem G92b und dem RV770.

deekey777
2008-04-18, 00:23:59
Im Süden ...

GT200 ist High-End, so viel klar.
Was ist dadrunter? Alles Low-End?
Die heutige Performanceklasse bleibt bestehen, mit neuen Spielern auf dem Feld, dem G92b und dem RV770.
Ich würde den GT200 in seinem vollen Umfang als Ultrahighend bezeichnen.

Ailuros
2008-04-18, 00:24:07
Wie meinst du das jetzt? Das D3D10.1 wahrscheinlich ist oder eher nicht?

Irgendwie würde ich ihnen auch zutrauen es nicht zu bringen :usad:

Keine Ahnung; wie schon oefters erwaehnt "G200" auf aelteren roadmaps war D3D10.1 was aber auch nichts heissen muss.

Dresden.
Ich rede davon, wenn der GT200 werden die beschnittenen G92b's mit Sicherheit den Low-End Markt füllen, während die besten Dice für mobile Endgeräte und 9900er Karten oder 9600-Nachfolger in der GF10 Reihe agieren.

Wenn der GT200 draußen ist, ist der G92b bestenfalls Mittelklasse.

G92b wird weiterhin hauptsaechlich das Performance-Segment decken, bis sie irgendwann mal spaeter den GT200 auf 55nm schrumpfen koennen. Wieviel kostet denn heute schon eine 9800GTX oder glaubst Du dass sie sofort eine <$250 GPU von einem solchen riesen-die veroeffentlichen werden?

dargo
2008-04-18, 00:37:11
Wieviel kostet denn heute schon eine 9800GTX oder glaubst Du dass sie sofort eine <$250 GPU von einem solchen riesen-die veroeffentlichen werden?
Die 200€ die ich mal genannt habe sind nicht mehr weit entfernt.
http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=Geforce+9800GTX&asd=on&filter=+Liste+aktualisieren+&pixonoff=off

Ich gehe sogar davon aus, dass der G92b unter 200€ zu haben sein wird.

Ailuros
2008-04-18, 00:40:59
Wenn das Ding GDDR5 abbekommen soll, wird der Speicher auch nicht umsonst sein.

Nightspider
2008-04-18, 00:58:03
Ich denke der GT200 wird so einen Vorsprung schaffen, das man den G92b dann kaum noch Performance-Chip schimpfen kann.
Ist ja schließlich auch nur ein aufgewärmter G80...

Sicherlich deckt der GT200 den Bereich über 400 Euro (anfangs natürlich mind. 500 für den GT-Chip) und der G92 den Bereich bis 200 Euro...die Lücke dazwischen wird wie beim G80-Release sicherlich erst ein paar Monate später gefüllt.

Bzw. die 9800 GX2 füllt diese Lücke (halbherzig)

Und gegen einen vollwertigen GT200 wird wohl alles andere wie Low-End aussehen ;D (auch wenn diese (zB.G92) den Mainstream bereich beliefern werden)

Wie gesagt, ich rede hier vom Q3

Bis Ende Q2 würde der G92b natürlich "HighEnd" darstellen, wobei der Chip den Begriff "HighEnd" nicht wirklich verdienen wird...

dargo
2008-04-18, 01:26:03
Wenn das Ding GDDR5 abbekommen soll, wird der Speicher auch nicht umsonst sein.
Natürlich. Aber für einen G92b reicht locker die langsamste Variante von GDDR5. Ob der so teuer sein wird?

Anarchy-HWLUXX
2008-04-18, 03:40:58
Bis Ende Q2 würde der G92b natürlich "HighEnd" darstellen, wobei der Chip den Begriff "HighEnd" nicht wirklich verdienen wird...

Wenn es nix schnelleres gibt dann ist es eben das hohe ende unabhängig vom Preis ;D

seahawk
2008-04-18, 07:53:55
Die neueste News von Dailytech verpasst? GT-200 ist fertig.



Fertig ist relativ. Man hat wohl lauffähige Chips, aber ob Leistungsaufnahme und Taktung stimmen ist unbekannt.

Gast
2008-04-18, 08:07:01
.....
Und wenn ich schon den konstanten Schwachsinn ueber 10.1 lesen muss, wuerde NV 10.1 kompliant sein, wuerden sie sich wenden und drehen dass sich zumindest ein IHV hinhockt und einen zusaetlichen path schreibt. So einen Vorteil haette man um einiges besser vermarkten koennen.
Aus genau diesem Grund hat Assasins Creed einen 10.1 Path, welcher allerdings nicht angepriesen wird

Grestorn
2008-04-18, 08:13:13
Aus genau diesem Grund hat Assasins Creed einen 10.1 Path, welcher allerdings nicht angepriesen wird

...und den ich für ein - recht unwahrscheinliches - Gerücht halte.

AnarchX
2008-04-18, 08:18:07
...und den ich für ein - recht unwahrscheinliches - Gerücht halte.
Laut Demirug müsste der D3D10.1-Pfad mit dem letzten SDK compiliert sein, damit er mit SP1 läuft:
http://forum.beyond3d.com/showthread.php?p=1149499#post1149499
... und das passt ja nicht ganz zum Releasedate.
Werden wohl einfache SP1-Fixes sein.

GeneralHanno
2008-04-18, 08:39:27
crosspost:
Nvidia spricht sich langfristig für Mutli-GPU-systeme aus (http://www.hardware-infos.com/news.php?news=1997)

Gast
2008-04-18, 08:56:08
Welche nur dem RV670 was bringen, aber nicht dem R600? Kann es eventuell mal sein dass selbst Demi einem Trugschluss erliegen koennte? Leider existiert kein Vergleich mit einem G9x.

Gast
2008-04-18, 09:03:57
...und den ich für ein - recht unwahrscheinliches - Gerücht halte.

"Ubisoft are at the forefront of technology adoption, as showcased with the fantastic Assassin’s Creed title. In this instance our developer relations team worked directly with the developer and found an area of code that could be executed more optimally under DX10.1 operation, thus benefiting the ATI Radeon HD 3000 Series."

Gast
2008-04-18, 09:21:00
Das ist nur ATI Marketing Bullshit.

PCGH_Carsten
2008-04-18, 09:50:12
Natuerlich hat RV770 4z/clock afaik. Ich meinte lediglich dass die Liste an Einzelheiten die AMD seit R600 aufholen musste und muss um einiges laenger ist als das fehlende D3D10.1 auf G92 und wohl auch auf G92b.

Nur die Z und Pixel-Fuellraten werden leicht hoeher sein auf RV770 im Vergleich zu G92b.

Verrechnet? G92b kann, wie alles ab G80 8z/ROP/clk. Wenn RV770 mehr Z-Fill haben sollte, als G92b, müsste er entweder auch 8z/ROP/clk schaffen oder über mehr als doppelten Kerntakt verfügen. ;)

Beides wäre ziemlich :cool: .

PCGH_Carsten
2008-04-18, 09:50:56
Das ist nur ATI Marketing Bullshit.
Sieht nicht so aus. Nur warum man das Marketing für sowas "vergessen" hat, ist mir schleierhaft.

Gast
2008-04-18, 10:04:52
Sieht nicht so aus. Nur warum man das Marketing für sowas "vergessen" hat, ist mir schleierhaft.


Von Ubisoft gibt es dazu auch nichts oder ich habe es nicht gefunden.
Und der rage3D Artikel stellt auch nur Vermutungen an.

"Could it be that AC is the first title to support DX10.1?If that is the case, why was it not actively advertised?"

"In order to verify the validity of our claim that AC is the first DX10.1 supporting title, ....."

Cpl. Dwayne Hicks
2008-04-18, 11:07:21
sorry hat sich erledigt...

AnarchX
2008-04-18, 11:08:18
8Z wie jede aktuelle GF8/9.

[fu]121Ah
2008-04-18, 11:13:04
es ist offiziell und wurde von nem ubisoft typen an soner gamermesse bestätigt, google hilft gerne weiter.

Gast
2008-04-18, 11:38:42
http://www.computerbase.de/news/software/spiele/actionspiele/2008/april/ati_assassins_creed_d3d_101/

Coda
2008-04-18, 11:41:53
...und den ich für ein - recht unwahrscheinliches - Gerücht halte.
Das SDK gab's doch schon letztes Jahr. Wo ist das Problem?

Ich halte das für überhaupt nicht "unwahrscheinlich". In der EXE sind Imports für "D3D10_1.DLL" und "D3D10CreateDeviceAndSwapChain1". Ziemlich eindeutig.

Und die Qualitäts- und Leistungsunterschiede die gemessen wurden auf ATI-Karten mit SP1 sagen mir noch mehr dass es sehr wohl so ist.

http://www.computerbase.de/news/software/spiele/actionspiele/2008/april/ati_assassins_creed_d3d_101/
... :)

Yay. Ich bin voll dafür da NVIDIA in den Arsch zu treten.

Ailuros
2008-04-18, 11:51:59
Verrechnet? G92b kann, wie alles ab G80 8z/ROP/clk. Wenn RV770 mehr Z-Fill haben sollte, als G92b, müsste er entweder auch 8z/ROP/clk schaffen oder über mehr als doppelten Kerntakt verfügen. ;)

Beides wäre ziemlich :cool: .

Ich meinte AA sample rate.



Yay. Ich bin voll dafür da NVIDIA in den Arsch zu treten.

Dem kann ich mir auch leicht anschliessen. Dass Assasin's Creed einen 10.1 Pfad hat war mir nicht bewusst. Es wurde auch verdammt hoechste Zeit dass man von dem Zeug etwas sieht.

Gosh
2008-04-18, 12:01:02
Ich meinte AA sample rate.



Dem kann ich mir auch leicht anschliessen. Dass Assasin's Creed einen 10.1 Pfad hat war mir nicht bewusst. Es wurde auch verdammt hoechste Zeit dass man von dem Zeug etwas sieht.

10.1 nutzen heißt ned dass es auch nur einen Hauch bringt.

Coda
2008-04-18, 12:01:31
Tut es aber.

Gast
2008-04-18, 12:08:31
10.1 nutzen heißt ned dass es auch nur einen Hauch bringt.

20% mehr Leistung und bessere Kantenglättung sind wahrlich nicht schlecht für ein D3D-Update das ja angeblich "kaum Neuerungen" bringt.

reunion

Ailuros
2008-04-18, 12:15:48
Das mit der besseren Kantenglaettung will ich erstmal sehen, ausser die samples werden bei 4xMSAA dynamisch positioniert durch das Spiel was ich aber ernsthaft bezweifle. Frisst AC uebrigens immer noch Uebermengen an Speicher oder gab es einen Patch in der Zwischenzeit?

Gast
2008-04-18, 12:17:18
20% mehr Leistung und bessere Kantenglättung sind wahrlich nicht schlecht für ein D3D-Update das ja angeblich "kaum Neuerungen" bringt.


Was soll daran neu sein?

Gast
2008-04-18, 12:17:48
Das mit der besseren Kantenglaettung will ich erstmal sehen, ausser die samples werden bei 4xMSAA dynamisch positioniert durch das Spiel was ich aber ernsthaft bezweifle. Frisst AC uebrigens immer noch Uebermengen an Speicher oder gab es einen Patch in der Zwischenzeit?

Ne, aber ohne den D3D10.1-Pfad greift das AA anscheinend nicht überall. Lies dir doch mal den Artikel durch: http://www.rage3d.com/articles/assassinscreed/index.php?p=1

reunion

Coda
2008-04-18, 12:20:09
20% mehr Leistung und bessere Kantenglättung sind wahrlich nicht schlecht für ein D3D-Update das ja angeblich "kaum Neuerungen" bringt.
Das ist völlig anwendungsspezifisch und du weißt nicht was sie vom Xbox-Port mit D3D10.0 nicht gemacht haben obwohl es möglich war usw.

Nicht schon wieder die Pauschalisierungstour bitte. Die Änderungen sind wirklich nicht so großartig. Nur bestimmte Rendertechniken profitieren davon.

Das mit der besseren Kantenglaettung will ich erstmal sehen, ausser die samples werden bei 4xMSAA dynamisch positioniert durch das Spiel was ich aber ernsthaft bezweifle. Frisst AC uebrigens immer noch Uebermengen an Speicher oder gab es einen Patch in der Zwischenzeit?
Es stimmt schon. Mit D3D10.0 sind manche Kanten nicht geglättet. Wahrscheinlich brauchen sie aus irgend nem Grund die Z-Buffer-Subsamples. Wenn nicht, dann haben sie gepfuscht.

Gast
2008-04-18, 12:23:23
Es stimmt schon. Mit D3D10.0 sind manche Kanten nicht geglättet. Wahrscheinlich brauchen sie aus irgend nem Grund die Z-Buffer-Subsamples. Wenn nicht, dann haben sie gepfuscht.

Wenn man mit Supersampling AA zockt dürfte das doch keine Rolle mehr spielen oder doch?

Gast
2008-04-18, 12:23:36
Die Mehrleistung kommt sicherlich nicht durch 10.1.

Coda
2008-04-18, 12:23:55
Wenn man mit Supersampling AA zockt dürfte das doch keine Rolle mehr spielen oder doch?
Mit welcher Karte willst du Assassin's Creed in vernünftiger Auflösung und Details mit Supersampling spielen?

Die Mehrleistung kommt sicherlich nicht durch 10.1.
Ach so, und warum nicht? Ich behaupte das Gegenteil.

Gast
2008-04-18, 12:24:42
Gegenfrage: warum sollte sie?

Gast
2008-04-18, 12:25:44
Mit welcher Karte willst du Assassin's Creed in vernünftiger Auflösung und Details mit Supersampling spielen?


4xS stellt kein Problem für eine 8800GTX dar.

Coda
2008-04-18, 12:26:15
Weil man evtl. sich Berechnungen spart weil man direkt auf Buffer zugreifen kann usw. Fetch4 könnte gerade bei Shadowmaps auch ne Menge bringen. Ich denke das ist sogar der Hauptpunkt, weil sie darauf bei der Xbox 360 sicher auch optimiert hatten.

4xS stellt kein Problem für eine 8800GTX dar.
Da hast dann auch nur Supersampling in eine Richtung. Das bringt kaum was.

Gast
2008-04-18, 12:28:20
Das ist völlig anwendungsspezifisch und du weißt nicht was sie vom Xbox-Port mit D3D10.0 nicht gemacht haben obwohl es möglich war usw.

Nicht schon wieder die Pauschalisierungstour bitte. Die Änderungen sind wirklich nicht so großartig. Nur bestimmte Rendertechniken profitieren davon.


Es stimmt schon. Mit D3D10.0 sind manche Kanten nicht geglättet. Wahrscheinlich brauchen sie aus irgend nem Grund die Z-Buffer-Subsamples. Wenn nicht, dann haben sie gepfuscht.

Nachdem sie es bis dato ja nichtmal offiziell zugeben das sie einen D3D10.1-Pfad implementiert haben werden sie D3D10.1 wohl kaum ungerechtfertigt puschen wollen. Das das anwendungsspezifisch ist sollte klar sein.

reunion

Gast
2008-04-18, 12:30:09
Da hast dann auch nur Supersampling in eine Richtung. Das bringt kaum was.

Welcher Modus wäre denn ideal? 2x2SSAA?

Coda
2008-04-18, 12:31:23
Reunion bitte hör auf mit sowas. Es ist ätzend. Ich will mir nicht jedes Mal ein Beispiel ausdenken müssen wo man von der Codebasis nur eine bestimmte API verwenden kann obwohl es mit einer anderen auch gehen würde.

Welcher Modus wäre denn ideal? 2x2SSAA?
Gar keiner, weil es kein rotated grid Supersampling gibt auf heutigen GPUs.

Gast
2008-04-18, 12:34:29
Gar keiner, weil es kein rotated grid Supersampling gibt auf heutigen GPUs.

Es macht aber schon einen deutlichen Unterschied ob man mit 4xMSAA oder 4xS zockt.

Coda
2008-04-18, 12:35:44
4xS glättet die Kanten aber schlechter, dafür sind die Texturen etwas schöner. Wenn man äquivalente Kantenglättung will zu 4xMSAA sollte es schon 8xS sein.

Gast
2008-04-18, 12:38:30
4xS glättet die Kanten aber schlechter, dafür sind die Texturen etwas schöner.

Ab einer gewissen Auflösung sieht man das garnicht mehr wie ich finde. Stimmt natürlich das bekommt nur 2xMSAA ab, aber das Bild wirkt trotzdem deutlich schöner als mit Standard 4xAA. Aber das ist jetzt alles ein wenig offtopic Danke erstmal!

deekey777
2008-04-18, 12:38:41
Es macht aber schon einen deutlichen Unterschied ob man mit 4xMSAA oder 4xS zockt.
In der Performance vielleicht, aber es geht um die Bildqualität.

Wenn wir schon dabei sind: Hat Supersampling die gleichen visuellen Macken wie MSAA bei FP16-Buffern? Tonemapping betrifft nur die Pixel, nicht die Samples, was zu unschönen Fehlern führt.

Gast
2008-04-18, 12:39:10
4xS glättet die Kanten aber schlechter
Bis auf die Kanten, die MSAA gar nicht glättet.

Coda
2008-04-18, 12:39:58
Natürlich glättet MSAA die Kanten. Was redest du da? Oder meinst du jetzt bei Assassin's Creed? Da geht mit 10.0 MSAA bei manchen Kanten nicht, ja.

Wenn wir schon dabei sind: Hat Supersampling die gleichen visuellen Macken wie MSAA bei FP16-Buffern? Tonemapping betrifft nur die Pixel, nicht die Samples, was zu unschönen Fehlern führt.
Nein sollte das Problem nicht haben. Das Tonemapping kann man aber mit D3D10 auch per-sample machen. Macht Call of Juarez auch wenn ich mich richtig erinnere.

Gast
2008-04-18, 12:48:16
Na das übliche Shaderflimmern geht nicht weg, Alpha Texturen werden nicht geglättet.

Da muss schon T-AA her, kostet natürlich auch.

deekey777
2008-04-18, 12:57:27
Natürlich glättet MSAA die Kanten. Was redest du da? Oder meinst du jetzt bei Assassin's Creed? Da geht mit 10.0 MSAA bei manchen Kanten nicht, ja.


Nein sollte das Problem nicht haben. Das Tonemapping kann man aber mit D3D10 auch per-sample machen. Macht Call of Juarez auch wenn ich mich richtig erinnere.
Wo kommen dann die Fehler her, die auf A2C geschoben werden? http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/16/#abschnitt_call_of_juarez
Na das übliche Shaderflimmern geht nicht weg, Alpha Texturen werden nicht geglättet.

Da muss schon T-AA her, kostet natürlich auch.
Was hat das mit AC zu tun?

Coda
2008-04-18, 12:59:32
Wo kommen dann die Fehler her, die auf A2C geschoben werden? http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/16/#abschnitt_call_of_juarez
Vom A2C? Was hat das mit dem Downfiltering zu tun? Nicht alles was nach AA riecht schmeckt gleich.

robbitop@work
2008-04-18, 13:30:06
Das mit der besseren Kantenglaettung will ich erstmal sehen, ausser die samples werden bei 4xMSAA dynamisch positioniert durch das Spiel was ich aber ernsthaft bezweifle. Frisst AC uebrigens immer noch Uebermengen an Speicher oder gab es einen Patch in der Zwischenzeit?
Es handelt sich dabei wohl nur um "nicht verschlechtertes" AA. ;)
Also ein MSAA bei dem auch die Z-Werte korrekt sind und nicht einfach nur gemittelt. Das ist ja das Problem bei vielen aktuellen Z-First Implementationen. Schau dir bei Crysis mal die Kanten an. Sieht nicht sonderlich toll aus.
Mit einer guten D3D10.1 Implementation geht nun überall kompromisslos gutes MSAA. Alles andere sind meist nur mehr oder weniger gute Hacks.

Gast
2008-04-18, 14:48:36
Reunion bitte hör auf mit sowas. Es ist ätzend. Ich will mir nicht jedes Mal ein Beispiel ausdenken müssen wo man von der Codebasis nur eine bestimmte API verwenden kann obwohl es mit einer anderen auch gehen würde.


Musst du auch nicht. Darum ging es auch gar nicht, es ging einzig und alleine darum das D3D10.1 hier deutliche Vorteile bringt und das sicherlich nicht weil die Entwickler davon in irgendeiner Form profitieren würden, denn bis jetzt wird das nicht mal offiziell eingestanden. Ich würde auch nichts sagen wenn nicht gerade du genau dieses Argument bei vergangenen Diskussionen immer abgeschmettert hättest. "Man kann auch alles mit Softwarerendering machen" od. dgl. war da zu hören.

reunion

Coda
2008-04-18, 16:44:06
Da täuscht du dich aber. Ich hab immer betont dass man eben nicht alles eines neuen Shadermodels mit dem alten machen kann mit vertretbarem Aufwand.

reunion
2008-04-18, 18:21:31
Da täuscht du dich aber. Ich hab immer betont dass man eben nicht alles eines neuen Shadermodels mit dem alten machen kann mit vertretbarem Aufwand.

Genau so war das ja auch gemeint. Sorry wenn die Ironie nicht rüber kam.

Gast
2008-04-19, 01:14:36
Gar keiner, weil es kein rotated grid Supersampling gibt auf heutigen GPUs.

Wieso, bei TSSAA gehts doch auch rotated?

Coda
2008-04-19, 01:34:30
Das ist aber ein Hack und nicht nativ. Und dog-slow. Das kannst du niemals auf's ganze Bild anwenden.

Gast
2008-04-19, 15:17:47
Gar keiner, weil es kein rotated grid Supersampling gibt auf heutigen GPUs.
Bei S3 schon.

Coda
2008-04-19, 16:01:04
Das muss aber die Applikation über D3D10.1 selber machen. Insofern kann es auch ATI.

Ich bin mir jetzt nicht sicher ob sie das für TSSAA auch schon einsetzen, weil sie dafür jeden Shader dynamisch verändern müssten.

Captain Future
2008-04-19, 16:48:54
Bei S3 schon.
Auf aktuellen leider nicht mehr.

GeneralHanno
2008-04-19, 18:12:22
1. hier geht es nich um chrome, sondern nvidia
2. die leistung der chrome+SS reicht sowieso nur für uralte games
3. wehe einer kommt mit SGSSAA der voodoo5 ...:biggrin:

Hvoralek
2008-04-20, 12:56:40
7800GTX Juni 2006
6800 GS November 2006Das war jeweils 2005 :wink:

Gast
2008-04-20, 21:11:26
wird der Gt200 den nun DX10.1 können ?

w0mbat
2008-04-20, 21:14:48
Nein, der wird schon DX11 haben... woher soll das bitteschön Jemand hier wissen?

Gast
2008-04-20, 21:18:31
Ich bin net von hier, aber man sagt überall das hier im 3DC die hardcore Spekulanten rum hängen und die NV Boys schon wissen was der GT200 kann *g*

ne Joke weiss nicht kA, was sagen den die Spekus ?

GeneralHanno
2008-04-20, 21:25:41
lies dir einfach die letzten seiten durch ;)

dx11 wird er nicht haben. dx10.1 ist wahrscheinlich, aber es kann auch "nur" dx10 sein ... wissen tuts keiner ;)

Hvoralek
2008-04-20, 21:29:13
G200 sollte wohl D3D10.1- fähig sein. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6438889#post6438889) Ich würde das aber bei GT200 allein schon deshalb erwarten, weil alles andere schlicht peinlich wäre.

Gast
2008-04-20, 21:32:04
G200 sollte wohl D3D10.1- fähig sein. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6438889#post6438889) Ich würde das aber bei GT200 allein schon deshalb erwarten, weil alles andere schlicht peinlich wäre.

ok, also hilft nur warten aber peinlich wäre es allerdings.

Gast
2008-04-20, 21:53:41
Natürlich wird er es sein, siehe Assassins Creed.

4 Vitamins
2008-04-21, 18:26:00
wird der Gt200 den nun DX10.1 können ?


nein.

gruss

GeneralHanno
2008-04-21, 18:28:52
nein.

gruss

begründung,quelle?

Gast
2008-04-21, 18:39:46
Wär schon krass wenn der Gt200 kein DX 10.1 könnte.;D

The_Silent_One
2008-04-21, 19:14:05
jupp, wär wirklich krass. aber ich könnt mir auch vorstellen, dass die gpu kein D3D10.1 support haben wird.

bei assassin's creed wird der D3D10.1 renderpfad ja demnächst rausgepatcht, weil ein pass übergangen wird (meinen jedenfalls die hersteller). denke, das stimmt nicht so ganz und nv hat da druck ausgeübt, damit ati keinen vorteil hat. ist ja schließlich ein the way it's meant to be played titel.

würde der GT200 in kürze anstehen und D3D10.1 unterstützen, würde es nv nicht so wichtig sein, den renderpfad zu canceln.



ist etwas weit hergeholt, aber ich könnt mir schon vorstellen, dass es so ist.

Gast
2008-04-21, 19:49:33
Genau. nVidia erlaubt Ubisoft den 10.1 einzubauen und will ihn dann wieder raushaben.
Denkt einfach nicht soviel darüber nach.

derguru
2008-04-21, 20:50:46
jupp, wär wirklich krass. aber ich könnt mir auch vorstellen, dass die gpu kein D3D10.1 support haben wird.

bei assassin's creed wird der D3D10.1 renderpfad ja demnächst rausgepatcht, weil ein pass übergangen wird (meinen jedenfalls die hersteller). denke, das stimmt nicht so ganz und nv hat da druck ausgeübt, damit ati keinen vorteil hat. ist ja schließlich ein the way it's meant to be played titel.

würde der GT200 in kürze anstehen und D3D10.1 unterstützen, würde es nv nicht so wichtig sein, den renderpfad zu canceln.



ist etwas weit hergeholt, aber ich könnt mir schon vorstellen, dass es so ist.

ist gar nicht weit hergeholt sondern so würde es auch wahrscheinlich sein,ist doch eigentlich ganz logische sache,niewieda hat keine dx10.1 karte zurzeit und sind sponsore von AC.ist doch klar das sie den pfad erstmal raus nehmen lassen da die konkurrenz dadurch profitieren tut.das der pfad nicht vollständig seih ist doch nur eine ausrede und nichts anderes.

Gast
2008-04-21, 20:55:39
nein.

gruss

Vitaminmangel?

Gast
2008-04-21, 21:04:39
Ich glaub eher der DX10.1 Pfad war für NV vorgesehn , und wird daher wieder entfernt bis GT200 im Juli in den Regalen steht.

4 Vitamins
2008-04-21, 21:05:40
1.begründung,
2.quelle?

1. so ein gefühl
2. hirn

gruss

Gast
2008-04-21, 21:10:05
1. so ein gefühl
2. hirn

gruss

Und sowas sollen wir glauben was von eine kommt der sich 1mall in Jahr eine Karte kauft.

Ich hab dann also auch Hirn danke.

Gast
2008-04-21, 21:11:55
Ich glaub eher der DX10.1 Pfad war für NV vorgesehn , und wird daher wieder entfernt bis GT200 im Juli in den Regalen steht.
Weil sie völlig überrascht davon waren, dass die seit einem halben Jahr erhältlichen Hd3000er DX10.1 können? ;D

4 Vitamins
2008-04-21, 21:39:20
1.Und sowas sollen wir glauben was von eine kommt der sich 1mall in Jahr eine Karte kauft.

2.Ich hab dann also auch Hirn danke.

1.meinst du :
Und das sollen wir einem glauben der sich ein mal im jahr eine grafikkarte kauft?

2. Ob das der beweis ist das du also auch hirn hast? keine ahnung.

gruss

The_Silent_One
2008-04-21, 23:01:47
Ich glaub eher der DX10.1 Pfad war für NV vorgesehn , und wird daher wieder entfernt bis GT200 im Juli in den Regalen steht.
das könnte natürlich auch sein.
wobei die den renderpfad dann nicht komplett entfernen müssten, da der GT200 ja nicht mehr soo lange braucht

Gast
2008-04-21, 23:51:19
das könnte natürlich auch sein.
wobei die den renderpfad dann nicht komplett entfernen müssten, da der GT200 ja nicht mehr soo lange braucht
und haben wir gesicherte Infos, dass der GT200 D3D10.1 kann?

Gast
2008-04-22, 00:27:15
und haben wir gesicherte Infos, dass der GT200 D3D10.1 kann?

Natürlich, warum wohl hat NV die 9800GTX zwischengeschoben? ;)

Hvoralek
2008-04-22, 01:03:19
Natürlich, warum wohl hat NV die 9800GTX zwischengeschoben? ;)Weil G92 günstiger zu fertigen ist als G80.

Gast
2008-04-22, 01:23:07
Da hätte auch die GTS gereicht ;) 8800GTX gibts immer noch wie Sand am Meer die Lager sind noch gut gefüllt. Viel mehr um noch ein wenig Zeit zu haben bis GT200 marktreif ist. Die Zeit war einfach noch nicht reif dafür.

Hvoralek
2008-04-22, 01:42:31
Da hätte auch die GTS gereicht ;)Du meinst die Umbenennung in "9"800er? Der Grund dafür dürfte hpts. AMDs 3000er- Reihe sein. Das klingt neu (ist es ja auch Stück weit) und ist damit ein Marketingvorteil. Was meinst Du denn, inwiefern man eine marginal schnellere GTS512 gebracht haben sollte, um sich Zeit für GT200 er erkaufen? Auch die GTS war schon die bei weitem schnellste Einzelchipkarte.

Gast
2008-04-22, 03:13:34
Du meinst die Umbenennung in "9"800er? Der Grund dafür dürfte hpts. AMDs 3000er- Reihe sein. Das klingt neu (ist es ja auch Stück weit) und ist damit ein Marketingvorteil. Was meinst Du denn, inwiefern man eine marginal schnellere GTS512 gebracht haben sollte, um sich Zeit für GT200 er erkaufen? Auch die GTS war schon die bei weitem schnellste Einzelchipkarte.

Die Umbenennung war natürlich rein politischer Natur. Ich geh stark davon aus das G9x garnicht auf 8800GT/GTS verbaut werden sollte sondern einem ganz anderen Zweck dienen sollten, aber weil Ati mit den 3xxx Modellen kam, keine andere Wahl hatten um sie unter alten Namen zu verticken. Nvidia musste ummodeln und als klar war das eine X2 kommt, brachte man dann die 9800GX2 heraus und schob die 9800GTX als "Falschgeld" kurz danach hinterher um gut aus der Geschichte herauszukommen. Nun hat man erstmal Ruhe bis zum GT200 Launch.

Gast
2008-04-22, 09:27:56
Ich glaub eher der DX10.1 Pfad war für NV vorgesehn , und wird daher wieder entfernt bis GT200 im Juli in den Regalen steht.

Der GT200 kommt ganz sicher nicht im Juli, sondern erst im Oktober/November.
Vorher kommt noch der G92b als 9900GTX.

Adam D.
2008-04-22, 09:45:57
Der GT200 kommt ganz sicher nicht im Juli, sondern erst im Oktober/November.
Vorher kommt noch der G92b als 9900GTX.
Doch, so wie es aussieht, könnte der GT200 tatsächlich schon im Juli auf den Markt kommen. Aktuell wird ja über eine Vorstellung auf der Computex im Juni spekuliert.

James Ryan
2008-04-22, 09:56:28
Doch, so wie es aussieht, könnte der GT200 tatsächlich schon im Juli auf den Markt kommen. Aktuell wird ja über eine Vorstellung auf der Computex im Juni spekuliert.

Der GT200 wird eventuell im Juli vorgestellt, aber kaufbar wird er wohl erst im Oktober/November sein.

MfG :cool:

seahawk
2008-04-22, 10:14:09
Doch, so wie es aussieht, könnte der GT200 tatsächlich schon im Juli auf den Markt kommen. Aktuell wird ja über eine Vorstellung auf der Computex im Juni spekuliert.

Es wird viel spekuliert.

Gast
2008-04-22, 10:33:10
Der GT200 wird eventuell im Juli vorgestellt, aber kaufbar wird er wohl erst im Oktober/November sein.

MfG :cool:

LOL, wann war nochmal der letzte Paperlaunch von Nvidia? 2003 mit der FX?

Seitdem gilt: Vorstellung = Verfügbarkeit

reunion
2008-04-22, 10:37:58
Es wird viel spekuliert.

Ne GT200 kommt noch im Q2, das dürfte so gut wie sicher sein. NV hat wohl schon Einladungen zum Launch verschickt.

James Ryan
2008-04-22, 10:38:06
LOL, wann war nochmal der letzte Paperlaunch von Nvidia? 2003 mit der FX?

Seitdem gilt: Vorstellung = Verfügbarkeit

Jap, darum ist ein Launch im Juli auch Quatsch! ;)

MfG :cool:

Gast
2008-04-22, 11:19:47
Ne GT200 kommt noch im Q2, das dürfte so gut wie sicher sein. NV hat wohl schon Einladungen zum Launch verschickt.


Gibts eigentlich schon ne neue "Killerapplikation" oder wird man damit nur wieder >Crysis< in ungeahnte fps Höhen treiben können?
Spätestens im nächsten Jahr, wenn auch bei 1920 very high 60 fps drin sind, hat das Ganze keinen (Kauf)reiz mehr und ein potentieller neuer Grafikkracher ist noch nicht einmal angekündigt!
Was nützt die Hardware, wenn die nächsten 4 Jahre nur XBox360 Porst erscheinen? *heul*

Paul Brain
2008-04-22, 11:28:40
Gibts eigentlich schon ne neue "Killerapplikation" oder wird man damit nur wieder >Crysis< in ungeahnte fps Höhen treiben können?
Spätestens im nächsten Jahr, wenn auch bei 1920 very high 60 fps drin sind, hat das Ganze keinen (Kauf)reiz mehr und ein potentieller neuer Grafikkracher ist noch nicht einmal angekündigt!
Was nützt die Hardware, wenn die nächsten 4 Jahre nur XBox360 Porst erscheinen? *heul*
Bis die Krise in FullHD bei vollen Qualitätssettings und mind. 4xAA durchgehend mit 60fps läuft, wirds schon noch ein Zeiterl dauern, keine Sorge... ;)

Gast
2008-04-22, 11:35:33
Ne GT200 kommt noch im Q2, das dürfte so gut wie sicher sein. NV hat wohl schon Einladungen zum Launch verschickt.

Der GT200 hatte erst vor kurzem sein Tapeout. Normalerweise dauert es dann 6 Monate bis zum Launch. Somit wird er nicht vor Oktober erscheinen.

Gast
2008-04-22, 11:36:27
Bis die Krise in FullHD bei vollen Qualitätssettings und mind. 4xAA durchgehend mit 60fps läuft, wirds schon noch ein Zeiterl dauern, keine Sorge... ;)


Braucht man bei 1920 eigentlich noch großartig AA?
Irgendwann sind die Pixel so klein, da sieht man auch so keine Treppchen mehr. Also zumindest über 4xAA würde ich wirklich nicht gehen.
Das hat sogar John Carmack irgendwann mal gesagt, dass höhere Auflösungen den AA-Wahn verdrängen werden!

The_Invisible
2008-04-22, 11:41:17
Braucht man bei 1920 eigentlich noch großartig AA?
Irgendwann sind die Pixel so klein, da sieht man auch so keine Treppchen mehr. Also zumindest über 4xAA würde ich wirklich nicht gehen.
Das hat sogar John Carmack irgendwann mal gesagt, dass höhere Auflösungen den AA-Wahn verdrängen werden!

man darf nicht vergessen das mit höherer auflösung auch die bildfläche größer wird. so ein 20" display mit 1920x1200 wäre schon fein, da könnte man mit 2xAA ganz gut leben.

mfg

K4mPFwUr$t
2008-04-22, 11:42:48
@The_Invisible
unsinn, auch bei 1280x1024 braucht man teils 4xAA und mehr.
das hängt nicht mit der große vom display zusammen.

Sorkalm
2008-04-22, 11:49:04
Der GT200 hatte erst vor kurzem sein Tapeout. Normalerweise dauert es dann 6 Monate bis zum Launch. Somit wird er nicht vor Oktober erscheinen.

6 Monate vom Tape-Out bis zum Launch? Aber nur wenn man zwei Respins (o. ä.) braucht, im Normalfall sicher nicht.

Paul Brain
2008-04-22, 11:50:34
@The_Invisible
unsinn, auch bei 1280x1024 braucht man teils 4xAA und mehr.
das hängt nicht mit der große vom display zusammen.
Doch. Wenn man bei einer höheren Auflösung auch ein größeres Display hat, ist die Pixeldichte wieder in etwa gleich -> die Kanten sind genauso häßlich wie bei einem futzikleinen 17"er mit SXGA.

Natürlich wären hohe Pixeldichten schön, aber das hat auch zahlreiche Nachteile: solange nicht sämtliche Software "vektorisiert" ist, wird man sich auf solchen Displays schwertun, etwas zu erkennen; außerdem ist AA derzeit zur Kantenglättung recht billig, im Vergleich zu z.B. einer 4x so hohen Auflösung...

Aber wir sind hier "etwas" OT.

Ich bin jedenfalls gespannt, wie nV den GT200 noch dieses Quartal bringen will, wenn der Tapeout wirklich erst kürzlich war. In letzter Zeit haben sie ja wieder durch viele Terminverschiebungen von sich reden gemacht; die 9800GX2 sowie die 9800GTX sollten eigentlich bereits Anfang Februar erscheinen; im Endeffekt gabs zwei Monate Verspätung.

Gast
2008-04-22, 11:51:03
Der GT200 hatte erst vor kurzem sein Tapeout. Normalerweise dauert es dann 6 Monate bis zum Launch. Somit wird er nicht vor Oktober erscheinen.

Nein, es wurde nur vor kurzem bekannt, dass der GT200 schon vor längerem das Tapeout hatte.

MEDIC-on-DUTY
2008-04-22, 11:58:34
Jup @Kampfwurst sogar bei 1600*1200 brauche ich das z.B. bei Assassins (XP) trotz DTP CRT.

Apropos Assassins und GT200: Das Wegpatchen von 10.1 riecht nach nVidias Verlangen bis zum Launch vom GT200 zu warten und dann per Patch oh Wunder wieder zu aktivieren, da bekanntlich keine Kantenglättung unter DX10/Vista bei NV-Karten aktiviert werden kann...

seahawk
2008-04-22, 12:20:00
Ne GT200 kommt noch im Q2, das dürfte so gut wie sicher sein. NV hat wohl schon Einladungen zum Launch verschickt.

Wirklich zum Launch, ICh dachte es wäre eher ein Vorab-Info-Veranstaltung.

Adam D.
2008-04-22, 12:31:06
Der GT200 wird eventuell im Juli vorgestellt, aber kaufbar wird er wohl erst im Oktober/November sein.

MfG :cool:
IMO waren die Aussagen gewisser "Insider" hier recht eindeutig. Dazu passt die Spekulation zum Juni/Juli wunderbar.

Es wird viel spekuliert.
Ach ... was? :|

Gast
2008-04-22, 12:39:32
Apropos Assassins und GT200: Das Wegpatchen von 10.1 riecht nach nVidias Verlangen bis zum Launch vom GT200 zu warten und dann per Patch oh Wunder wieder zu aktivieren, da bekanntlich keine Kantenglättung unter DX10/Vista bei NV-Karten aktiviert werden kann...


Und zum hundersten Male: der Patch war fehlerhaft und wurde deshalb zurückgezogen. Das ist eine offizielle Aussage von Ubisoft.

Adam D.
2008-04-22, 13:03:21
Und zum hundersten Male: der Patch war fehlerhaft und wurde deshalb zurückgezogen. Das ist eine offizielle Aussage von Ubisoft.
Erstens mal ist der Path fehlerhaft. Und wieso legst du soviel werte auf eine offizielle Aussage? Die absolut nichts wert.

Grestorn
2008-04-22, 13:10:09
Erstens mal ist der Path fehlerhaft. Und wieso legst du soviel werte auf eine offizielle Aussage? Die absolut nichts wert.

Der Patch ist fehlerhaft? Welcher Patch? Es gibt doch gar keinen?!

Ich Depp. Habs kapiert. Sorry ... :redface:

Gast
2008-04-22, 13:10:22
Es ist die einzige Aussage die was wert ist, alles andere ist Spekulation.

Gast
2008-04-22, 13:27:52
Erstens ist die Aussage nur soviel Wert, wie der Kontext und das Umfeld es zulassen. Demnach kann sehr wohl interpretiert werden. Solltest du im Geschäftsleben tätig sein, wüsstest du viel eher, wie man eine Aussage bewerten kann.
Zweitens: in welchem Forumsteil sind wir hier gleich noch? Nene sag nicht Spekulation, kann gar nicht sein.

MEDIC-on-DUTY
2008-04-22, 13:28:17
LoL - nette(r) Kommentar(e) :D

scf2008
2008-04-22, 14:35:55
Ohne den Thread gelesen zu haben:

Wie sollen die neuen Grafikkarten eigentlich heißen? Ist da schon etwas bekannt?

Wird einfach weiter hochgezählt? Geforce 10800GTX u.ä.?

dargo
2008-04-22, 15:01:32
Braucht man bei 1920 eigentlich noch großartig AA?
Irgendwann sind die Pixel so klein, da sieht man auch so keine Treppchen mehr.

Immer das selbe. Wie oft ich das schon gelesen habe. Natürlich braucht man auch bei 1920 AA. Schließlich wird die Bildschirmdiagonale dementsprechend auch größer. Würde es einen zb. 22" TFT mit 3360x2100 Pixeln geben bräuchte ich dann allerdings nicht mehr so viel AA. 2xMSAA dazu und schon hat man praktisch 8xSQAA.


Das hat sogar John Carmack irgendwann mal gesagt, dass höhere Auflösungen den AA-Wahn verdrängen werden!
Dann hat er keine Ahnung.

MEDIC-on-DUTY
2008-04-22, 15:05:37
Nein, ein definitver Name ist wohl offiziell noch nicht genannt, aber es wird lt. Gerüchteküche das alte "GTX-Ranking" nicht mehr geben. Aber nichts genaues weiß man (ich) nicht.

Gast
2008-04-22, 15:07:54
Das hat sogar John Carmack irgendwann mal gesagt, dass höhere Auflösungen den AA-Wahn verdrängen werden!
Wer ist das?
Warum wird eigentlich nur jeder Schwachsinn zitiert?

Paul Brain
2008-04-22, 15:21:43
Nein, ein definitver Name ist wohl offiziell noch nicht genannt, aber es wird lt. Gerüchteküche das alte "GTX-Ranking" nicht mehr geben. Aber nichts genaues weiß man (ich) nicht.
Wobeis wohl sinnvoller wäre, mit G100 ein neues Ranking einzuführen. Eine aussagekräftige Produktbezeichnung gibts bei nV aber spätestens seit der 9er-Serie eh nicht mehr...

Sorkalm
2008-04-22, 15:28:32
Wenn man ein Namensschema beenden will, kann man es zum Schluss ja noch mal ausnutzen. ;)

Naja, wir werden sehen. Nvidia hat ja immer noch eine neue Marke registrieren lassen (Tegra - könnte z. B. für Teraflop Graphics stehen), aber andererseits ist Geforce eigentlich zu bekannt als das man die ersetzen müsste.

Wie immer gilt also: Abwarten.

[fu]121Ah
2008-04-22, 15:28:46
Wobeis wohl sinnvoller wäre, mit G100 ein neues Ranking einzuführen. Eine aussagekräftige Produktbezeichnung gibts bei nV aber spätestens seit der 9er-Serie eh nicht mehr...
sag doch seit der 5er... dann passts... aber ansonsten, stimme ich zu, der g100 wird da hoffentlich ein neues, transparentes system einläuten.

Gast
2008-04-22, 15:43:37
Eine aussagekräftige Produktbezeichnung gibts bei nV aber spätestens seit der 9er-Serie eh nicht mehr...
Warum?

Grindcore
2008-04-22, 15:43:54
Wer ist das?

Och, das ist lediglich der Typ, der die Entwicklung von Echtzeit-3D-Grafik auf dem PC wie kaum ein Zweiter beeinflusst hat. Aber im Vergleich zu Koryphäen wie Dargo und Dir anonymen Nixblicker natürlich nur ein winziges Licht.

Gast
2008-04-22, 15:46:36
Aber im Vergleich zu Koryphäen wie Dargo und Dir anonymen Nixblicker natürlich nur ein winziges Licht.
Du kannst mir gerne erklären, warum eine 4 fache Auflösung billiger als AA ist und am besten wo es solche Bildschirme gibt.