PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV50 / G80?


Seiten : [1] 2 3 4 5 6

Winter[Raven]
2005-07-01, 09:51:38
Schon mal "Rechtzeitig" den Fread aufmachen :biggrin:

Was erwartet ihr?

Was könnte Nvidia im Vergleich zum G70 oder auch G80 ändern? Unifed Shaders mal ausgenommen :D

Gruss

Schroeder
2005-07-01, 10:04:28
Hö?

Jetzt komm ich gar nicht mehr mit!? Was ist denn der G80? NVyx??? Und der G70 was ist das für einer?? Zu Hülf! ;(

Coda
2005-07-01, 10:08:17
Unified Shader sind bei nVIDIA gar nicht so sicher und sind auch kein Erforderniss für WGF 2.0.

Winter[Raven]
2005-07-01, 10:15:21
Unified Shader sind bei nVIDIA gar nicht so sicher und sind auch kein Erforderniss für WGF 2.0.

Demirug hat doch mal was durchsikern lasse vor einer Weile:

nVidia hat ja nun seit längerem den einen Cg Compiler im Treiber eingebaut. Lustigerweise auch im DX Treiber. Möglicherweise stellt er auch einen Teil des Shadercompilers dar. Aber darum soll geht es hier jetzt nicht.

Die Version im Treiber entspricht nicht der öffentlichen Version des Cg Compilers sondern scheint neuer zu sein. Darin findet man Verweise auf zwei neue Profile fp50 und vp50. Die 50 lässt auf einen NV50 schliessen. Interesant wird es nun aber bei der Zuweissung der Profile zu einer Kennung. Bisher verwendete nVidia "!!FPx.x" und "!!VPx.x". Also schön getrennt zwischen Vertex und Fragmentprocessing. Bei den NV50 Profile findet sich allerdings die Kennung "!!SPA1.0" beim Vertex und Fragmentprofil. Das lässt nun darauf schliessen das für beide Einheiten ein identischer Syntax benutzt wird. Vereinte Shadercores sind dabei ebenfalls nicht auszuschliessen.

drmaniac
2005-07-01, 10:18:33
Hö?

Jetzt komm ich gar nicht mehr mit!? Was ist denn der G80? NVyx??? Und der G70 was ist das für einer?? Zu Hülf! ;(

G70 ist der Refreshchip für die GF6800er Serie, die wollten nicht noch ein NV da reinquetschen,

NV50 ist dann wieder eine wirkliche Neuentwicklung und die eigentliche next Generation nach der 6800er Serie.

Schroeder
2005-07-01, 10:23:34
G70 ist der Refreshchip für die GF6800er Serie, die wollten nicht noch ein NV da reinquetschen,

NV50 ist dann wieder eine wirkliche Neuentwicklung und die eigentliche next Generation nach der 6800er Serie.
Und wo kommt dann der G80 her?

Wenn es denn die next-Generation sein wird, bin ich mal kühn und sage 512Bit-Speicherinterface, so als Laie. Und jetzt steinigt mich bitte.

Winter[Raven]
2005-07-01, 10:27:23
G80 ist der Refresh von G70 in 0.9µ Fertigung, vielleicht mit hier und da paar Optimierungen.

Schroeder
2005-07-01, 10:32:27
']G80 ist der Refresh von G70 in 0.9µ Fertigung, vielleicht mit hier und da paar Optimierungen.
Und hat dann auch keinen Codenamen, richtig?

ShadowXX
2005-07-01, 10:35:06
Und hat dann auch keinen Codenamen, richtig?

Wieso?? Die Codenamen sind G70 bzw. G80.

Wobei noch nicht zu 100% feststeht, das G80 wirklich für G70@90nm steht.

Schroeder
2005-07-01, 10:39:12
Wieso?? Die Codenamen sind G70 bzw. G80.

Wobei noch nicht zu 100% feststeht, das G80 wirklich für G70@90nm steht.
Entschuldigung. Ja natürlich. Ich hab krampfhaft versucht den G70&G80 ins "NVyx"-Codenamen-System zu quetschen. Sorry.

Gast
2005-07-01, 16:27:41
Sollte der G80 nicht der NV-50 sein ??

Die haben doch nur die Namen geändert damit mehr Verwirrung aufkommen soll,so dass nicht immer gleich vor dem Launch bereits die ganzen Specs im Umlauf sind.

Gruss,
-silencer-

PS: Im übrigen stehen neue Einträge in dem Beta 80.xx Foreceware. Möglicherweise gibt es da noch Hoffnung auf mehr.

DrumDub
2005-07-01, 16:39:41
also so wie ich es verstanden habe wurde der nv50 auf grund des späten erscheinens von longhorn gecancelt und der g70/g80 (g90?) soll die lücke bis dahin füllen. mit longhorn kommt dann direkt die wgf-2.0-gpu nv60.

deekey777
2005-07-01, 16:48:39
Hö?

Jetzt komm ich gar nicht mehr mit!? Was ist denn der G80? NVyx??? Und der G70 was ist das für einer?? Zu Hülf! ;(

Liest hier niemand TheInquirer? ;D

Der G70 ist die "Auferstehung" des NV47. Man wird sich in der nächsten Zeit von dem NVXY Schema trennen müssen.

Ailuros
2005-07-01, 16:55:07
also so wie ich es verstanden habe wurde der nv50 auf grund des späten erscheinens von longhorn gecancelt und der g70/g80 (g90?) soll die lücke bis dahin füllen. mit longhorn kommt dann direkt die wgf-2.0-gpu nv60.

Nein "NV50" war der WGF2.0 Design. G70 ist der vorige NV47.

Ailuros
2005-07-01, 16:56:54
Liest hier niemand TheInquirer? ;D

Der G70 ist die "Auferstehung" des NV47. Man wird sich in der nächsten Zeit von dem NVXY Schema trennen müssen.

Auferstehung natuerlich in Anfuehrungs-strichen, ueberhaupt wenn man dem INQ Quark zu viel glauben schenkt. Bei beiden IHVs wurde durch die Verschiebung von LONGHORN/WGF2.0 nichts "storniert" eher verschoben und anders genannt.

DrumDub
2005-07-01, 17:03:58
Nein "NV50" war der WGF2.0 Design. ah, ok, aber nv50 wird es doch nie in seiner ursprünglich geplanten form geben, oder? ähnlich wie r400.

G70 ist der vorige NV47. da sagst du mir nix neues. ;)

SKYNET
2005-07-01, 17:09:04
wie gut das ich meine versprechen halte. *klappe zu*

Gast
2005-07-01, 17:11:26
Wurde der NV50 nicht gecancelt??

DrumDub
2005-07-01, 17:12:22
wie gut das ich meine versprechen halte. *klappe zu* ja, nee, is klar... nda-skynet. ;D

Ailuros
2005-07-01, 17:57:57
ah, ok, aber nv50 wird es doch nie in seiner ursprünglich geplanten form geben, oder? ähnlich wie r400.

Wieso nicht? Frag mich bloss nicht wofuer "NV50" genau steht denn ich hab momentan wirklich nicht die leiseste Ahnung.

Eine nette These waere dass sie zwar Shaders vereinigen, aber eben nicht so wie die der Konkurrenz *rennt um sein Leben* :P

Gast
2005-07-01, 18:48:16
G70 und G80 sind einfach Lückenfüller bis Microsoft mit Longhorn soweit ist, Ati wird nach dem R520 den R580 als Refresh "Lückenfüller" bringen. Und wenn M$ es nicht gebacken bekommt, wirds zu Weihnachten 06 nen G90 und nen R590 geben. Denke das man NV50 & R600 erst in die Silizium Schmieden schickt, wenn man von M$ ein OK bekommt. Ob es dann nochmal 3 Monate extra werden ist dann egal.

Ailuros
2005-07-02, 01:48:33
G70 und G80 sind einfach Lückenfüller bis Microsoft mit Longhorn soweit ist, Ati wird nach dem R520 den R580 als Refresh "Lückenfüller" bringen. Und wenn M$ es nicht gebacken bekommt, wirds zu Weihnachten 06 nen G90 und nen R590 geben. Denke das man NV50 & R600 erst in die Silizium Schmieden schickt, wenn man von M$ ein OK bekommt. Ob es dann nochmal 3 Monate extra werden ist dann egal.

Mehr oder weniger ja. So wie es momentan aussieht hat M$ genug Zeug von Longhorn entfernt, dass eine Mitte 2006 Veroeffentlichung schon erlauben koennte (WGF1.0). IHVs werden sowieso nach meiner Schaetzung die WGF2.0 GPUs zumindest ein Halbjahr vor WGF2.0 veroeffentlichen.

SKYNET
2005-07-02, 03:12:17
ja, nee, is klar... nda-skynet. ;D



ich selber habe keine NDA unterzeichnet, aber habe versprochen das ich nix dazu sage... =)

Gast
2005-07-02, 03:59:45
ich selber habe keine NDA unterzeichnet, aber habe versprochen das ich nix dazu sage... =)
jaja, träum weiter. ;D

SKYNET
2005-07-02, 04:11:24
vergesst es. =)

Crazytype
2005-07-02, 09:15:59
Ich weiß, dass ich nichts weiß.

stav0815
2005-07-02, 11:20:31
Wurde der NV50 nicht gecancelt??
nein, verschoben. das war damals eine Ente *quak quak*

Narrenkönig
2005-07-02, 16:22:53
IHVs werden sowieso nach meiner Schaetzung die WGF2.0 GPUs zumindest ein Halbjahr vor WGF2.0 veroeffentlichen.
Also NV50 schon zu Weihnachten 05 ? Ich weiß nicht.
Ich denke (noch) das nv zum Win LH start "die" LH Graka vorstellen wird.
Und sie wird lieferbar sein. :wink:

Ailuros
2005-07-03, 01:11:54
Also NV50 schon zu Weihnachten 05 ? Ich weiß nicht.
Ich denke (noch) das nv zum Win LH start "die" LH Graka vorstellen wird.
Und sie wird lieferbar sein. :wink:

WGF2.0 kommt spaeter als Longhorn. Longhorn wird mit WGF1.0 erscheinen.

Xmas
2005-07-03, 02:02:04
Es wird keinen "NV50" geben. Genausowenig wie es einen "NV47" gibt ...

Gast
2005-07-03, 07:45:40
Es wird keinen "NV50" geben. Genausowenig wie es einen "NV47" gibt ...

Dude da stimm ich zu. Es gibt nur nun noch Gxx es und aufwärts

Winter[Raven]
2005-07-03, 09:50:34
Es wird keinen "NV50" geben. Genausowenig wie es einen "NV47" gibt ...

Meinst du auf der Technikebene oder ehe im Namen? (aber auf die Verschiebung gesehn ist ehe relativ, sicherlich wird da einiges geändert)

Was hat eigentlich Nvidia dazugebracht von NV auf G zuwechseln?

Coda
2005-07-03, 10:26:33
ich selber habe keine NDA unterzeichnet, aber habe versprochen das ich nix dazu sage... =)Eine NDA beinhaltet, dass man nicht sagt dass es eine gibt.

Also halte ich dich jetzt mal für ziemlich unglaubwürdig - oh, das mach ich ja auch so schon, doof jetzt.

aths
2005-07-03, 10:45:06
also so wie ich es verstanden habe wurde der nv50 auf grund des späten erscheinens von longhorn gecancelt und der g70/g80 (g90?) soll die lücke bis dahin füllen. mit longhorn kommt dann direkt die wgf-2.0-gpu nv60.Nvidia cancelt nicht einfach mal einen beinahe fertig entwickelten Chip.


Eine NDA beinhaltet, dass man nicht sagt dass es eine gibt.Das hängt vom NDA ab. Im Vorfeld zum NV40 unterschrieb ich einen Wisch und fragte, ob ich auch darüber schweigen müsste dass ich soeben was unterschrieben hätte. Jens Neuschäfer verneinte, aber ich hab trotzdem die Klappe gehalten. Man darf sich die Unterschrift auch nicht als feierlichen Akt vorstellen, womit man ein einen exklusiven Kreis der Eingeweihten aufgenommen würde, das ist eigentlich nur ein Routine-Akt.

Ailuros
2005-07-03, 14:59:39
Das hängt vom NDA ab. Im Vorfeld zum NV40 unterschrieb ich einen Wisch und fragte, ob ich auch darüber schweigen müsste dass ich soeben was unterschrieben hätte. Jens Neuschäfer verneinte, aber ich hab trotzdem die Klappe gehalten. Man darf sich die Unterschrift auch nicht als feierlichen Akt vorstellen, womit man ein einen exklusiven Kreis der Eingeweihten aufgenommen würde, das ist eigentlich nur ein Routine-Akt.

Sagen wir es mal anders: IMO werden die Leute fuer solche Affaeren vorsichtig ausgesucht. Niemand der ein bisschen Logik besitzt und sich erwachsen genug verhaelt (da wo es auch wirklich gebraucht wird) wird in Foren herumrennen und mit einem albernen Zettel wedeln.

Es gibt sowieso auch Faelle wo es vorkommt dass jemand vertrauliche Infos bekommt ohne Papierfranzen.

SentinelBorg
2005-07-03, 15:02:24
Ich denke mal, NV50 = G80. Der Refresh vom G70 wird sicher ein G75 oder so sein.

Sentinel

reunion
2005-07-23, 13:22:32
http://www.vr-zone.com/?i=2492

dildo4u
2005-07-23, 13:24:56
http://www.vr-zone.com/?i=2492
1GHz in 90nm daran will ich bei einem WGF2.0 chip nicht so wirklich Glauben
das ding hat doch locker 350-400mio Transistoren.

Winter[Raven]
2005-07-23, 13:46:53
1GHz in 90nm daran will ich bei einem WGF2.0 chip nicht so wirklich Glauben
das ding hat doch locker 350-400mio Transistoren.

Jou ... etwas unglaubwürdig ... aber beim NV40 dachte man auch erst 222mio ? Nie im Leben und dann G70 302 @ 0.11µ ... natürlich werden es keine 1Ghz aber Nvidia traue ich derzeit mehr zu als irgendjemand anderem. Komplexe Architekturen auf highclock zuprügeln.

Xmas
2005-07-23, 16:24:18
1GHz in 90nm daran will ich bei einem WGF2.0 chip nicht so wirklich Glauben
das ding hat doch locker 350-400mio Transistoren.
Hoher Takt und viele Transistoren widersprechen sich nicht unbedingt.

Übrigens hat S3 für die nächste Generation auch schon über 1 GHz als Ziel genannt. Bei der Hälfte der Transistoren allerdings.

Tyler_Durden
2005-07-23, 21:22:22
s3 verspricht vorher immer viel und hält davon hinterher wenig. :)

r3ptil3
2005-07-24, 03:04:04
Ich verstehe nicht, ich mach zuerst einen Speku Thread für G80 auf, und später jemand anders nochmals einen und keiner Postet mehr im ersten Thread, wobei eigentlich der zweite geschlossenen werden muss. Ein dritter kam ja auch dazu, der wurde dann geschlossen und ein Link zum G80/NV50 Thread zu posten. :rolleyes:

Ailuros
2005-07-24, 04:20:41
vr-zone fuegte uebrigens den letzten Paragraphen etwas spaeter noch hinzu im newsblurb.

Erstens wird mir die Tendenz zum Sensationalismus ala INQ doch viel zu offensichtlich und zweitens ist das einzige glaubwuerdige momentan an dem Zeug die Moeglichkeit einer vereinten Architektur von NVIDIA =/>Sommer 2006.

Die gelbe Eule
2005-10-30, 13:13:51
Ausgrab ;)

Sehen wir vielleicht eine DualGPU oder sogar einen Physikchip integriert?

Wer weiß, wer weiß ...

KaKÅrØT
2005-10-30, 14:05:03
mit physik chip kann ich mir schlecht vorstellen... würde es was bringen ?

dual gpu mmhh neija für wass wäre nicht ne gpu mit 2 cores effizienter??

sth
2005-10-30, 14:32:29
Dual-GPU halte ich für unwahrscheinlich, da Grafikchips relativ einfach skalierbar sind (im Vergleich zu z.B. CPUs). Der einzige Vorteil wäre die höhere Ausbeute wenn man wirklich zwei (physikalisch) getrennte Cores verwendet.

[edit]: Physik-Chip wäre theoretisch möglich aber ich denke, dass die Physik-Beschleunigung die nächsten 1-2 Jahre erstmal ausschließlich eine Sache von eigenständigen Karten sein wird.

DanMan
2005-10-30, 18:31:47
Nun, wird vielleicht bereits mit GDDR4 laufen. Link (http://www.heise.de/newsticker/meldung/65511)

aths
2005-10-30, 21:36:28
Ausgrab ;)

Sehen wir vielleicht eine DualGPU oder sogar einen Physikchip integriert?

Wer weiß, wer weiß ...Was soll eine "DualGPU" bringen? Warum sollte ein Physik-Chip integriert werden? Lange nicht jeder, der eine 3D-Graka braucht, braucht beschleunigte Physikberechnungen. In gewissen Maßen kann jede WGF2/DX10-Karte für Physikberechnungen genutzt werden, mit SM3-Karten geht es (eingeschränkt) im Prinzip auch schon.

Demirug
2005-10-30, 22:16:51
aths, was glaubst du wie gut sich Multicore Marketingtechnisch ausschlachten lässt?

Kladderadatsch
2005-10-30, 22:27:16
Nun, wird vielleicht bereits mit GDDR4 laufen. Link (http://www.heise.de/newsticker/meldung/65511)
Auch ATIs gerade vorgestellte Radeon-X1000-Chipfamilie soll bereits GDDR4 unterstützen
das lässt diese vermutung jedenfalls ziemlich glaubhaft werden.

aths
2005-10-30, 22:33:47
aths, was glaubst du wie gut sich Multicore Marketingtechnisch ausschlachten lässt?Das weiß ich nicht – aber ob "SLI on chip" so eine tolle Idee ist, bewzeifle ich, und bei so großen Chips steigt die Wahrscheinlichkeit, dass irgendwas kaputt ist.

Demirug
2005-10-30, 22:40:22
Das weiß ich nicht – aber ob "SLI on chip" so eine tolle Idee ist, bewzeifle ich, und bei so großen Chips steigt die Wahrscheinlichkeit, dass irgendwas kaputt ist.

Ich rede nicht von SLI on Chip. Das wäre nun wirklich sinnloss. Ich rede von Multicore als Marketingbegriff so wie ATI jetzt "Threads" benutzt.

BlackBirdSR
2005-10-30, 22:43:54
Ich rede nicht von SLI on Chip. Das wäre nun wirklich sinnloss. Ich rede von Multicore als Marketingbegriff so wie ATI jetzt "Threads" benutzt.

Würde mich nicht wundern, sobald AMD und Intel erstmal richtig losgelegt haben.
Ob der Prozessor jetzt wirklich intern in 2 Kerne unterteilt ist, oder man einfach eine Marketingunterteilung schafft, spielt dann ja keine Rolle.
Nachdem DualCore CPUs der neueste Trend sind, werden DualCore GPUs einschlagen wie eine Bombe.

Daran habe ich bisher noch gar nicht gedacht. Good catch.

Wechselbalg
2005-10-30, 23:09:52
Wäre es denn vielleicht dauerhaft denkbar, dass Dual Karten wie sie bisher nur von den einzelnen Herstellern kommen, auch ein Referenzlayout als Topmodell bekommen bzw. das die beiden Cores wie beim Presler gleich neben/untereinandersitzen?

Im Grunde wäre es ja vermutlich fertigungstechnisch durchaus interessant, wenn man nicht 300 Millionen Transistoren zusammenbacken muss, sondern 2 mal 150 Millionen. Klingt jetzt irgendwie doch stark nach VSA-100 ;), aber wenn man das zusätzlich noch im Marketing ausschlachten kann.

Ich glaube auch eher weniger dran, aber es gibt ja doch durchaus des öfteren Fertigungsprobleme.

micki
2005-10-31, 10:49:19
bei cpus gibt es ja auch nur "einen thread" den eine cpu abarbeiten kann und den takt kann man garnicht hoch genug schrauben um das ganze schneller zu machen, bei gpus wird schon in mehreren "threads" gearbeitet, so gesehen könnte man sagen dass es multicores sind. afaik ist nur der tri-setup einmal pro gpu vorhanden, aber afaik hat demirug vor einiger zeit gesagt, dass nv 2 dieser einheiten schon verbaut. somit könnte das nv marketing durchaus von ~36 cores reden die sich um einzelne fragmente, vertices, tris usw. kümmern.

MfG
micki

aths
2005-10-31, 13:41:28
bei cpus gibt es ja auch nur "einen thread" den eine cpu abarbeiten kann und den takt kann man garnicht hoch genug schrauben um das ganze schneller zu machen, bei gpus wird schon in mehreren "threads" gearbeitet, so gesehen könnte man sagen dass es multicores sind. afaik ist nur der tri-setup einmal pro gpu vorhanden, aber afaik hat demirug vor einiger zeit gesagt, dass nv 2 dieser einheiten schon verbaut.Ja, und das führt zu seltsamen möglichen Theorien.

So ist ein Quadbatch bei CineFX 3 und 4 immer 64x16 Pixel. Die – auf das Branching bezogene – effektive Batchgröße scheint beim NV40 aber 64x64, beim NV43 64x32 zu sein. Es gibt Branching-Tests (die allerdings noch mal überprüft werden müssen) dass der NV43 effektiver brancht als selbst der G70 mit einer effektiven Quadbatch-Größe von 64x16.

Eine Möglichkeit der Erklärung wäre, dass der NV43 vielleicht nur eine Triange-Setup-Unit hat, und es somit irgendwie eher zu Batches kommt, die nur Quads enthalten die nur einen Branch brauchen.

Coda
2005-10-31, 14:02:38
Wäre es denn vielleicht dauerhaft denkbar, dass Dual Karten wie sie bisher nur von den einzelnen Herstellern kommen, auch ein Referenzlayout als Topmodell bekommen bzw. das die beiden Cores wie beim Presler gleich neben/untereinandersitzen?

Im Grunde wäre es ja vermutlich fertigungstechnisch durchaus interessant, wenn man nicht 300 Millionen Transistoren zusammenbacken muss, sondern 2 mal 150 Millionen. Klingt jetzt irgendwie doch stark nach VSA-100 ;), aber wenn man das zusätzlich noch im Marketing ausschlachten kann.

Ich glaube auch eher weniger dran, aber es gibt ja doch durchaus des öfteren Fertigungsprobleme.Wenn man das effektiv machen will braucht man 3 Chips. Eine Vertexeinheit mit Load-Balancer und 2 Rasterizer/PixelShader. Ich frage mich grad allerdings warum daran noch keiner gedacht hat das ganze so in ein Package zu packen.

Godmode
2005-10-31, 19:14:40
Wenn man das effektiv machen will braucht man 3 Chips. Eine Vertexeinheit mit Load-Balancer und 2 Rasterizer/PixelShader. Ich frage mich grad allerdings warum daran noch keiner gedacht hat das ganze so in ein Package zu packen.

Könnte es sein das die Verbindungen zum anderen Kern ein Problem sind?

Coda
2005-10-31, 19:19:15
Braucht man in dem Fall nicht. 3DLabs macht das bei der Realizm 800 z.B. so.

Allerdings ist das nicht auf dem selben Package, sondern getrennte Chips.

Wechselbalg
2005-10-31, 19:19:23
Jetzt mal ganz blöd gefragt. Wäre Rampage/Sage nicht fast so etwas in der Art gewesen, oder verstehe ich das jetzt falsch?

Und wie komplex wäre jetzt so ein Loadbalancing bzw. ist das ganze überhaupt viel aufwendiger, als wenn man einen sehr komplexen Chip hätte?

Coda
2005-10-31, 19:21:48
Es ist aufwändiger und nicht so effizient, deshalb lässt man es wohl bleiben. Die billigeren Fertigungskosten kompensieren wohl die zusätzliche Logik nicht.

M2-Master
2005-11-18, 21:18:09
Weiß man schon ein ungefähres Release für den G80 ?

aths
2005-11-18, 21:54:59
Das weiß wohl nicht mal NV.

Winter[Raven]
2005-11-18, 22:33:44
Irgendwann nach dem R580 ... Nvidia kann sich derzeit entspannen, und werden je nach dem wie der R580 wird, auf diesen Reagieren.

@ATHS

Die wissen es schon, die Frage ist ehe auf welchen Quartal die sich im Endeffekt festsetzen.

Wobei ich wirklich auf die Verbessereungen gespannt bin, ich glaube kaum NV belässt es bei 32 Pipes >= G70 GTX 512 Takt.

aths
2005-11-18, 23:10:08
']Irgendwann nach dem R580 ... Nvidia kann sich derzeit entspannen, und werden je nach dem wie der R580 wird, auf diesen Reagieren.Hm? Der R520 ist in Spielen mindestens gleichschnell, und hat zudem die Option auf klar bessere BQ – wo kann sich NV da entspannen?

']@ATHS

Die wissen es schon, die Frage ist ehe auf welchen Quartal die sich im Endeffekt festsetzen.Die wissen es noch nicht.

Coda
2005-11-18, 23:15:28
Hm? Der R520 ist in Spielen mindestens gleichschnell, und hat zudem die Option auf klar bessere BQ – wo kann sich NV da entspannen?Ist dir G70 "Ultra" entgangen?

mapel110
2005-11-18, 23:25:31
und hat zudem die Option auf klar bessere BQ.
http://www.firingsquad.com/hardware/call_of_duty_2_midrange_graphics/page2.asp
With the exception of the bank of fog, it’s pretty hard to spot any differences in AF quality between the two boards. Edges look a little softer on the ATI board, but that’s completely subjective:
:biggrin:

Aber ich warte ja schön brav auf ein 3DCenter-Review. =)

robbitop
2005-11-18, 23:32:28
Aber ich warte ja schön brav auf ein 3DCenter-Review. =)
Dann wirst du aber noch lange laaaange warten dürfen.

Coda
2005-11-18, 23:41:11
http://www.firingsquad.com/hardware/call_of_duty_2_midrange_graphics/page2.asp
With the exception of the bank of fog, it’s pretty hard to spot any differences in AF quality between the two boards. Edges look a little softer on the ATI board, but that’s completely subjective:Bei dem Testcase auch kein Wunder. Alles schön horizontal oder vertikal.

M2-Master
2005-11-18, 23:53:19
Also der r580 soll ja auf dem Papier (wer weiß wann in Realität) im März erscheinen.
Ich habe den G80 eigentlich erst für Herbst erwartet.Liege ich da falsch ?
(Mom. der G80 ist doch der WGF 2.0 konforme Chip oder ?)

Ailuros
2005-11-18, 23:57:33
Also der r580 soll ja auf dem Papier (wer weiß wann in Realität) im März erscheinen.
Ich habe den G80 eigentlich erst für Herbst erwartet.Liege ich da falsch ?
(Mom. der G80 ist doch der WGF 2.0 konforme Chip oder ?)

Mit den Codenamen blicken wenige durch; Anfang 2006 kommt R580 und dessen 90nm Antwort von NVIDIA und beide werden wohl etwa zur gleichen Zeit ihre DX10 GPUs auf den Markt bringen wenn Vista dann endlich angekuendigt wird.

M2-Master
2005-11-19, 00:00:22
Mit den Codenamen blicken wenige durch; Anfang 2006 kommt R580 und dessen 90nm Antwort von NVIDIA und beide werden wohl etwa zur gleichen Zeit ihre DX10 GPUs auf den Markt bringen wenn Vista dann endlich angekuendigt wird.

Mh das würde im Prinzip heißen man sollte bis Ende des nächsten Jahres warten wenn man sich einen neuen Pc zulegen will,da ich einmal annehme das die Performance der WGF 2.0 CHips um ein vielfaches höher wird als z.B. jetzt der r520.

Coda
2005-11-19, 00:04:14
Viel mehr als 2x so schnell würde ich nicht erwarten. Dafür braucht man auch erstmal den dazu passenden RAM.

M2-Master
2005-11-19, 00:08:13
Viel mehr als 2x so schnell würde ich nicht erwarten. Dafür braucht man auch erstmal den dazu passenden RAM.

Naja ich denke 2x reicht schon um den als schnell zu bezeichnen.Was ich mich allerdings frage ist,wann WGF 2.0 überhaupt erst richtig in Spielen benutzt wird denn die Spielehersteller können ja die ganzen DirectX9 Grafikkarten nicht vernachlässigen.Bin gespannt wie die das Problem lösen.

Coda
2005-11-19, 00:15:30
Ein "vielfaches" höher definiere ich aber anders.

M2-Master
2005-11-19, 00:20:09
Ein "vielfaches" höher definiere ich aber anders.
Ich hab ja auch nur geschrieben,das schon doppelt so hohe Peformance sehr schnell ist,mit "vielfaches" höher meinte ich selber auch mehr als 2x.Es steht ja eigentlich noch in den Sternen wie schnell die werden.

Coda
2005-11-19, 01:13:13
Naja erwarte da mal nicht zuviel. Die Features verbrauchen auch sehr viel Transistoren.

Ailuros
2005-11-19, 02:04:25
Ein "vielfaches" höher definiere ich aber anders.

R600 muesste aber zumindest 2x mal so schnell sein als R580, sonst wird man ihn auch ziemlich schlecht verkaufen koennen. Und das mit dem 2x, 3x mal usw. ist ja sowieso ziemlich relativ zu den settings die benutzt werden.

aths
2005-11-19, 09:36:04
Ist dir G70 "Ultra" entgangen?Ja. Ich kenne nur eine GeForce 7800 GTX mit 512 MB. Auch diese Karte kann nur mieses AF, und MSAA bis maximal 4x.


http://www.firingsquad.com/hardware/call_of_duty_2_midrange_graphics/page2.asp
With the exception of the bank of fog, it’s pretty hard to spot any differences in AF quality between the two boards. Edges look a little softer on the ATI board, but that’s completely subjective:
:biggrin:

Aber ich warte ja schön brav auf ein 3DCenter-Review. =)Dabei hat ATI doch gezeigt, wo man hingucken muss.

Quasar
2005-11-19, 10:16:03
Du hast aber was von "Klar schneller"mindestens gleichschnell gesagt und nicht von "mehr Leistung", wobei du dann noch Bildqualität in die Leistung mit einfliessen hättest lassen können.

Oder wie ist deine Aussage zu verstehen?

aths
2005-11-19, 11:10:53
Du hast aber was von "Klar schneller"mindestens gleichschnell gesagt und nicht von "mehr Leistung", wobei du dann noch Bildqualität in die Leistung mit einfliessen hättest lassen können.

Oder wie ist deine Aussage zu verstehen?Meine Aussage ist so zu verstehen, dass ich nicht verstehe wie Winterraven davon sprechen kann, dass sich NV zurücklehnen könne. Das mindestens gleichschnell bezieht sich darauf, dass ich bei einigen Spielen mit neuen Treibern noch das eine oder andere Prozent in Timedemo-Benchmarks erwarte.

Inwieweit man die 512-er GTX in Betracht ziehen muss würde ich auch abwarten – nur weil es einige dieser Karten zu astronomischen Preisen geben mag, die mit SLI unschlagbar sind, weiß ich nicht ob man Nvidia gleich vorne sehen sollte.

Natürlich wird NV mal einen G70-Nachfolger vorstellen, welcher sowohl G70 als auch R520 deutlich übertrifft. Wollen sie gegen den R580 bestehen, müssen sie sich allerdings was einfallen lassen. Auch insofern ist kein Zurücklehnen angesagt.

Quasar
2005-11-19, 11:51:35
Ok, also beziehst du die "einigen dieser Karten zu astronomischen Preisen" nicht mit ein, wenn du sie gegen "keine dieser Karten (X1800XT) zu nicht minder astronomischen Preisen" vergleichst? ;)

Also X1800XT-512 vs. 7800GTX-256: Ok, das ist doch mal 'ne Hausnummer.

Mr. Lolman
2005-11-19, 12:58:58
http://www.firingsquad.com/hardware/call_of_duty_2_midrange_graphics/page2.asp
With the exception of the bank of fog, it’s pretty hard to spot any differences in AF quality between the two boards. Edges look a little softer on the ATI board, but that’s completely subjective:
:biggrin:



Sry, aber Firingsquad ist keine besonders gute Anlaufstelle für BQ Vergleiche: http://www.forum-3dcenter.de/vbulletin/showthread.php?t=211060

aths
2005-11-19, 13:43:06
Ok, also beziehst du die "einigen dieser Karten zu astronomischen Preisen" nicht mit ein, wenn du sie gegen "keine dieser Karten (X1800XT) zu nicht minder astronomischen Preisen" vergleichst? ;)

Also X1800XT-512 vs. 7800GTX-256: Ok, das ist doch mal 'ne Hausnummer.Man kann gerne die jeweiligen Nonplusultra-Modelle vergleichen, allerdings halte ich die daraus gefolgerten Ergebnisse für ziemlich belanglos.

Als ich knapp 600 € für die Ti 4600 ausgab, hatten nur sehr wenige Leute ähnliche Kaufabsichten. Setzt man Winterravens Logik an, hätte sich NV mit der Ti 4600 ja bequem zurücklehnen können – womit ATI dann konterte, ist bekannt.

Winter[Raven]
2005-11-19, 13:52:42
Man kann gerne die jeweiligen Nonplusultra-Modelle vergleichen, allerdings halte ich die daraus gefolgerten Ergebnisse für ziemlich belanglos.

Als ich knapp 600 € für die Ti 4600 ausgab, hatten nur sehr wenige Leute ähnliche Kaufabsichten. Setzt man Winterravens Logik an, hätte sich NV mit der Ti 4600 ja bequem zurücklehnen können – womit ATI dann konterte, ist bekannt.

aths,

mit "ausruhen" habe nicht davon gesprochen, dass Nvidia jetzt Füsse auf den Tsch legt und in den Himmel pfeift. Viel mehr meinte ich Nvidia seih jetzt in der Lage ihren Refresh so anzupassen wie sie es für nötig halten und auf einen Zeitpunkt legen an dem es nötig sien wird.

Die Arbeit geht bei NV natürlich weiter und in allen Gängen.

Quasar
2005-11-19, 13:57:35
Man kann gerne die jeweiligen Nonplusultra-Modelle vergleichen, allerdings halte ich die daraus gefolgerten Ergebnisse für ziemlich belanglos.

Ja, aber was du tust, ist, das non-plus-ultra-Modell auf der einen Seite mit dem aliquid-plus-ultra-Modell auf der anderen Seite zu vergleichen. Das halte ich nicht für viel sinnvoller.

Ich wollte dies noch anmerken, da die Diskussion bereits im Gange ist. Aufgrund meines zukünftigen Gast-Status werde ich in diesem Thread/Forum leider nicht mehr auf weitere Beiträgt anworten können. Lesen werde ich sie dennoch!

Ailuros
2005-11-19, 14:06:13
']aths,

mit "ausruhen" habe nicht davon gesprochen, dass Nvidia jetzt Füsse auf den Tsch legt und in den Himmel pfeift. Viel mehr meinte ich Nvidia seih jetzt in der Lage ihren Refresh so anzupassen wie sie es für nötig halten und auf einen Zeitpunkt legen an dem es nötig sien wird.

Die Arbeit geht bei NV natürlich weiter und in allen Gängen.

Im Grund hat er aber schon recht, nur weil eben NVIDIA nicht genug Zeit haben wird das nachzuholen was ihnen im Vergleich zur R5xx Linie fehlt und das bezieht sich hoechstwahrscheinlich nicht nur auf den AF-Algorithmus.

Generell aber (wenn man heutige Aspekte im Hinterkopf behaltet) sehe ich von Seiten R580 keine besondere Drohung fuer NV's Nachfolger. NVIDIA kann weiterhin die Taktrate und die Anzahl der quads erhoehen, waehrend ATI wohl doch nicht besonders viel Luftraum fuer extrem hoehere Frequenzen fuer R580 im Vergleich zu R520 hat.

Ailuros
2005-11-19, 14:08:27
Ich wollte dies noch anmerken, da die Diskussion bereits im Gange ist. Aufgrund meines zukünftigen Gast-Status werde ich in diesem Thread/Forum leider nicht mehr auf weitere Beiträgt anworten können. Lesen werde ich sie dennoch!

Entschuldigt das OT: wieso Gast-Status? Falls Du nicht in aller Oeffentlichkeit antworten kannst oder willst, bitte PM box benutzen. Wie dem auch sei, Deine Beitraege werde ich sicher vermissen :(

mapel110
2005-11-19, 14:17:59
Entschuldigt das OT: wieso Gast-Status? Falls Du nicht in aller Oeffentlichkeit antworten kannst oder willst, bitte PM box benutzen. Wie dem auch sei, Deine Beitraege werde ich sicher vermissen :(
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3695926&postcount=23
Siehe dieses Posting.

Und Luftraum hört sich nett an, aber besser wäre nur Luft oder Raum. :)

Wenn der Refresh fertig ist, wird er auch kommen, egal was die Konkurrenz macht. Es macht doch keinen Sinn, ein fertiges Produkt zurückzuhalten.

aths
2005-11-19, 14:24:45
']aths,

mit "ausruhen" habe nicht davon gesprochen, dass Nvidia jetzt Füsse auf den Tsch legt und in den Himmel pfeift. Viel mehr meinte ich Nvidia seih jetzt in der Lage ihren Refresh so anzupassen wie sie es für nötig halten und auf einen Zeitpunkt legen an dem es nötig sien wird.

Die Arbeit geht bei NV natürlich weiter und in allen Gängen.NV passt die Refreshe immer so an, wie sie es für nötig halten – und wie sie es hinbekommen. Gleiches gilt für den Zeitpunkt.
Ja, aber was du tust, ist, das non-plus-ultra-Modell auf der einen Seite mit dem aliquid-plus-ultra-Modell auf der anderen Seite zu vergleichen. Das halte ich nicht für viel sinnvoller.

Ich wollte dies noch anmerken, da die Diskussion bereits im Gange ist. Aufgrund meines zukünftigen Gast-Status werde ich in diesem Thread/Forum leider nicht mehr auf weitere Beiträgt anworten können. Lesen werde ich sie dennoch!Wieso nutzt du deinen Account nicht mehr??

aths
2005-11-19, 14:26:19
Im Grund hat er aber schon recht, nur weil eben NVIDIA nicht genug Zeit haben wird das nachzuholen was ihnen im Vergleich zur R5xx Linie fehlt und das bezieht sich hoechstwahrscheinlich nicht nur auf den AF-Algorithmus.

Generell aber (wenn man heutige Aspekte im Hinterkopf behaltet) sehe ich von Seiten R580 keine besondere Drohung fuer NV's Nachfolger. NVIDIA kann weiterhin die Taktrate und die Anzahl der quads erhoehen, waehrend ATI wohl doch nicht besonders viel Luftraum fuer extrem hoehere Frequenzen fuer R580 im Vergleich zu R520 hat.Ja klar: ATI kann sich auf seine stärken konzentrieren, und NV auf seine. Insgesamt sollten schon für den Spieler ungefähr gleichwertige Produkte herauskommen – wenn auch mit jeweils anderen Vorzügen und Nachteilen.

Ailuros
2005-11-19, 15:25:03
Ja klar: ATI kann sich auf seine stärken konzentrieren, und NV auf seine. Insgesamt sollten schon für den Spieler ungefähr gleichwertige Produkte herauskommen – wenn auch mit jeweils anderen Vorzügen und Nachteilen.

Der Unterschied was ALU Leistung betrifft wird natuerlich nicht mehr so drastisch hoch sein, was auch zu ATI's Vorteil sein wird insgesamt. Generell erwarte ich trotzdem keine besonderen Leistungs-Unterschiede.

Was ATI sehr stark kosten koennte sind weitere Verzoegungen und/oder begrenzte Verfuegbarkeit; solche Anzeigen gibt es zwar momentan noch nicht, aber ein etwas unsicheres Gefuehl hab ich hier schon.

Godmode
2005-12-10, 11:33:38
Was sollte der G80 können:
- zuerst einmal besseres AF, ich denke da kommt Nvidia gar nicht drum herum.
- bessere Branchingleistung(soll ja bei den aktuellen Chips schlechter sein als bei der Konkurenz)
- HDR soll in Verbindung mit AA möglich sein.
- Höhere AA Mode dh Masken mit mehr Samples
- DX10 Featurs

das wäre mal das Minimum an Neuerungen, aber ich denke das sollte schon drinnen sein. Ob schon vereinigte Shader geboten werden? Ich denke so wichtig ist das nicht. Um die Features besser abschätzen zu können, bräuchten wir die DX10 Spezifikation, die ja für die Öffentlichkeit noch nicht Verfügbar ist.

reunion
2005-12-10, 11:46:18
Nvidia to introduce G80 graphics processor and SM 4.0 support in 2006 (http://www.tgdaily.com/2005/12/07/nvidia_g80/)

aths
2005-12-10, 19:37:51
Was sollte der G80 können:
- zuerst einmal besseres AF, ich denke da kommt Nvidia gar nicht drum herum.Sofern D3D10-Specs keinen besseren Modus fordern, kommen sie darum herum.
- bessere Branchingleistung(soll ja bei den aktuellen Chips schlechter sein als bei der Konkurenz)Es soll nicht nur, es ist.
- HDR soll in Verbindung mit AA möglich sein.HDR-was? "HDR" und AA ist per se möglich. Was der G70 nicht kann ist MSAA auf ein FP16-Target.
- DX10 FeatursDX10 gibt es nicht.

Paul Brain
2005-12-10, 19:52:50
Was sollte der G80 können:
- zuerst einmal besseres AF, ich denke da kommt Nvidia gar nicht drum herum.
- bessere Branchingleistung(soll ja bei den aktuellen Chips schlechter sein als bei der Konkurenz)
- HDR soll in Verbindung mit AA möglich sein.
- Höhere AA Mode dh Masken mit mehr Samples
- DX10 Featurs- H.264-Beschleunigung (für HDTV), falls der G70 das noch nicht kann. R520 kanns, G70 kanns angeblich, bislang konnte das aber nicht verifiziert werden, da es zumindestens (noch?) keine Treiberunterstützung gibt.

MadManniMan
2005-12-10, 21:17:08
Weißt Du, was mir an Dir seit Ewigkeiten tatsächlich richtig auf die Ketten geht? Solche Aussagen:


DX10 gibt es nicht.

...ist doch toll, daß Du weißt, daß es D3D10 und nicht DX10 heißt - aber jeder, gottverdammtnochmal jeder weiß, was gemeint ist.
Und wenn Du dann sowas schreibst, dann doch bitte "DX10 gibt es nicht, das wird D3D10 genannt" oder "DX10 gibt es nicht ;)".

Was ist daran so schwer, das nicht besserwisserisch zu formulieren :conf:

reunion
2005-12-10, 21:30:23
...ist doch toll, daß Du weißt, daß es D3D10 und nicht DX10 heißt - aber jeder, gottverdammtnochmal jeder weiß, was gemeint ist.



ACK, vorallem da ich jetzt schon jede Wette eingehen würde, dass das Teil am Ende doch DX10 heißen wird.

aths
2005-12-11, 10:59:16
Weißt Du, was mir an Dir seit Ewigkeiten tatsächlich richtig auf die Ketten geht? Solche Aussagen:



...ist doch toll, daß Du weißt, daß es D3D10 und nicht DX10 heißt - aber jeder, gottverdammtnochmal jeder weiß, was gemeint ist.
Und wenn Du dann sowas schreibst, dann doch bitte "DX10 gibt es nicht, das wird D3D10 genannt" oder "DX10 gibt es nicht ;)".

Was ist daran so schwer, das nicht besserwisserisch zu formulieren :conf:Auch bei DirectX 9.1 wusste jeder, was gemeint ist. Oder bei Pixelshader 2.0+. "aber jeder, gottverdammtnochmal jeder weiß, was gemeint ist" zählt für mich nicht. Wenn sich ein falscher Wortgebrauch erst mal eingeschliffen hat, ists zu spät. Da wirke ich lieber als Besserwisser.

Ailuros
2005-12-11, 11:04:10
Sofern D3D10-Specs keinen besseren Modus fordern, kommen sie darum herum.


Ehrliche Frage: hat jemand vielleicht ne Ahnung was Dave hiermit meinte?

http://www.beyond3d.com/forum/showthread.php?p=645401&highlight=Microsoft#post645401

Godmode
2005-12-11, 11:20:20
Ehrliche Frage: hat jemand vielleicht ne Ahnung was Dave hiermit meinte?

http://www.beyond3d.com/forum/showthread.php?p=645401&highlight=Microsoft#post645401

Für mich hört es sich so an, als wenn bei D3D10(danke aths) viel genauer spezifiziert wird, als noch bei D3D9.
- Der ansiotropische Filter muss genau so und so funktionieren und muss genau das machen was gefordert ist.
- Ein Minimum an Shaderoperationen/Takt ist gefordert
- ....

so ähnliche könnte ich mir das Vorstellen.

Demirug
2005-12-11, 11:23:06
Ehrliche Frage: hat jemand vielleicht ne Ahnung was Dave hiermit meinte?

http://www.beyond3d.com/forum/showthread.php?p=645401&highlight=Microsoft#post645401

Wahrscheinlich spielt er auf die ~300 Seiten D3D10 Spec an. Allerdings würde ich nicht behaupten das dadurch die Architektur vorgschrieben wird. Es gibt ja auch mehr als einen Weg eine X86 CPU zu bauen.

Godmode
2005-12-11, 11:26:00
Wahrscheinlich spielt er auf die ~300 Seiten D3D10 Spec an. Allerdings würde ich nicht behaupten das dadurch die Architektur vorgschrieben wird. Es gibt ja auch mehr als einen Weg eine X86 CPU zu bauen.

Hast du die Spezifikation etwa schon?

Ailuros
2005-12-11, 11:27:42
Wahrscheinlich spielt er auf die ~300 Seiten D3D10 Spec an. Allerdings würde ich nicht behaupten das dadurch die Architektur vorgschrieben wird. Es gibt ja auch mehr als einen Weg eine X86 CPU zu bauen.

So etwa stellte ich mir es auch vor. Ausserdem hab ich ja schon gesehen wie man manchmal gewisser Vorschreibungen einfach ausweichen kann.

Demirug
2005-12-11, 11:44:44
@bans3i, Eine Zusammenfassung davon aber keine absoluten Details.

@Ailuros, angeblich hat MS diesesmal besser aufgepasst was die Hintertürchen angeht. Auf jeden Fall gilt aber das alle Regeln nur gelten wenn man die D3D10 API nutzt. Für D3D9 gelten weiterhin die alten Regeln.

Godmode
2005-12-11, 12:09:53
Eine Zusammenfassung davon aber keine absoluten Details.

Und darfst du sie weitergeben, oder darf die Öffentlichkeit daran noch nicht teilhaben?

Ailuros
2005-12-11, 12:41:05
@Ailuros, angeblich hat MS diesesmal besser aufgepasst was die Hintertürchen angeht. Auf jeden Fall gilt aber das alle Regeln nur gelten wenn man die D3D10 API nutzt. Für D3D9 gelten weiterhin die alten Regeln.

Hmmmm gibt es denn ueberhaupt eine Chance dass Features die in D3D9 eine Vorraussetzung sind nicht auch in D3D10 als Vorraussetzung gelten?

Dass sie diesmal auf die Hintertuerchen geachtet haben ist schon mal ein weiterer positiver Aspekt.

Die gelbe Eule
2005-12-11, 12:46:56
Sehen wir eigentlich mit dem G80 den ersten 1GHZ GPU Chip? Sollte der G71 schon mit 750MHz+ daherkommen, sollte das möglich sein oder?

Godmode
2005-12-11, 13:17:59
Sehen wir eigentlich mit dem G80 den ersten 1GHZ GPU Chip? Sollte der G71 schon mit 750MHz+ daherkommen, sollte das möglich sein oder?

Glaubst du wirlich dass Nvidia jetzt den Takt innerhalb eines Jahres verdopplen kann? :rolleyes:

Die gelbe Eule
2005-12-11, 13:28:06
Schau Dir mal die Steigerung an in den letzten Monaten:

6800U 400MHz
7800GTX 430MHz
7800GTX 512MB 550MHZ
7900 GTX 750MHZ+
G80 = 900MHZ-1GHz ???

Wechselbalg
2005-12-11, 13:31:46
Da sollte man aber vielleicht bedenken, dass es auch immer eine Frage der Komplexität eines Chips ist. Wenn man jetzt alle Spezifikationen von D3D10 erfüllt, eventuell das anisotropische Filtering auch wieder Winkelunabhängig möglich macht und generell eventuell auch die Quadzahl steigert oder ein Quad eben komplexer wird, wird die Taktrate bei gleichem Fertigungsprozess vermutlich eher sinken als steigen würde ich vermuten. Da das ja nichts über Leistungsfähigkeit aussagt, kann es aber auch recht egal sein.

Die gelbe Eule
2005-12-11, 13:34:43
400M Transistoren könnte man bei dem G80 bestimmt sehen ...

sklave_gottes
2005-12-11, 13:45:51
Schau Dir mal die Steigerung an in den letzten Monaten:

6800U 400MHz
7800GTX 430MHz
7800GTX 512MB 550MHZ
7900 GTX 750MHZ+
G80 = 900MHZ-1GHz ???

FX 5800 Ultra 500mhz
FX 5900 Ultra 450mhz
FX 5950 Ultra 475mhz
Geforce 6800 Ultra 400mhz
@geforce 7800GTX 512MB das wurde nur durch sehr starke selektierung erreicht---> siehe verfügbarkeit
@geforce 7900? sind doch nur spekulationen.
Ich denke nicht das der g80 an 1GHZ ran kommt,aber mal sehen.

MadManniMan
2005-12-11, 13:49:27
Auch bei DirectX 9.1 wusste jeder, was gemeint ist. Oder bei Pixelshader 2.0+. "aber jeder, gottverdammtnochmal jeder weiß, was gemeint ist" zählt für mich nicht. Wenn sich ein falscher Wortgebrauch erst mal eingeschliffen hat, ists zu spät. Da wirke ich lieber als Besserwisser.

Was ist dann daran so schwer, ihn gleich zu verbessern?

Wenn jemand von D3D10 noch nicht gehört hat und diese Antwort von Dir bekommt - ja wie ist ihm dann geholfen?

Die gelbe Eule
2005-12-11, 14:01:10
FX 5800 Ultra 500mhz
FX 5900 Ultra 450mhz
FX 5950 Ultra 475mhz
Geforce 6800 Ultra 400mhz
@geforce 7800GTX 512MB das wurde nur durch sehr starke selektierung erreicht---> siehe verfügbarkeit
@geforce 7900? sind doch nur spekulationen.
Ich denke nicht das der g80 an 1GHZ ran kommt,aber mal sehen.

Die 7900er kommt in 90nm und weil man da nicht mehr viel am Design ändert, steckt man den schon ausgereiften Prozess garantiert in die Taktrate. 32PP wäre zwar drin, aber um die R580 in Schach zu halten, reicht ein höherer Takt.

Black-Scorpion
2005-12-11, 15:50:15
Kannst du mir deine Kristallkugel mal kurz überlassen, möchte auch mal sehen wie schnell der R580 ist.

Ailuros
2005-12-11, 15:59:46
Sehen wir eigentlich mit dem G80 den ersten 1GHZ GPU Chip? Sollte der G71 schon mit 750MHz+ daherkommen, sollte das möglich sein oder?

Eine etwas aeltere Schaetzung von NV selber:

http://users.otenet.gr/~ailuros/estimate.jpg

Schau Dir mal die Linie fuer Transistoren im Vergleich zur eingeschaetzten Frequenz an.

1GHz scheint fuer ~2009 eingeschaetzt zu sein. Den Graph koennte man auch als sinnloses Geblubbere abstempeln nur leider stimmt in etwa die Transistoren-Anzahl und die Bandbreite fuer die naechsten paar Jahre.

Ailuros
2005-12-11, 16:02:40
Die 7900er kommt in 90nm und weil man da nicht mehr viel am Design ändert, steckt man den schon ausgereiften Prozess garantiert in die Taktrate. 32PP wäre zwar drin, aber um die R580 in Schach zu halten, reicht ein höherer Takt.

Fettgedruckt ist am amuesantesten.

Die gelbe Eule
2005-12-11, 16:09:06
Das Design ist doch klar besser zu Gunsten von NV, erhöht man die VS und den Takt, kann der R580 nicht dagegenhalten. Andere Spielereien bekommt der G71 ja nicht.

Godmode
2005-12-11, 16:19:32
Das Design ist doch klar besser zu Gunsten von NV, erhöht man die VS und den Takt, kann der R580 nicht dagegenhalten. Andere Spielereien bekommt der G71 ja nicht.

Cool, du musst die Leistungsdaten des R580 schon kennen, dann mal raus damit.

Ailuros
2005-12-11, 16:24:24
Das Design ist doch klar besser zu Gunsten von NV, erhöht man die VS und den Takt, kann der R580 nicht dagegenhalten. Andere Spielereien bekommt der G71 ja nicht.

Gleiches gilt aber auch fuer 8 quads und moderaterer Taktrate und ich will mal gewagt behaupten dass hier die Abwaerme sogar kleiner ist.

Ich frag nochmal gibt es aussser dieser HPKEP (oder wie immer sie heisst) Seite eine zuverlaessige Quelle die:

a) G71 als Codenamen benutzt
b) 6 quads@750MHz

....oder hat mal wieder einer dieser Sensationsheinis etwas in die Luft geworfen und Ihr glaubt es alle blindlings?

Es gab bis jetzt keine Anzeichen von Seiten NV dass sie ploetzlich vorhaben ihre bisherige Masche mit NV4x/G7x zu aendern.

Wechselbalg
2005-12-11, 16:27:49
Die 7900er ist aber nun mal nicht G80 und das dieser mit mehr Transistoren (und 400 Millionen halte ich da noch eher für niedrig) dann noch mal so viel mehr Takt schaffen wird bei gleichem Fertigungsprozess, kann ich mir einfach nicht vorstellen.

Ansonsten mag es zwar Spekulationsforum sein, aber ungelegte Eier lassen selten eine genaue Analyse des Inhaltes vorher zu.

EDIT: Gibt es zumindest bei mir nicht. So dass ich mich auch verkrümeln sollte. ^^

Ailuros
2005-12-11, 16:30:08
Cool, du musst die Leistungsdaten des R580 schon kennen, dann mal raus damit.

Ich rate hier mal aus dem nichts aber entweder 6 quads@750MHz oder 8 quads@=/>550MHz scheinen mir genauso konkurrenzfaehig zu R580 zu sein, zumindest auf Papier. Die brennende Frage ist woanders: 110nm hatte auch groessere die-Flaeche als 130nm. Warum pumpte NV nicht einfach hier die ALUs auf, blieb auf 4 quads und taktete den G70 nicht dann auf ~640MHz?

Die gelbe Eule
2005-12-11, 16:32:46
Nicht schon wieder. Bekannt ist doch schon lange das das PCB wie beim X1800XT unverändert bleibt. Nur der Takt wird nach oben gehen, was wollen sie sonst noch rausholen?

Ailuros
2005-12-11, 16:52:07
Nicht schon wieder. Bekannt ist doch schon lange das das PCB wie beim X1800XT unverändert bleibt. Nur der Takt wird nach oben gehen, was wollen sie sonst noch rausholen?

Redest Du mit Dir selber oder was?

Was ist schon lange genau bekannt und woher kommt der Quark dass der "PCB" gleich bleibt? Dass ATI die ALU-Leistung rein theoretisch erstmal verdreifachen wird und dass auch die Transistoren auf R580 hoechstwahrscheinlich auf =/>380M schiessen werden?

Die gelbe Eule
2005-12-11, 18:12:40
Werden wir jetzt auch flameanfällig? Dachte Du bist einer der wenigen die immer objektiv bleiben ...

Quelle (http://babelfish.altavista.com/babelfish/urltrurl?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f121%2f121117.shtml)

Godmode
2005-12-11, 19:40:20
... Die brennende Frage ist woanders: 110nm hatte auch groessere die-Flaeche als 130nm. Warum pumpte NV nicht einfach hier die ALUs auf, blieb auf 4 quads und taktete den G70 nicht dann auf ~640MHz?

Sie wussten wahrscheinlich - durch Simulationen - dass der 6 Quader kühler sein wird. Wenn man die GTX 512 mit der Radeon XT vergleicht, ist ja nicht viel Unterschied was die Temperatur betrifft, obwohl zweite im 90nm Prozess gefertigt wird.

mapel110
2005-12-11, 22:43:34
Werden wir jetzt auch flameanfällig? Dachte Du bist einer der wenigen die immer objektiv bleiben ...

Quelle (http://babelfish.altavista.com/babelfish/urltrurl?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f121%2f121117.shtml)
Da du anderen Orts heute bereits genau wegen sowas auch schon verwarnt wurdest, gibts hier jetzt 1 Punkt.

Diskussionen über Verwarnungen sind bei Bedarf in einem ggf. zu erstellenden Thread im "über die Webseite und das Forum - Forum" zu führen bzw. per PN mit dem jeweiligen Moderator, denn hier wären sie OT. Siehe dazu auch: Regeln und Richtlinien für die Moderation.

StefanV
2005-12-11, 23:09:12
Nicht schon wieder. Bekannt ist doch schon lange das das PCB wie beim X1800XT unverändert bleibt. Nur der Takt wird nach oben gehen, was wollen sie sonst noch rausholen?
MOMENTAN ist das PCB der beiden X1800er identisch.
WER SAGT, das es gleich bleiben WIRD?!
Schließlich gibts ja die Gerüchte, die eher belegen, das du Mist gepostet hast, sprich man an einem anderen, preisgünstigeren PCB ARBEITET.

deekey777
2005-12-11, 23:18:27
MOMENTAN ist das PCB der beiden X1800er identisch.
WER SAGT, dass es gleich bleiben WIRD?!
Schließlich gibts ja die Gerüchte, die eher belegen, das du Mist gepostet hast, sprich man an einem anderen, preisgünstigeren PCB ARBEITET.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3710019&postcount=2334
[...]
€: Die Spekulationen des Reviewers sind sehr interessant. In erster Linie beschreibt er die seit Oktober verfügbare X1800XL mit dem R520 A04 als die X1800XT, die wir gesehen hätten, wenn die X1000er Serie rechtzeitig veröffentlicht worden wäre. Darum habe die X1800XL in jetziger Form unnötigerweise die Platine der X1800XT und so auch den teureren 1,4ns Speicher mit 136Pins. Wenn diese "alten" X1800XL abverkauft sind, dann wäre es möglich, daß die "neue" X1800XL mit dem R520 Rev. A05 nicht nur den zivilen 2.0 Speicher mit 144Pins und ggf. eine neue und einfachere Platine.
Bzw. http://www.digit-life.com/articles2/video/r520-2.html

Die X1800XL AIW hat schon ein anderes PCB (ist ja logisch) mit 144 Pin-Speicher: Auch wenn sie mehr Saftverbraucher hat, so wären die Verbrauchswerte interessant.

Nicht schon wieder. Bekannt ist doch schon lange das das PCB wie beim X1800XT unverändert bleibt. Nur der Takt wird nach oben gehen, was wollen sie sonst noch rausholen?

Was soll das denn? Bei ATi ist es fast Tradition, daß sich das PCB nicht ändert und die VPUs bis zum R520 miteinander pinkompatibel sind. Doch wie du daraus auf die Leistung des R580 schliessen kannst, ist mir ein neues Rätsel. Der R580 könnte ein wahres ALU-Monster werden.

Ailuros
2005-12-12, 19:57:12
Werden wir jetzt auch flameanfällig? Dachte Du bist einer der wenigen die immer objektiv bleiben ...

Quelle (http://babelfish.altavista.com/babelfish/urltrurl?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f121%2f121117.shtml)


Toter link, aber das ist sowieso nicht so wichtig.

ATI wird nicht nur den Takt auf R580 erhoehen und dass alleine unterstuetzt erstmal meine konstanten Versuche so objektiv wie menschlich moeglich zu bleiben.

R580 wird 48 ALUs gegenueber nur 16 beim R520 haben, was in GLOPs irgendwo ueber 250GFLOPs vs. 83GFLOPs (R520) heisst. Und ja ich schaetze irgendwo 70-80M Transistoren mehr fuer R580 und ich erwarte auch dass NVIDIA mit den etwa gleichen Transistoren ankommen wird.

Ailuros
2005-12-12, 20:01:23
Sie wussten wahrscheinlich - durch Simulationen - dass der 6 Quader kühler sein wird. Wenn man die GTX 512 mit der Radeon XT vergleicht, ist ja nicht viel Unterschied was die Temperatur betrifft, obwohl zweite im 90nm Prozess gefertigt wird.

Solche Experimente sind zu teuer und NVIDIA macht sie schon seit ueber 2 Jahren nicht mehr. NV4x war von Anfang an auf sehr hohe Skalierbarkeit ausgelegt.

Godmode
2005-12-12, 21:59:43
Solche Experimente sind zu teuer und NVIDIA macht sie schon seit ueber 2 Jahren nicht mehr. NV4x war von Anfang an auf sehr hohe Skalierbarkeit ausgelegt.

In der Wirtschaft ist manchmal der vorne, der riskiert. Dieses Risiko abzuwägen ist ziemlich schwierig und man sieht ja beim NV30, dass es daneben ging. Tritt das Risiko aber nicht ein, hat man vielleicht ein Produkt welches einem vom Mitbewerber etwas absetzt.

Nvidia hatte dieses Jahr eine ziemlich gute Ausgangsposition und wenn sie sich nicht darauf ausgeruht haben, wird es bis zum D3D10 Chip(noch mal danke aths) recht gut aussehn.

Auch auf den R580 bin ich schon sehr gespannt, da ich jetzt überhaupt nicht abschätzen könnte, was die zusätzlichen ALUs wirklich bringen, vor allem bei aktuellen Spielen wie FEAR, SS2, QuakeIV, ...

Demirug
2005-12-12, 23:06:26
Und darfst du sie weitergeben, oder darf die Öffentlichkeit daran noch nicht teilhaben?

Mehr oder weniger ist es seit ein paar Stunden offiziel.

Godmode
2005-12-12, 23:16:57
Mehr oder weniger ist es seit ein paar Stunden offiziel.

Könntest du mir da einen Link anbieten? :biggrin:

Demirug
2005-12-12, 23:21:28
Könntest du mir da einen Link anbieten? :biggrin:

http://msdn.com/directx/sdk

Ich weiß aber nicht ob du dir wirklich mehr als 300 MB ziehen möchtest für die D3D10 Referenz.

Godmode
2005-12-12, 23:24:57
http://msdn.com/directx/sdk

Ich weiß aber nicht ob du dir wirklich mehr als 300 MB ziehen möchtest für die D3D10 Referenz.

Dankeschön, dass ist kein Problem, dass neue SDK interessiert mich sowiso.

Ailuros
2005-12-13, 06:20:08
Auch auf den R580 bin ich schon sehr gespannt, da ich jetzt überhaupt nicht abschätzen könnte, was die zusätzlichen ALUs wirklich bringen, vor allem bei aktuellen Spielen wie FEAR, SS2, QuakeIV, ...

FEAR waere hier der bessere Kandidat. Verdammt einseitige Rechnung aber schau mal her:

1600/4xAA/16xAF

256 GTX = 24 fps
512 GTX = 31 fps
--------------------
+ 29%

----------------------------------
----------------------------------

256 GTX = 165 GFLOPs
512 GTX = 211 GFLOPs
-------------------------
+ 28%

Das ist bloed und einseitig gerechnet und es beruht nur auf dem Zufall dass die Leistungsteigerung etwa auf dem Prozentual der Taktsteigerung liegt.

Nehme ich jetzt die 83GFLOPs der R520 und multiplizier mit 3x = 249 GFLOPs (Vorraussetzung 625MHz auf R580), dann erwarte ich zwar keine Verdreifachung von Fear-Leistung (denk moegliche Flaschenhaelse) aber unter +50% erwarte ich persoenlich hier nicht mit AA/AF. Ohne AA/AF duerfte der Unterschied zu R520 um einiges groesser sein.

Kladderadatsch
2005-12-13, 07:31:32
R580 wird 48 ALUs gegenueber nur 16 beim R520 haben, was in GLOPs irgendwo ueber 250GFLOPs vs. 83GFLOPs (R520) heisst. Und ja ich schaetze irgendwo 70-80M Transistoren mehr fuer R580 und ich erwarte auch dass NVIDIA mit den etwa gleichen Transistoren ankommen wird.
nv, wann?
der g80 kommt doch erst mitte 2006, der r580 dagegen schon in wohl weniger als 2 monaten, oder?
oder wird sich beim g72 da was ändern?!

seahawk
2005-12-13, 07:46:42
nv, wann?
der g80 kommt doch erst mitte 2006, der r580 dagegen schon in wohl weniger als 2 monaten, oder?
oder wird sich beim g72 da was ändern?!

Der G80 Begriff wird eher für den im H2/06 erwarteten DX10-Vista Chip von NV verwendet. Im 1Q06 hingegen wird noch ein letzter 90nm Refresh der bestehende Architketur erwartet. Dazu gibt es einmal die Meldung von HKPEC, die von einem hochgetakteten G70 berichtet und die Meinung, die von einem ungefähr taktkonstanten ca. 500 Mhz 32Pipe Chip auf Basis des G70s ausgeht. Wenn man NVs vorgehen seit dem NV3X Flop sieht, so darf jeder für sich entscheiden welche Lösung wahrscheinlicher ist.

Kladderadatsch
2005-12-13, 08:06:32
Der G80 Begriff wird eher für den im H2/06 erwarteten DX10-Vista Chip von NV verwendet. Im 1Q06 hingegen wird noch ein letzter 90nm Refresh der bestehende Architketur erwartet. Dazu gibt es einmal die Meldung von HKPEC, die von einem hochgetakteten G70 berichtet und die Meinung, die von einem ungefähr taktkonstanten ca. 500 Mhz 32Pipe Chip auf Basis des G70s ausgeht. Wenn man NVs vorgehen seit dem NV3X Flop sieht, so darf jeder für sich entscheiden welche Lösung wahrscheinlicher ist.
achso, also ein echter refresh=)
thx

Ailuros
2005-12-13, 19:07:57
nv, wann?
der g80 kommt doch erst mitte 2006, der r580 dagegen schon in wohl weniger als 2 monaten, oder?
oder wird sich beim g72 da was ändern?!

ΝV40 = 4 quads/6 VS = 222M
G70 = 6 quads/8 VS = 302M
G75 = 8 quads/ 10 VS =/>380M

Ronny145
2006-01-05, 14:27:04
Wird es beim G71, bis auf performance relevante Dinge, noch Änderungen geben, wie z.B. die Möglichkeit HDR+AA zu kombinieren?

Godmode
2006-01-05, 14:42:31
Wird es beim G71, bis auf performance relevante Dinge, noch Änderungen geben, wie z.B. die Möglichkeit HDR+AA zu kombinieren?

Ist das nicht auch jetzt schon möglich, ich dachte da müssen nur die Spiele angepasst werden? Mit dem Patch 1.4 ist es in FarCry schon möglich IIRC.

Simon Moon
2006-01-05, 14:59:09
Was ist eigentlich nun der Codename des G70 Refresh? G71, G72, G75 oder gar, was ich nicht vermute, NV50? Ich ging immer von ersterem aus, aber was ich hier lese, verwirrt mich. :confused:

Ronny145
2006-01-05, 15:17:16
Ist das nicht auch jetzt schon möglich, ich dachte da müssen nur die Spiele angepasst werden? Mit dem Patch 1.4 ist es in FarCry schon möglich IIRC.


Ne ist nicht möglich. Auf dem R520 läuft HDR+AA jetzt mit Far Cry. Auf dem G70 nicht.

Godmode
2006-01-05, 15:35:50
Was ist eigentlich nun der Codename des G70 Refresh? G71, G72, G75 oder gar, was ich nicht vermute, NV50? Ich ging immer von ersterem aus, aber was ich hier lese, verwirrt mich. :confused:

Ich weiß es nicht, aber eigentlich ist es doch egal, für mich heißt er G71


Ne ist nicht möglich. Auf dem R520 läuft HDR+AA jetzt mit Far Cry. Auf dem G70 nicht.

ok hier hab ich gelesen dass es jetzt funktionieren soll:
http://www.pcgameshardware.de/?article_id=439300

Ronny145
2006-01-05, 15:41:51
ok hier hab ich gelesen dass es jetzt funktionieren soll:
http://www.pcgameshardware.de/?article_id=439300


Stimmt aber nicht. Guru3d meinte es soll funktionieren und alle haben das abgeschrieben. Vermutlich meinte guru3d, dass der Patch auf Geforce 6 und 7 Karten läuft. Er läuft ja auch, aber AA+HDR zusammen nicht.

mapel110
2006-01-05, 15:43:47
Ich weiß es nicht, aber eigentlich ist es doch egal, für mich heißt er G71




ok hier hab ich gelesen dass es jetzt funktionieren soll:
http://www.pcgameshardware.de/?article_id=439300
1. G71 ist derzeit recht geläufig als neues High End von nvidia. Darum gehts hier in dem thread allerdings eigentlich nicht. ;(
Der ist für den G80 fka NV50 gedacht. SM4/D3D10 Chip von nvidia.

2. Technisch ist das nicht möglich, weil die Hardware von nvidia dazu nicht im Stande ist.

Ailuros
2006-01-05, 16:06:12
Technisch ist es schon moeglich "Orthogonalitaet" in die ROPs zu bekommen; die Frage ist eher ob es genug Zeit dazu gab.

Ronny145
2006-01-05, 16:10:45
Technisch ist es schon moeglich "Orthogonalitaet" in die ROPs zu bekommen; die Frage ist eher ob es genug Zeit dazu gab.


Es ging jetzt um den G70.

Ailuros
2006-01-06, 02:33:59
Es ging jetzt um den G70.

Mapel erwaehnte in seinem Post ueber meinem G71 und auf diesen Post hab ich auch offensichtlich geantwortet. Haette NV sich mehr Zeit fuer die G70 Entwicklung gelassen, gilt hier auch gleiches wie in meinem vorigen Post.

Ronny145
2006-01-06, 02:44:14
Mapel erwaehnte in seinem Post ueber meinem G71 und auf diesen Post hab ich auch offensichtlich geantwortet. Haette NV sich mehr Zeit fuer die G70 Entwicklung gelassen, gilt hier auch gleiches wie in meinem vorigen Post.


Ne es ging um die Geforce 7 jetzt. bans3i meinte HDR+AA würde in Far Cry würde möglich sein. Daraufhin hat mapel110 gesagt, dass es (also G70) technisch nicht möglich sei. Und bei 1. mit dem G71 hatte damit nichts zu tun.

Ailuros
2006-01-06, 10:18:39
Leg den Teer und die Feedern zur Seite, aber mit spf (seconds per frame - sic) waere es selbst da moeglich LOL :D

M2-Master
2006-01-19, 21:23:20
Leg den Teer und die Feedern zur Seite, aber mit spf (seconds per frame - sic) waere es selbst da moeglich LOL :D

Eigentlich warte ich schon lange darauf das diese Einheit eingeführt wird :) .

Ailuros
2006-01-20, 12:37:40
Eigentlich warte ich schon lange darauf das diese Einheit eingeführt wird :) .

Du meinst FP16 HDR + MSAA? Ich sehe ehrlich gesagt nicht dass sie fuer sowas Zeit hatten.

M2-Master
2006-01-22, 18:02:53
Du meinst FP16 HDR + MSAA? Ich sehe ehrlich gesagt nicht dass sie fuer sowas Zeit hatten.

Nein ich meine spf (seconds per frame), wäre bei manchen Benchmarks echt angebracht :) .

Ailuros
2006-01-23, 05:45:09
Nein ich meine spf (seconds per frame), wäre bei manchen Benchmarks echt angebracht :) .


CPU tests 1 & 2 in 3dmark06. Da kannst Du tatsaechlich Sekunden pro Frame zaehlen ;)

Xptweaker
2006-01-23, 09:30:49
Wann wird denn der G80 eigentlich erwarten ? juli / august ?

Winter[Raven]
2006-01-23, 09:40:59
Juni...

Godmode
2006-01-23, 10:03:03
']Juni...

Also der ist der G71 muss dann nur für 3 Monate halten? :ujump:
Oder leben diese beiden dann in Koexistenz?

robbitop
2006-01-23, 11:51:36
Der kommt sicher erst im Q3 in die Läden. G71 sollte schon seine 4-5Monate haben.

SKYNET
2006-01-23, 12:26:29
Der kommt sicher erst im Q3 in die Läden. G71 sollte schon seine 4-5Monate haben.


;)

Winter[Raven]
2006-01-23, 12:53:02
Na dann Juli halt... ;D

Gandharva
2006-02-01, 09:36:43
Nvidia G80 will make ATI stumble on April.Sources from anonymous mentioned that since the introduction of NV40 which was a very big leap over the defective NV30 with its spectacular features such as Shader Model 3.0 and SLI, in the next couple of months after G71 you will be promised to witness another new spectacular technology that will be brought by Nvidia to 3D Gaming community. It's been almost a year since Nvidia has not really altered much of its architecture just like what we see now in the G70, An increase in pipelines,the intro of MIMD and more vertex units. This is because Nvidia knows that ATI is currently having a hard time fixing and improving their bugged R5xx architecture so it isn't necessary for Nvidia to introduce an incredibly improved architecture. This is what you will see in G71, there will be 32pipes, increase in ROPs and a little speed bump over the coreclock, it is more like an absolute ultra pumped NV40based architecture. In the G80 however, Quad SLI it self can be implemented on a single card with two chips solution because it will carry the first dual core GPU ever with the support of DirectX10 and Shader Model 4.0. The development of G80 is also mentioned as being running very intensive since Nvidia's acquisition over ULi.http://www.xpentor.com/

G80 im April? Dual Core GPU. SLi onboard, oder wie? :|

Ailuros
2006-02-01, 09:48:34
Wenn ich den quote noch einmal durchlese bekomm ich Augenkrebs.... :mad:

seahawk
2006-02-01, 11:26:34
In the G80 however, Quad SLI it self can be implemented on a single card with two chips solution because it will carry the first dual core GPU ever with the support of DirectX10 and Shader Model 4.0. The development of G80 is also mentioned as being running very intensive since Nvidia's acquisition over ULi.

Den teil finde ich besonders spannend. :D

ShadowXX
2006-02-01, 11:48:06
Wenn ich den quote noch einmal durchlese bekomm ich Augenkrebs.... :mad:

Das schlimme dabei ist doch eigentlich, das das ganze wieder von unglaublich vielen Leuten geglaubt werden wird....spätestens wenn Gamestar, PCGames & co. das ganze übernehmen.

Das wird bis zum Release des G71 bestimmt ein lustiges Flaming & co.....von den enttäuschten Gesichtern beim Release mal ganz abgesehen.

deekey777
2006-02-01, 12:02:12
Wenn ich den quote noch einmal durchlese bekomm ich Augenkrebs.... :mad:


http://vr-zone.com/?i=3177

Ua:
64 Shader pipelines (Vec4+Scalar)
32 TMU's
32 ROPs
Deppenapostroph. :biggrin:

Godmode
2006-02-01, 12:47:23
http://vr-zone.com/?i=3177

Ua:
64 Shader pipelines (Vec4+Scalar)
32 TMU's
32 ROPs
Deppenapostroph. :biggrin:

Für was bitte 32 ROPs :rolleyes:? Da sieht man echt wieder dass diese Leute Null Ahnung haben.

DrumDub
2006-02-01, 13:43:26
Für was bitte 32 ROPs :rolleyes:? Da sieht man echt wieder dass diese Leute Null Ahnung haben. ist halt vr-zone... die haben ja auch von 8 quads beim r520 geredet...

Gast
2006-02-01, 14:04:46
Kannst du es beweisen dass es nicht 8 Quads waren und wirklich in der letzten Revision auf 4 Quads gekürzt wurden aber mit mehr takt.

Gaestle
2006-02-01, 14:50:16
Kannst du es beweisen dass es nicht 8 Quads waren und wirklich in der letzten Revision auf 4 Quads gekürzt wurden aber mit mehr takt.

Die Gerüchte waren ja bis ein/zwei Monate vor dem Launch ganz groß da. Aber in einer so kurzen Zet werden die Specs nicht so grundlegend geändert. Von daher können diese Gerüchte nur Phantasie gewesen sein.

Grüße

ShadowXX
2006-02-01, 15:02:16
Die Gerüchte waren ja bis ein/zwei Monate vor dem Launch ganz groß da. Aber in einer so kurzen Zet werden die Specs nicht so grundlegend geändert. Von daher können diese Gerüchte nur Phantasie gewesen sein.

Grüße

Es wurde hinter der Hand in den Foren immer nur über 16Pipes gesprochen....die 32Pipes kamen erst auf, als klar wurde, das nV 24Pipes bringen würde.

Ich kann mich noch sehr gut erinnern, wie AiL & andere immer wieder darauf hinwiesen, das es 16Pipes sein werden....vor den 32Pipe gerüchten und dannach .

Ailuros
2006-02-01, 15:32:44
http://vr-zone.com/?i=3177

Ua:
64 Shader pipelines (Vec4+Scalar)
32 TMU's
32 ROPs
Deppenapostroph. :biggrin:

Vielleicht sollte ich sagen dass R6xx nicht vom gleichen Team entwickelt wird als Xenos :P Von dem abgesehen ich sehe keine Moeglichkeit fuer 65nm in 2006 aber das ist natuerlich nur meine eigene Spekulation.

Ailuros
2006-02-01, 15:40:07
Kannst du es beweisen dass es nicht 8 Quads waren und wirklich in der letzten Revision auf 4 Quads gekürzt wurden aber mit mehr takt.

Erstens ist R5xx/PC so ausgelegt dass mehr quads keinen einzigen Sinn machen und zweitens ist die Chipkomplexitaet ohnehin bei R520 und R580 schon so gross dass alles andere nur im Raum der Phantasie liegt.

Es gab interne ATI Dokumente schon seit Ende 2004 die deutlich 16/1/1/1 und 16/1/3/1 erwaehnten.

Gast
2006-02-01, 17:42:29
Es gab interne ATI Dokumente schon seit Ende 2004 die deutlich 16/1/1/1 und 16/1/3/1 erwaehnten.So ist es. Es war schon Ewigkeiten vor dem Launch bekannt, dass R520 4 Quads haben wird. Trotzdem hat das die Lamestar, HKEPC und diverse Forumsnutzer nicht davon abhalten überall diesen 32-Pipeline-Mist zu verbreiten.

Nightspider
2006-02-01, 19:32:37
Das ist ja so der Oberhammer, auch wenn es nur Gerüchte sind.
Ich glaube sie, da Nvidia irgentetwas auftischen muss.
G70 war nur ein köstlich-aufgewärmter NV40.

Wenn das ding wirklich DualCore hat und dazu jeder noch schneller ist als ein G71, dann wird das Ding den größten Leistungssprung machen, den die Welt bis dahin gesehen hat.Das ist ja echt krank.

Besonder da der 2. Core im Gegensatz zu den CPUs bei ALLEN Spielen gut genutzt wird.

500 FPS in CSS (1600-max) ich komme. xD

Gott halt mich, wenn das Ding auch noch winkelunabhängiges AF bietet oder 16-32*TSAA. :eek:

Ich muss sparen !

Das Ding würde sicherlich 700 Euro kosten. Wenn nicht sogar 800. ;D

deekey777
2006-02-01, 19:36:02
Kannst du es beweisen dass es nicht 8 Quads waren und wirklich in der letzten Revision auf 4 Quads gekürzt wurden aber mit mehr takt.
Seit fast einem Jahr war es klar, daß weder der R520 noch R580 mehr als 16 TMUs haben wird.
Erstens ist R5xx/PC so ausgelegt dass mehr quads keinen einzigen Sinn machen und zweitens ist die Chipkomplexitaet ohnehin bei R520 und R580 schon so gross dass alles andere nur im Raum der Phantasie liegt.

Es gab interne ATI Dokumente schon seit Ende 2004, die deutlich 16/1/1/1 und 16/1/3/1 erwaehnten.
Und ich dachte, es wurde erst im März bekannt. ;) :D

Ailuros
2006-02-02, 01:56:23
Das ist ja so der Oberhammer, auch wenn es nur Gerüchte sind.
Ich glaube sie, da Nvidia irgentetwas auftischen muss.
G70 war nur ein köstlich-aufgewärmter NV40.

Jeder Refresh ist ein "koestlich-aufgewaermter" Vorgaenger. G71 wird auch nicht anders sein von der Perspektive.

Wenn das ding wirklich DualCore hat und dazu jeder noch schneller ist als ein G71, dann wird das Ding den größten Leistungssprung machen, den die Welt bis dahin gesehen hat.Das ist ja echt krank.

Besonder da der 2. Core im Gegensatz zu den CPUs bei ALLEN Spielen gut genutzt wird.

500 FPS in CSS (1600-max) ich komme. xD

Gott halt mich, wenn das Ding auch noch winkelunabhängiges AF bietet oder 16-32*TSAA. :eek:

Ich muss sparen !

Das Ding würde sicherlich 700 Euro kosten. Wenn nicht sogar 800. ;D

LOL mir waere es lieber wenn Du ein bisschen schaerfer denken wuerdest um nicht vergebens zu sparen ;)

Ailuros
2006-02-02, 01:57:13
Und ich dachte, es wurde erst im März bekannt. ;) :D

Bei B3D schon.

Gandharva
2006-02-02, 11:12:49
LOL mir waere es lieber wenn Du ein bisschen schaerfer denken wuerdest um nicht vergebens zu sparen ;)Warum eigendlich nicht? 2 Cores auf einem Package. Der GDDR4 RAM wird von beiden Cores genutz. CPUs machen das ja mit dem Cache bereits auch. Das wäre quasi wie SLi auf einer Graka. Dann müsste man die einzelnen Cores nicht so extrem an die Grenze des machbaren hieven, die Verlustleistung würde dadurch wieder fallen und das ganze wäre wieder in ordendlichem Rahmen kühlbar. Gleichzeitig sollte man die leistung damit ordendlich steigern können. Für den Treiber sollte das doch kein Problem sein. Ist dann ja "nur" ne Art SLi. So abwegig finde ich das gar nicht für einen G80.

ShadowXX
2006-02-02, 11:27:28
Warum eigendlich nicht? 2 Cores auf einem Package. Der GDDR4 RAM wird von beiden Cores genutz. CPUs machen das ja mit dem Cache bereits auch. Das wäre quasi wie SLi auf einer Graka. Dann müsste man die einzelnen Cores nicht so extrem an die Grenze des machbaren hieven, die Verlustleistung würde dadurch wieder fallen und das ganze wäre wieder in ordendlichem Rahmen kühlbar. Gleichzeitig sollte man die leistung damit ordendlich steigern können. Für den Treiber sollte das doch kein Problem sein. Ist dann ja "nur" ne Art SLi. So abwegig finde ich das gar nicht für einen G80.

Es ist sinniger, preiswerter und problemloser einfach eine einzelne GPU zu skalieren, als 2 GPUs in einem Package unterzubringen.

Davon abgesehen, das es auch Treiberseitig wesentlich Problemloser ist.

BlackBirdSR
2006-02-02, 11:42:37
Warum eigendlich nicht? 2 Cores auf einem Package. Der GDDR4 RAM wird von beiden Cores genutz. CPUs machen das ja mit dem Cache bereits auch. Das wäre quasi wie SLi auf einer Graka. Dann müsste man die einzelnen Cores nicht so extrem an die Grenze des machbaren hieven, die Verlustleistung würde dadurch wieder fallen und das ganze wäre wieder in ordendlichem Rahmen kühlbar. Gleichzeitig sollte man die leistung damit ordendlich steigern können. Für den Treiber sollte das doch kein Problem sein. Ist dann ja "nur" ne Art SLi. So abwegig finde ich das gar nicht für einen G80.

Geh mal kurz davon aus, dass eine G70 bereits sehr groß, komplex und teuer ist.
Zwei dieser GPUs auf ein DIE zu legen, würde bereits schwere technische Probleme hinsichtlich PCB, Stromversorgung, Stabilität und Kosten erzeugen.
Gehen wir kurz davon aus, dass es also möglich ist, und produziert wird.
Wer soll denn diese Karten mit 1GB Speicher kaufen?
Ausserdem wollen die Kartenhersteller ja auch verdienen. Und das tut man am besten, wenn man 2 Karten verkauft. Die weitaus billiger zu produzieren sind.

Es lohnt sich nicht, diesen Aufwand für eine so kleine Nutzergruppe zu treiben. IMO ist SLI oder Crossfire schon darüber.

Coda
2006-02-02, 12:14:18
Das ist doch völliger Schwachsinn. Dual-Core bei Grafikkarten macht einfach keinen Sinn weil man die Funktionseinheiten so viel besser und einfacher skalieren kann.

SLI skaliert niemals so gut als einfach doppelt so viele ALUs und TMUs einzubauen und die Verlustleistung ist identisch.

Das ist wieder irgend ein Hirngespinst eines Forenfanboys, der wichtig genommen werden will.

Gandharva
2006-02-02, 12:17:04
@BlackBirdSR

Du missverstehst mich. Ich meine das man 2 abgespeckte (weniger Transistoren, niedrigerer Takt) G70/G71 (wird ja wohl kaum ein G70/G71 sein, weil man Änderungen wegen D3D10 durchführen muss) GPUs auf ein Package packt, weil man eben wie auch bei den CPUs an technische Grenzen stösst was Strukturverkleinerung und Takterhöhung angeht. Man muss sich nur mal die enorme Verlustleistung der X1900 anshenen. Das Teil wird bis 90°C warm.

Da stellt sich dann nur die Frage was billiger zu produzieren ist. 2 "kleine" GPUs oder eine "dicke".

Gast
2006-02-02, 12:18:46
Man stößt aber noch nicht an technische Grenzen. Dass die x1900 so warm wird, liegt wohl am Design. Die beiden GTXen zeigen, dass es auch anders geht.

Coda
2006-02-02, 12:18:59
Es ändert absolut nichts an der Verlustleistung ob man x-Mio. Transistoren auf einem oder auf 2 Dies mit gleichem Takt laufen lässt.

Es gibt keinen aber auch gar keinen plausiblen Grund für "Dual-Core-GPUs". Sowas haben wir genauer gesagt seit Jahren, weil die Pixel- und Vertex-Pipelines als "Cores" zu verstehen sind.

Da stellt sich dann nur die Frage was billiger zu produzieren ist. 2 "kleine" GPUs oder eine "dicke".2 kleine. Nur wird man mit denen in vielen Fällen nur die Performance einer GPU oder nur eine schwache Steigerung erreichen mit dem derzeitigen SLI-Verfahren. Keine gute Idee.

BlackBirdSR
2006-02-02, 13:50:58
@BlackBirdSR

Du missverstehst mich. Ich meine das man 2 abgespeckte (weniger Transistoren, niedrigerer Takt) G70/G71 (wird ja wohl kaum ein G70/G71 sein, weil man Änderungen wegen D3D10 durchführen muss) GPUs auf ein Package packt, weil man eben wie auch bei den CPUs an technische Grenzen stösst was Strukturverkleinerung und Takterhöhung angeht. Man muss sich nur mal die enorme Verlustleistung der X1900 anshenen. Das Teil wird bis 90°C warm.

Da stellt sich dann nur die Frage was billiger zu produzieren ist. 2 "kleine" GPUs oder eine "dicke".

Das liegt aber daran, dass die CPUs jetzt an Taktgrenzen kommen, wo es kaum noch möglich wird etwas Anderes zu machen.
Zudem skalieren x86 CPUs extrem mies mit zusätzlichen FUs und generell der Logik.
Das ist bei GPUs nicht der Fall.
Es macht daher mehr Sinn, die GPU zu verbreitern und höher zu Takten, als eine 2 GPU aufs Die/ins Package zu packen.

Wenn die Hersteller an Grenzen stoßen, wie es bei CPUs der Fall ist. Dann kann man darüber reden andere Lösungen zu suchen.
Aber Dual-Multi GPUs mit weniger komplexität sind bei GPUs ziemlich unangebracht.

Gast
2006-02-02, 21:06:48
Man muss auch bedenken, das die Gpu nur für Grafiken ausgelegt ist, die Cpu dagegen muss mit vielmehr unterschiedlichen Dateiformaten rumkämpfen.
Ebenfalls arbeitet die Cpu für die Gpu um so die Grafikdateien zu verarbeiten.
Die Cpus sollten mehr Leistung bringen, sie liegen eh shcon hinten dran und die Entwicklung ist zu langsam!

mfg Nakai

Demirug
2006-02-02, 21:10:33
Es gibt keinen aber auch gar keinen plausiblen Grund für "Dual-Core-GPUs". Sowas haben wir genauer gesagt seit Jahren, weil die Pixel- und Vertex-Pipelines als "Cores" zu verstehen sind.

Denke mal wie Intel.

Xmas
2006-02-02, 21:26:26
Es gibt keinen aber auch gar keinen plausiblen Grund für "Dual-Core-GPUs". Sowas haben wir genauer gesagt seit Jahren, weil die Pixel- und Vertex-Pipelines als "Cores" zu verstehen sind.
Doch, es gibt einen Grund, und den nennst du nachfolgend ja.

2 kleine. Nur wird man mit denen in vielen Fällen nur die Performance einer GPU oder nur eine schwache Steigerung erreichen mit dem derzeitigen SLI-Verfahren. Keine gute Idee.
Mit den derzeitigen Verfahren. Die dadurch limitiert sind dass zwischen den Chips nur wenig Bandbreite zur Verfügung steht. On-Package kann man aber problemlos 32 GB/s (siehe Xenos) oder mehr zwischen den Dies hin und her schieben. Das ist mehr als genug bei den derzeitigen externen Bandbreiten, und natürlich würde bei einem solchen System jeder Die die Hälfte des Speichers verwalten.
Ich halte das ganze nicht nur für machbar, sondern auch für wirtschaftlich.

Slipknot79
2006-02-03, 12:51:36
>Es gibt keinen aber auch gar keinen plausiblen Grund für "Dual-Core-GPUs".


Weiss ned wie das zu verstehen ist. Mit SLI hast du ja auch Dual Core im Prinzip, nur sind dann die Wege der beiden GPUs zueinander kürzer, Daten müssen nicht über Mobo abgearbeitet werden. Sollte einen Tick effizienter sein als SLI.

Nen Grund wüsste ich schon, wenn auch eher theoretischer Natur: Check mal das Tool Atuner und stell AA auf 4x4 Supersampling ein und das bei 1600x1200.

(del)
2006-02-03, 15:52:51
Doch, es gibt einen Grund, und den nennst du nachfolgend ja.


Mit den derzeitigen Verfahren. Die dadurch limitiert sind dass zwischen den Chips nur wenig Bandbreite zur Verfügung steht. On-Package kann man aber problemlos 32 GB/s (siehe Xenos) oder mehr zwischen den Dies hin und her schieben
Zwischen welchen beiden "Chips" schiebt Xenos 32GB/s?

Zu Xenos find ich: "Eine wesentliche Verbesserung in der Performance sei durch einheitliche Shader erreicht worden. Da bei "Xenos" die Pipelines nicht mehr in Pixel- und Vertex-Shader aufgeteilt sind. Pro Pipeline findet sich nun eine voll programmierbare multifunktionale Einheit, die eine fast 100-prozentige Auslastung des Grafikchips bringt"

Wie baut man daraus zB. DualGPUs? Auf dem Die konnte man dann auch locker eine GPU mit 128 Pipelines bauen. Wozu aufteilen und hin und her mit "32GB/s" kommunizieren? Wenn jede Pipe vollwertig ist, ist dann nicht schon die Pipe selbst eine "Unit"?

Gast
2006-02-03, 16:07:14
Zwischen welchen beiden "Chips" schiebt Xenos 32GB/s? Zwischen dem Parent-Die und dem eDRAM.

Gast
2006-02-03, 16:08:30
Genauer gesagt zwischen Parent-Die und Daughter-Die. Der Daughter-Die kann dann wiederrum mit 256GB/s auf den eDRAM zugreifen.

Wechselbalg
2006-02-03, 16:24:33
Wozu aufteilen und hin und her mit "32GB/s" kommunizieren? Wenn jede Pipe vollwertig ist, ist dann nicht schon die Pipe selbst eine "Unit"?

Wie Demirurg in Anspielung auf Presler und Co schon schrieb. Produziere ich 2 Kerne mit der Hälfte an Transistoren, mag dies dazu führen, dass ich bessere Yields erziele.

Interessant wäre nur zu wissen, wie groß hier die Unterschiede wären. Hatte ich vor ein paar Monaten glaube ich hier auch mal irgendwo erwähnt, aber ich würde es nicht vollkommen ausschließen, auch wenn ich es eher für unrealistisch halte.

Ailuros
2006-02-04, 02:05:57
Vielleicht hilft eine andere Perspektive:

zwei identische cores auf einem PCB sind tatsaechlich Unsinn im Vergleich zu multi-GPU Systemen, weil es im ersten Fall teurer ist herzustellen.

Aber unter multi-core kann man auch was anderes verstehen:

Multiple core GPUs may be referring to the long term direction that 3d graphics processing seems to be taking. This has more to do with the markets and companies that address those markets than anything else.

CPU manufacturers address the broad corporate and home markets.
Their focus is on a single solution with broad application and low cost.

GPU manufacturers address the 3d entertainment and professional markets. 3d graphics and physical simulation are computation bound. This market has always been driven by floating point performance. Initially, 3d vendors focused on the video and rendering aspects of 3d graphics, since it was the most immediate problem to be solved and lent itself to solutions using low precision fixed point. However, in the long run, it will be about solving real-time 3d physical simulation in general.

Since GPU manufacturers target this market, they are the most motivated to design the solutions to solve its challanges. Initially, it was more frame buffer performance, then more color precision, then anti-aliasing, then vertex processing, then pixel shaders and shadow processing, etc.

In the long run it will be about providing the highest general purpose programmable floating point performance coupled with some specific rendering and display hardware.

CPU manufacturers have not targeted this market so will not likely be the vendors that solve the challanges it presents. General purpose, programmable, very high performance floating point will likely move to the GPU, since those companies are targeting the markets that require it.

To meet these needs in the long run, GPU manufacturers will likely adopt some the of techniques employed by CPU manufacturers, with the use of more dynamic logic, higher frequencies, on chip caches, general purpose registers, etc. The GPU is therefore likely to consist of several cores: a rendering core handing the raw rendering and display, the specialized graphics core, handling 3d graphics specific tasks optimized in hardware such as hidden surface removal, anti-aliasing, etc. and a general purpose set of high frequency floating point processors with a very large number of concurrent ALUs and their own on-chip cache. All this with a memory bandwidth architecture to match.

This is all pure speculation, but it seems to be the way things are heading.

http://www.beyond3d.com/forum/showpost.php?p=429573&postcount=32

Xmas
2006-02-04, 02:50:59
Vielleicht hilft eine andere Perspektive:

zwei identische cores auf einem PCB sind tatsaechlich Unsinn im Vergleich zu multi-GPU Systemen, weil es im ersten Fall teurer ist herzustellen.
Inwiefern "hilft" diese Perspektive? Und redest du jetzt von zwei GPU-Packages auf einer Karte, oder zwei GPU-Dies in einem Package? Ersteres würde ich Dual-GPU bezeichnen, letzteres Dual-Core und zwei Karten sind wieder was anderes.
Bei gleicher Grafikleistung halte ich die Dual-Core-Variante für die wirtschaftlichste von den dreien.

Gast
2006-02-04, 14:25:57
Und redest du jetzt von zwei GPU-Packages auf einer Karte, oder zwei GPU-Dies in einem Package? Ersteres würde ich Dual-GPU bezeichnen, letzteres Dual-Core und zwei Karten sind wieder was anderes.


ich würde auch das nicht als dual-core bezeichnen, ebensowenig wie presler.

dual-core würde ich es nur nennen wenn wirklich 2 cores in einem DIE sind.

TheGood
2006-02-04, 19:51:00
Inwiefern "hilft" diese Perspektive? Und redest du jetzt von zwei GPU-Packages auf einer Karte, oder zwei GPU-Dies in einem Package? Ersteres würde ich Dual-GPU bezeichnen, letzteres Dual-Core und zwei Karten sind wieder was anderes.
Bei gleicher Grafikleistung halte ich die Dual-Core-Variante für die wirtschaftlichste von den dreien.
Ich denke auch von dem Begriff Dual Core müsste man weg, weil es das ja nicht ist. Es gibt nur spezialisierte cores innerhalb des Dies die für verschiedene Aufgaben zuständig sind.

Ailuros
2006-02-05, 11:47:47
Inwiefern "hilft" diese Perspektive? Und redest du jetzt von zwei GPU-Packages auf einer Karte, oder zwei GPU-Dies in einem Package? Ersteres würde ich Dual-GPU bezeichnen, letzteres Dual-Core und zwei Karten sind wieder was anderes.
Bei gleicher Grafikleistung halte ich die Dual-Core-Variante für die wirtschaftlichste von den dreien.

Was macht mehr Sinn bei theoretischen zwei GPU-dies (one package)? Identische dies oder verschiedene dies wobei verschiedene Einheiten auf die jeweiligen dies verstreut sind?

Irgendwie sehe ich keinen Grund alle Einheiten zu duplizieren bei solch einer Loesung, um das geht es mir hauptsaechlich. Ich erwarte keinesfalls dass SLi/CrossFire Loesungen nicht weiterhin existieren werden, selbst mit chips wie oben.

Xmas
2006-02-05, 13:58:58
Was macht mehr Sinn bei theoretischen zwei GPU-dies (one package)? Identische dies oder verschiedene dies wobei verschiedene Einheiten auf die jeweiligen dies verstreut sind?

Irgendwie sehe ich keinen Grund alle Einheiten zu duplizieren bei solch einer Loesung, um das geht es mir hauptsaechlich. Ich erwarte keinesfalls dass SLi/CrossFire Loesungen nicht weiterhin existieren werden, selbst mit chips wie oben.
Es kommt drauf an welche Chip/Package-Variante wie oft verkauft werden soll und wie die Yields sind. Ich kann mir auch durchaus etwas ähnliches wie Realizm 800 vorstellen, mit einem Die der sämtliche Sachen beinhaltet die nur einmal vorhanden sein müssen, und einem oder zwei Shader-Dies. Oder aber eine volle GPU, und optional dazu ein Shader-Die.

Es hat auch Vorteile, zwei identische Dies zu verwenden. Die Masken sind billiger, man kann flexibler entscheiden wieviele Dies als welche GPU verkauft werden, und man kann sich in den Units die nur einmal vorhanden sein müssen viel Redundanz sparen. Heute ist ein Die mit Fehler im 2D-Teil unbrauchbar. Bei Dual-Die könnte man einen solchen aber mit einem funktionierenden Die kombinieren.

up¦²
2006-02-06, 18:16:18
Interessante info zu multi-GPU:

The future of graphics could well include multicore GPUs, although we are looking at many alternatives to enable GPUs to live in the necessary cost and power envelopes.
http://interviews.teamxbox.com/xbox/1458/The-Power-of-the-Xbox-360-GPU/p4/

Komlettes interview:
The Power of the Xbox 360 GPU

We had the chance to interview Bob Feldstein, Vice President of Engineering, ATI Technologies, Inc., to learn more about the development and power of the Xenos GPU.
http://interviews.teamxbox.com/xbox/1458/The-Power-of-the-Xbox-360-GPU/p1/

Ailuros
2006-02-07, 01:40:16
.....although we are looking at many alternatives to enable GPUs to live in the necessary cost and power envelopes.

:| ;)

Xptweaker
2006-02-15, 09:05:34
Grafikkartenspeicher Samsungs GDDR4 blitzschnell

GDDR3 mit 1,1 ns Zugriffszeit? Lachhaft! Könnte man zumindest meinen, wenn man Samsungs aktuell angekündigten Grafikkartenspeicher, der GDDR4-Generation betrachtet.

Samsungs Blick in die nicht allzu ferne Zukunft ist beeindruckend; noch beeindruckender, als bei der letzten Ankündigung. Verglichen zu den veralteten Informationen wird der Speicher nun eine Kapazität von 512 MBit besitzen - in der Vergangenheit war von 256 MBit die Rede. Auch an der Datenrate scheint Samsung gearbeitet zu haben. Dort gehe man nun davon aus, 12,8 GByte / Sekunde zu erreichen. Auch die angestrebte Zugriffszeit des RAMs ist nicht zu verachten: 0,6 Nanosekunden soll diese lediglich betragen. Resultierend daraus wären Taktraten bis zu 1,6 GHz möglich. Aktueller GDDR3-Speicher, der auf High-End-Grafikkarten genutzt wird, verträgt mit seinen 1,1 ns Zugriffszeit maximal 900 MHz; für heutige Verhältnisse extrem schnell. Wann jedoch die neuen Speicherbausteine von Samsung auf den Markt kommen werden, ist noch nicht klar.

Quelle : http://www.gamestar.de/news/hardware/31483/

Wäre ja durchaus möglich das der G80 schon diesen DDR4 besitzen wird :eek:

Godmode
2006-02-15, 11:00:32
Also dem G71 würden diese bestimmt gut tun!

Xptweaker
2006-02-15, 11:37:26
Das der G71 schon mit ddr4 kommt ist äußert unvorstellbar !

Denke noch nicht einmal das der G80 mit dem Speicher kommt ;D

Ailuros
2006-02-15, 12:16:52
7800GTX 512MB hat 1.1ns Speicher.

Xptweaker
2006-02-15, 14:16:39
7800GTX 512MB hat 1.1ns Speicher.

Öhm ja nur was hat das jetzt mit dem G80 und DDR4 zu tun :confused:

Ailuros
2006-02-15, 14:24:35
Öhm ja nur was hat das jetzt mit dem G80 und DDR4 zu tun :confused:

Zitat von Dir selber:

GDDR3 mit 1,1 ns Zugriffszeit? Lachhaft!

Nur ein paar Posts weiter oben ;)

Slipknot79
2006-02-15, 15:23:30
Zitat von Dir selber:



Nur ein paar Posts weiter oben ;)




Dieses "lachhaft" ist so gemeint, dass die 1.1ns lächerlich klingen im Vergleich zum angekündigten GDDR4 Speicher mit 0.6ns.

Ailuros
2006-02-16, 00:04:25
Kein Einwand dann; G80 ist eher in der ~1.2GHz Gegend afaik.

up¦²
2006-02-16, 12:51:14
We heard that G80 will be in time for launch in June during Computex and the process technology is likely to be 80nm at TSMC. In the recent statement, NVIDIA has said that they will be backing the 80nm "half-node" process by TSMC where it allows reduction of die size by 19%. We have previously mentioned that G80 is likely to take on the Unified Shader approach and supports Shader Model 4.0. G80 is likely to be paired up with the Samsung GDDR4 memories reaching a speed of 2.5Gbps. As for ATi, the next generation R600 is slated for launch end of this year according to the roadmap we have seen and the process technology is 65nm. It seems that the leaked specs of the R600 that surfaced in June last year is pretty likely.

According to Xpentor, NVIDIA G80 will make ATI stumble on April. Quad SLI itself can be implemented on a single card with two chips solution because it will carry the first dual core GPU ever with the support of DirectX10 and Shader Model 4.0. The development of G80 is also mentioned as being running very intensive since NVIDIA's acquisition over ULi. As for the upcoming G71, there will be 32pipes, increase in ROPs and a little speed bump over the core clock.

65nm
64 Shader pipelines (Vec4+Scalar)
32 TMU's
32 ROPs
128 Shader Operations per Cycle
800MHz Core
102.4 billion shader ops/sec
512GFLOPs for the shaders
2 Billion triangles/sec
25.6 Gpixels/Gtexels/sec
256-bit 512MB 1.8GHz GDDR4 Memory
57.6 GB/sec Bandwidth (at 1.8GHz)
WGF2.0 Unified Shader

wurde bei www.tweakers.net ohne quelle zitiert ... :rolleyes:

deekey777
2006-02-16, 13:21:46
Sind das nicht Spezifikationen des R600? ;D
Die Quelle: http://www.vr-zone.com/?i=3177

PS: alt! Schon vor zwei Wochen gepostet.

up¦²
2006-02-16, 13:28:13
Aha, danke deekey777!
Was die specs vom R600 angeht: glaube sind erstmals hier aufgetaucht
http://www.megagames.com/news/html/hardware/atir600specsrevealed.shtml

reunion
2006-02-20, 21:24:18
xbitlabs: Nvidia’s First DirectX 10 Chip to Be “Hybrid” Design: Nvidia’s G80 to Have Dedicated Pipelines – Rumours (http://www.xbitlabs.com/news/video/display/20060220100915.html)

Despite of the fact that Microsoft’s next-generation graphics application programming interface (API) will be able to take advantage of unified shader processors, at least Nvidia Corp.’s first DirectX 10-capable chip will utilize dedicated pixel and vertex processors, according to some rumours.

RLZ
2006-02-20, 22:18:53
We will do a unified architecture in hardware when it makes sense.
Macht es Sinn Einheiten zu trennen, wenn sie eh identische Funktionalität besitzen?
Imo nur wenn die dynamische Lastverteilung so aufwendig ist, dass sie zuviel Chipfläche kostet.
Bei 3 getrennten Einheiten hätte man aber eine miese Auslastung oder man baut den Geoshader nur als Checklistenfeature ein.
Fände ich zumindest nicht nett.

Coda
2006-02-20, 22:32:27
Macht es Sinn Einheiten zu trennen, wenn sie eh identische Funktionalität besitzen?Ich denke das Performanceprofil von Vertexshadern ist schon noch ein etwas anderes als das von Pixelshadern. Inwiefern man daraus einen Vorteil ziehen kann mit verschiedenen ALUs ist die andere Frage. ATI scheint auf jedenfall fest an ein US-Design zu glauben :)

xbitlabs: Nvidia’s First DirectX 10 Chip to Be “Hybrid” Design: Nvidia’s G80 to Have Dedicated Pipelines – Rumours (http://www.xbitlabs.com/news/video/display/20060220100915.html)Ich frage mich nur ob die Geometry Stage nicht zumindest mit dem Vertexshader zusammen liegt falls das stimmen sollte. Denn 3 verschiedene Shader halte ich für unwahrscheinlich irgendwie, vor allem weil es sehr oft vorkommt dass der Vertex- oder Geometry-Shader nur Daten durchschleust.

Aber ich finde man sollte auf das schauen was hinten rauskommt. Klar - ein US-Design ist sehr elegant, aber wenn nVIDIA glaubt dass sie damit nicht auf die maximale Leistung/Die-Fläche kommen dann wird es schon einen Grund haben.

Demirug
2006-02-20, 22:58:41
xBit labs haben immer noch nicht kapiert das es kein DirectX 10 gibt.

Was die Shader angeht so hat nVidia inzwischen patenten auf die Kombination von Vertex und Geometrie Shader sowie einen vollen US eingereicht. Wobei dieser US sogar noch die ROPs in den Shader verlegt.

RLZ
2006-02-20, 23:02:15
Ich denke das Performanceprofil von Vertexshadern ist schon noch ein etwas anderes als das von Pixelshadern. Inwiefern man daraus einen Vorteil ziehen kann mit verschiedenen ALUs ist die andere Frage.
Hast du konkretere Vermutungen, wie man da genau etwas einsparen könnte?
ATI scheint auf jedenfall fest an ein US-Design zu glauben :)
Für die Zukunft halte ich es auch. Für einen Chip der hauptsächlich mit "alten" Engines gut performen soll, könnte ich mir mit entsprechender Begründung auch eine Trennung vorstellen.

Coda
2006-02-20, 23:22:11
Hast du konkretere Vermutungen, wie man da genau etwas einsparen könnte?Nicht einsparen, sondern dass es evtl. effizientere ALUs gibt für die beiden Anwendungen als ein Design das beides unter einen Hut bringen will.

Für die Zukunft halte ich es auch. Für einen Chip der hauptsächlich mit "alten" Engines gut performen soll, könnte ich mir mit entsprechender Begründung auch eine Trennung vorstellen.Wieso meinst du, dass ein US bei alten Spielen potentiell nicht so gut sein könnte?

Demirug
2006-02-20, 23:24:03
Wieso meinst du, dass ein US bei alten Spielen potentiell nicht so gut sein könnte?

Alte Spiele sind ja vorallem durch die TMUs limitiert. Die effektiviere Nutzung der Rechenleistung nutzt dort entsprechend nichts.

Coda
2006-02-20, 23:27:38
Aber sie schadet auch nicht.

Godmode
2006-02-20, 23:45:33
xBit labs haben immer noch nicht kapiert das es kein DirectX 10 gibt.

Was die Shader angeht so hat nVidia inzwischen patenten auf die Kombination von Vertex und Geometrie Shader sowie einen vollen US eingereicht. Wobei dieser US sogar noch die ROPs in den Shader verlegt.

Heißt das dann, dass die Rops auch voll programmierbar sind?

Xmas
2006-02-20, 23:56:29
Heißt das dann, dass die Rops auch voll programmierbar sind?
Es heißt, dass es keine ROPs (zumindest Color-ROPs) mehr gibt und der Shader diese Aufgabe übernimmt. Auch nicht mehr ganz neu, die Idee.

Coda
2006-02-21, 00:02:34
Und theoretisch wären sie damit zumindest auf HW-Ebene voll programmierbar. Das wird aber wohl frühestens mit D3D11 in eine API einfließen.

RLZ
2006-02-21, 00:11:38
Aber sie schadet auch nicht.
Anders herum:
US würden bei entsprechendem Enginedesign wesentlich mehr Leistung herausholen, als Nvidia mit getrennten Einheiten gewinnt.
Stalker würde mich da schon im Vergleich interessieren.
Deferred Shading ist schon ein Kanditat, der Nutzen aus US ziehen könnte. Zumindest wenn die Speicherbandbreite nicht limitiert...

Nightspider
2006-02-21, 01:59:53
Hey Leute, da ich noch kein "English-zu-100%-Versteher" bin blick ich nicht ganz durch.

Könntet ihr für die Jüngeren bzw. für die, die hier ein bisschen durcheinanderkommen konkret Aufzählen, welche Fakten sicher bzw. sogut wie sicher sind , und welche angenommen werden !?

Bisher ware ja nur bekannt, dass der G80 US haben soll.
Nun lese ich hier irgentwas von Geometrieshader (wo ich den Einsatzzweck auch kenne) und dass er nun doch net [ganz] auf US setzen soll.
Ich blicke gerade nichtmehr durch.

Bitte einfach mal nach dem Schema ordnen:
Ist angekündigt/sicher: X;X;X...
Nimmt man an/ist wahrscheinlich: X;X;X...

Dankää :)

Ailuros
2006-02-21, 03:06:12
Aber sie schadet auch nicht.

Sicher nicht, aber ueberwaeltigend ist sie dann nun auch wieder nicht:

http://www.xbitlabs.com/articles/video/display/radeon-x1600_11.html
http://www.xbitlabs.com/articles/video/display/radeon-x1600_8.html
http://www.xbitlabs.com/articles/video/display/radeon-x1600_9.html
http://www.xbitlabs.com/articles/video/display/radeon-x1600_10.html

Ailuros
2006-02-21, 03:09:36
xBit labs haben immer noch nicht kapiert das es kein DirectX 10 gibt.

Was die Shader angeht so hat nVidia inzwischen patenten auf die Kombination von Vertex und Geometrie Shader sowie einen vollen US eingereicht. Wobei dieser US sogar noch die ROPs in den Shader verlegt.

Der erste Fall klingt mir nach G80 und der zweite nach G90(?).

MadManniMan
2006-02-22, 04:28:14
Hm, hab ichs bisher hier überlesen, oder steht hier tatsächlich noch nicht, daß Hardtecs.4U beschreiben, daß nV beim G80 noch auf US verzichten wird?

Dies da... (http://hardtecs.de/?id=1140564668,19002,ht4u.php)

mapel110
2006-02-22, 04:35:55
Hm, hab ichs bisher hier überlesen, oder steht hier tatsächlich noch nicht, daß Hardtecs.4U beschreiben, daß nV beim G80 noch auf US verzichten wird?

Dies da... (http://hardtecs.de/?id=1140564668,19002,ht4u.php)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4002876&postcount=217
;)

/edit
Hier haben sie übrigens auch nochmal abgeschrieben. ^^
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/februar/nvidias_g80_d3d10_shadern/

Coda
2006-02-22, 07:53:37
Sicher nicht, aber ueberwaeltigend ist sie dann nun auch wieder nicht:

http://www.xbitlabs.com/articles/video/display/radeon-x1600_11.html
http://www.xbitlabs.com/articles/video/display/radeon-x1600_8.html
http://www.xbitlabs.com/articles/video/display/radeon-x1600_9.html
http://www.xbitlabs.com/articles/video/display/radeon-x1600_10.htmlHä? Ein R5xx hat keine Unified-Shader-Architektur...

ShadowXX
2006-02-22, 09:46:59
Hä? Ein R5xx hat keine Unified-Shader-Architektur...

Das bezog sich nur auf "Rechenleistung", nicht auf US.

Deshalb hatte AiL die x1600 rausgesucht, die sehr "viel" Rechenleistung aber wenig Texel-Füllrate hat.

Gast
2006-02-22, 10:05:30
Ist es sehr abwegig, Shadereinheiten zu bauen, die teilweise seitwärtskompatibel sind, bzw. würde es Vorteile bringen, wenn man dies täte?

Ich meine dies folgendermaßen:
Pixel- und Vertexberechnungen sind unterschiedlich. Normalerweise hat man Größenordnungen mehr Pixel als Vertices, dafür sind oft die Vertexshader länger als viele Pixelshader.
Wenn ich nun zwei Shader-Einheiten hätte: Eine kostet X Transistoren und kann nur Pixel-Berechnungen* ausführen. Eine zweite kostet X*1,5 Transistoren, kann aber zusätzlich Vertex-Berechnungen* ausführen. Nun möchte ich, um mal eine Hausnummer zu nennen, 48 Shader-Einheiten auf meinem Chip unterbringen. Nehme ich komplette "Unified"-Shader (X*1,5 Transistoren), bekomme ich bei ansonsten potentiell gleichen Randbedingungen nur mehr zwei Drittel der Rechenleistung auf die Fläche (48*1,5="72").
Nehme ich aber bsw. nur zwölf dieser Einheits-Shader (12*1,5="18"), habe ich noch "54" frei (72-18=54), die ich für reine Pixel-Einheiten benutzen kann, die nur "1" kosten, kann also zusätzlich 54 Stück einsetzen.

Beim US-Ansatz hätte ich also:
max. Vertex: 48
max. Pixel: 48

Beim gemischten Ansatz hätte ich:
max. Vertex: 12
max. Pixel: 66 (54+12)


Ich glaube zwar nicht, dass die Unterschied so gewaltig sind, aber insgesamt dürfte sich eine Mischkalkulation durchaus bezahlt machen, denke ich. Im OpenGL-CAD/CAM/CAE-Bereich würde es dann aber diesmal wohl einen eigenen Chip erfordern um mit einer reinen US-Konkurrenz mithalten zu können.


Q

ShadowXX
2006-02-22, 10:28:32
Ist es sehr abwegig, Shadereinheiten zu bauen, die teilweise seitwärtskompatibel sind, bzw. würde es Vorteile bringen, wenn man dies täte?

Ich meine dies folgendermaßen:
Pixel- und Vertexberechnungen sind unterschiedlich. Normalerweise hat man Größenordnungen mehr Pixel als Vertices, dafür sind oft die Vertexshader länger als viele Pixelshader.
Wenn ich nun zwei Shader-Einheiten hätte: Eine kostet X Transistoren und kann nur Pixel-Berechnungen* ausführen. Eine zweite kostet X*1,5 Transistoren, kann aber zusätzlich Vertex-Berechnungen* ausführen. Nun möchte ich, um mal eine Hausnummer zu nennen, 48 Shader-Einheiten auf meinem Chip unterbringen. Nehme ich komplette "Unified"-Shader (X*1,5 Transistoren), bekomme ich bei ansonsten potentiell gleichen Randbedingungen nur mehr zwei Drittel der Rechenleistung auf die Fläche (48*1,5="72").
Nehme ich aber bsw. nur zwölf dieser Einheits-Shader (12*1,5="18"), habe ich noch "54" frei (72-18=54), die ich für reine Pixel-Einheiten benutzen kann, die nur "1" kosten, kann also zusätzlich 54 Stück einsetzen.

Beim US-Ansatz hätte ich also:
max. Vertex: 48
max. Pixel: 48

Beim gemischten Ansatz hätte ich:
max. Vertex: 12
max. Pixel: 66 (54+12)


Ich glaube zwar nicht, dass die Unterschied so gewaltig sind, aber insgesamt dürfte sich eine Mischkalkulation durchaus bezahlt machen, denke ich. Im OpenGL-CAD/CAM/CAE-Bereich würde es dann aber diesmal wohl einen eigenen Chip erfordern um mit einer reinen US-Konkurrenz mithalten zu können.


Q

Der Ansatz ist nicht schlecht.

Allerdings glaube ich, das eine US-ALU weniger oder höchstens gleichviel Platz wie eine spezielle Dedizierte PS/VS-ALU benötigt, da die dedizierten ALUs wesentlich "mächtiger" (zumindest die PS-ALUs) sind als die einer US-Architekture (zumindest wenn man den C1 als Beispiel rannnimmt).

Ich finde eine US-Architektur im Prinzip ja nicht schlecht, aber aus mehreren Gründen finde ich, dass die Zeit dafür noch nicht zu 100% reif ist.

VS-Power ist sowieso im Überfluss vorhanden und muss nicht noch extra großartig verstärkt werden...PS-Power ist IMO wichtiger (und US-Einheiten somit quasi überflüssig).

Ich persönlich finde den Ansatz von nV (wenn es beim G80 tatsächlich so kommen sollte) besser, nur VS+GS zu kombinieren und die PS PS sein zu lassen.

Bis zum G90 kann man dann inzwischen wohl so viele US-ALUs auf ein Die klatschen, das es dann wohl egal ist, das dedizierte Einheiten schneller wären....

reunion
2006-02-22, 10:46:26
Allerdings glaube ich, das eine US-ALU weniger oder höchstens gleichviel Platz wie eine spezielle Dedizierte PS/VS-ALU benötigt, da die dedizierten ALUs wesentlich "mächtiger" (zumindest die PS-ALUs) sind als die einer US-Architekture (zumindest wenn man den C1 als Beispiel rannnimmt).

Hä?
Jede US-ALU von Xenos kann eine MADD pro Takt berechnen, heutige, spezialisierte ALUs schaffen auch nicht mehr.


VS-Power ist sowieso im Überfluss vorhanden und muss nicht noch extra großartig verstärkt werden...PS-Power ist IMO wichtiger (und US-Einheiten somit quasi überflüssig).


Und mit einem US-Chip kann ich die überflüssige VS-Power in PS-Berechnungen umsetzen.


Ich persönlich finde den Ansatz von nV (wenn es beim G80 tatsächlich so kommen sollte) besser, nur VS+GS zu kombinieren und die PS PS sein zu lassen.


Wie kommst du darauf, dass man VS und GS kombiniert?

Ailuros
2006-02-22, 10:50:17
Quasar ich hab's zwar 3x mal durchgelesen, aber ich hab nur Bahnhof verstanden. Worauf willst Du ueberhaupt hinaus mit der Rechnung?

In D3D10 sind PS/GS/VS vorgeschrieben. Von diesen drei shader-stages sind offensichtlich GS/VS am verwandtesten. Selbst wenn es die Patente die Demi erwaehnte nicht geben wuerde, wuerde ich sowieso in die Richtung raten (GS/VS aus einer Einheit).

Was mir hier aber Sorgen macht sind Geometrie/Vertex Texturen und die dementsprechende Latenz. Es wird sicher einen Weg geben es zu loesen, die Frage ist aber dann was es in HW genau kosten wuerde. Bitte dann aber keine IHV-spezifische "workarounds" ala R2VB :rolleyes:

Soweit so gut; jetzt spekulier ich tatsaechlich mal blind nur mit dem obrigen im Hinterkopf:

48 PS ALUs : 4 MADDs/ALU, getrennte texture samplers (de-coupled)

10 GS/VS MIMDs

Zu all dem Schnickschnack braeuchte man auch noch effizientes PS dynamisches branching und das Totalpaket koennte schaetzungsweise insgesamt auf 400M kommen, was auch in low-k 90nm mit einer guten Frequenz (~650MHz) passen wuerde. Alles nur spekulativ und nur IMHO, steht also alles offen zur Debatte.

Ailuros
2006-02-22, 10:53:48
Wie kommst du darauf, dass man VS und GS kombiniert?

Was wuerdest Du unter einem programmable primitive processor genau verstehen? Ein PPP wuerde noch programmierbare Tesselation haben, ergo eine noch "fettere" Einheit, aber solche Kombinationen - da es sich um Geometrie-Einheiten handelt - sind durchaus sinnvoll.

-------------------------------------------------------------

***edit: mir ist generell egal ob USC oder non-USC in HW. Mich interessiert mehr was hinten rausschiesst. Man kann sowohl einen USC als auch einen non-USC verpatzen.

ShadowXX
2006-02-22, 11:19:14
Hä?
Jede US-ALU von Xenos kann eine MADD pro Takt berechnen, heutige, spezialisierte ALUs schaffen auch nicht mehr.


Die r580-ALU hat ja noch zusätzlich einen ADD + die Mini-Alus.
(Genauso wie die nV-G70-Alus auch noch MiniAlus für ein paar kleinigkeiten haben)

Das fällt beim C1 weg, der eben nur einen MADD hat.


Und mit einem US-Chip kann ich die überflüssige VS-Power in PS-Berechnungen umsetzen.


Nur das es da nix überflüssiges in dem Sinne gibt....
Beispiel:
Wenn der r580 jetzt ein 48US-Design wäre, dann hättest du im blödesten Fall nur 40PS.
Ein 56US-Design wäre es nämlich nicht geworden.

Alsu musst du mehr US-Einheiten raufklatschen, damit dir die, die kein US-Design benutzen nicht bei der PS-Power "weglaufen".

Davon abgesehen:
Ein US-Design ist auch soetwas wie "Verschwendung", denn du benötigts nie auch nur ansatzweise soviel VS wie PS-Einheiten.
Erst in dem moment, wo beiden Einheitentypen gleich viel Leisten und dazu auch noch gleichviel Kosten, ist es egal.

Momentan würde ich aber schätzen, das ein reines US-Design teurer als ein getrenntes Design ist.

Mich würde es auch nicht wirklich Wundern, wenn sowas wie Quasar es vorgeschlagen hat gemacht wird.
Z.B. 48 PS-Einheiten + 12 US-Einheiten (incl. GS)....dann wäre man auf der sicheren Seite und würde wohl alle zufriedenstellen.
Ob ein vollig nur aus US-Shadern bestehender Chip wirklich das Non-Plus-Ultra darstellt bin ich mir nämlich wirklich nicht sicher (zumindest im Gamingbereich).


Wie kommst du darauf, dass man VS und GS kombiniert?

Siehe AiL.....lt. Demi hat nV dafür auch ein Patent angemeldet.

Davon abgesehen ist es sogar sehr sinnig diese beiden zu koppeln (siehe ebenfalls AiL).

Ailuros
2006-02-22, 12:00:03
Alsu musst du mehr US-Einheiten raufklatschen, damit dir die, die kein US-Design benutzen nicht bei der PS-Power "weglaufen".

Davon abgesehen:
Ein US-Design ist auch soetwas wie "Verschwendung", denn du benötigts nie auch nur ansatzweise soviel VS wie PS-Einheiten.
Erst in dem moment, wo beiden Einheitentypen gleich viel Leisten und dazu auch noch gleichviel Kosten, ist es egal.

Wo siehst Du die Verschwendung genau?

Momentan würde ich aber schätzen, das ein reines US-Design teurer als ein getrenntes Design ist.

Nicht unbedingt. Nimm mal rein das Transistoren-budget eines R580 und erklaer mir warum in theoretisch 380M kein gleichperformanter USC reinpassen wuerde zudem mit vertex texturing und Null Latenz. GS und jegliche andere D3D10 Vorraussetzungen musst Du sowieso aus der Rechnung lassen. SM3.0 vs. SM3.0.

RLZ
2006-02-22, 12:06:15
Z.B. 48 PS-Einheiten + 12 US-Einheiten (incl. GS)....dann wäre man auf der sicheren Seite und würde wohl alle zufriedenstellen.
Der Anteil der Z-Only Passes steigt stetig.
GeometryPasses sind auch zukünftig sehr interessant, aber mit geteilten Einheiten viel langsamer als notwendig.
Mit einem Z-First Pass und predicated Rendering wird im normalen Pass die Vertexlast erheblich reduziert.
Imo sind getrennte Einheiten für die Zukunft viel zu unflexibel.

Gast
2006-02-22, 12:09:50
http://www.xbitlabs.com/news/video/display/20060220100915.html

reunion
2006-02-22, 12:14:42
Die r580-ALU hat ja noch zusätzlich einen ADD + die Mini-Alus.
(Genauso wie die nV-G70-Alus auch noch MiniAlus für ein paar kleinigkeiten haben)

Das fällt beim C1 weg, der eben nur einen MADD hat.


ATi hätte bei Xenos genauso auch eine zusätzliche ADD oder sonst was einpflanzen können, nur hat man sich eben dazu entschieden, auf diesen Firlefanz zu verzichten, und nur noch "vollständige ALUs" einzubauen. Das hat aber nichts mit dem US-Design zu tun.


Nur das es da nix überflüssiges in dem Sinne gibt....
Beispiel:
Wenn der r580 jetzt ein 48US-Design wäre, dann hättest du im blödesten Fall nur 40PS.
Ein 56US-Design wäre es nämlich nicht geworden.

Alsu musst du mehr US-Einheiten raufklatschen, damit dir die, die kein US-Design benutzen nicht bei der PS-Power "weglaufen".


Hä? Logisch, dass auch Leistung für VS/GS-Berechnungen draufgeht, dafür erspart man sich auch die zusätzlichen VS/GS.


Davon abgesehen:
Ein US-Design ist auch soetwas wie "Verschwendung", denn du benötigts nie auch nur ansatzweise soviel VS wie PS-Einheiten.
Erst in dem moment, wo beiden Einheitentypen gleich viel Leisten und dazu auch noch gleichviel Kosten, ist es egal.


Versteh' ich nicht. Es ist doch vollkommen irrelevant, wie viel Last auf die jeweiligen Einheiten fallen würde. Es geht darum, dass ich je nach Bedarf die Leistung dort habe, wo ich sie benötige. Wenn ich gerade keinen VS benötige, dann habe ich eben um so mehr PS-Power. So kann ich beispielsweise im CAD-Bereich alle ALUs als VS missbrauchen, und so wesentlich mehr Leistung freisetzen, als dies mit spezialisierten Einheiten möglich wäre.


Momentan würde ich aber schätzen, das ein reines US-Design teurer als ein getrenntes Design ist.


Seh ich nicht so. Xenos würde ohne eDRAM, aber mit ROPs wohl auf ca. 250mio Transistoren kommen. R520 kommt auf 321mio, hat ebenfalls nur 16TMUs, und wesentlich weniger PS/VS-Power. Xenos ist hier also wesentlich effizienter, was Leistung/Transistor angeht.


Mich würde es auch nicht wirklich Wundern, wenn sowas wie Quasar es vorgeschlagen hat gemacht wird.
Z.B. 48 PS-Einheiten + 12 US-Einheiten (incl. GS)....dann wäre man auf der sicheren Seite und würde wohl alle zufriedenstellen.


Wenn man schon US entwickelt, dann wird man diese IMO auch überall einsetzen. Denn erstens glaube ich nicht, dass US-ALUs so viel mehr Transistoren benötigen, und zweitens müsste man dann ja quasi zwei Designs entwicklen, also die ganze Arbeit zweimal machen.


Siehe AiL.....lt. Demi hat nV dafür auch ein Patent angemeldet.

Davon abgesehen ist es sogar sehr sinnig diese beiden zu koppeln (siehe ebenfalls AiL).

Okay, es würde Sinn machen, das bestreite ich auch nicht. Die Frage ist, ob nV das auch so macht.

Ailuros
2006-02-22, 12:17:15
Der Anteil der Z-Only Passes steigt stetig.
GeometryPasses sind auch zukünftig sehr interessant, aber mit geteilten Einheiten viel langsamer als notwendig.
Mit einem Z-First Pass und predicated Rendering wird im normalen Pass die Vertexlast erheblich reduziert.
Imo sind getrennte Einheiten für die Zukunft viel zu unflexibel.

Ich probier's mal mit einem Beispiel und Ihr koennt mir dann ja sagen ob eine solche Vereinfachung auch Sinn macht.

Ich hab in einem Fall drei Arbeiter, wobei aber jeder nur fuer eine spezifische Aufgabe faehig ist:

B ist fuer X zustaendig.
C fuer Y
D fuer Z.

Ich will aber nicht nur den Arbeitsverlauf besser programmieren, aber auch sicherstellen dass keiner der 3 obrigen teilweise dumm rumhockt.

Ich koennte also einen Vorarbeiter A einstellen der Aufgaben dementsprechend auf drei Arbeiter verteilt aber:

B kann X,Y,Z
C kann X,Y,Z
D kann X,Y,Z

Wobei hier aber vieles von A und dessen Potenz abhaengt.

Ailuros
2006-02-22, 12:28:44
ATi hätte bei Xenos genauso auch eine zusätzliche ADD oder sonst was einpflanzen können, nur hat man sich eben dazu entschieden, auf diesen Firlefanz zu verzichten, und nur noch "vollständige ALUs" einzubauen. Das hat aber nichts mit dem US-Design zu tun.

Es hat schon mit einem USC zu tun. Ich hab mal auf Coda's Gedankensporn zurueckgedacht und mehr macht bei so einem Design auch nicht wirklich Sinn.

Hä? Logisch, dass auch Leistung für VS/GS-Berechnungen draufgeht, dafür erspart man sich auch die zusätzlichen VS/GS.

Man erspart sich auch wieder nichts. Waere Xenos mit 650MHz schneller als ein R580 und warum nicht?


Versteh' ich nicht. Es ist doch vollkommen irrelevant, wie viel Last auf die jeweiligen Einheiten fallen würde. Es geht darum, dass ich je nach Bedarf die Leistung dort habe, wo ich sie benötige. Wenn ich gerade keinen VS benötige, dann habe ich eben um so mehr PS-Power. So kann ich beispielsweise im CAD-Bereich alle ALUs als VS missbrauchen, und so wesentlich mehr Leistung freisetzen, als dies mit spezialisierten Einheiten möglich wäre.

Zustimm.

Seh ich nicht so. Xenos würde ohne eDRAM, aber mit ROPs wohl auf ca. 250mio Transistoren kommen. R520 kommt auf 321mio, hat ebenfalls nur 16TMUs, und wesentlich weniger PS/VS-Power. Xenos ist hier also wesentlich effizienter, was Leistung/Transistor angeht.

Das "weniger" musst Du mir aber erstmal erklaeren. Mal ganz ganz einfach, waere es wirklich so wie Du es illustriest hatte ATI einen kompletten Vogel dass sie Xenos nicht fuer den PC eingesetzt haben und anstatt dem originalen R400, mit R420/R5x0 Resourcen verschwendet hat.

***edit: psssst wo ist der Speichercontroller auf Xenos?


Okay, es würde Sinn machen, das bestreite ich auch nicht. Die Frage ist, ob nV das auch so macht.

Viel Zweifel hab ich momentan nicht, was aber auch wiederrum nichts heisst. Einfache Logik erstens wuerden getrennte GS/VS sowieso nebeneinander hocken in einem Design und zweitens anstatt einen GS zu haben der nur dumm rumhockt bis Spiele endlich mal den GS benutzen, macht es wohl doch mehr Sinn ueber eine einzige Geometrie-Einheit zu verfuegen.

RLZ
2006-02-22, 12:41:41
Ich probier's mal mit einem Beispiel und Ihr koennt mir dann ja sagen ob eine solche Vereinfachung auch Sinn macht.
Das hängt von der Aufgabe ab und von der Leistungsfähigkeit der Einheiten für die einzelne Aufgaben.
Deswegen schrieb ich ja auch weiter vorne, dass ich mir für aktuelle Engines gut eine Trennung vorstellen könnte.
Zu Lebzeiten des G80 wird es für Spieler keine grosse Rolle spielen.
Dank G80 mit getrennten Einheiten würde der GeoShader dann auch kaum für komplexere Dinge genutzt.

reunion
2006-02-22, 12:58:13
Es hat schon mit einem USC zu tun. Ich hab mal auf Coda's Gedankensporn zurueckgedacht und mehr macht bei so einem Design auch nicht wirklich Sinn.


Warum?


Man erspart sich auch wieder nichts. Waere Xenos mit 650MHz schneller als ein R580 und warum nicht?


Man erspart sich nichts, aber man verschwendet auch nichts.

Und das R580 schneller ist, ist auch nicht wirklich verwunderlich, immerhin benötigt R580 380mio Transistoren, während Xenos mit 250mio auskommt. Alles andere wäre erbärmlich.


Das "weniger" musst Du mir aber erstmal erklaeren. Mal ganz ganz einfach, waere es wirklich so wie Du es illustriest hatte ATI einen kompletten Vogel dass sie Xenos nicht fuer den PC eingesetzt haben und anstatt dem originalen R400, mit R420/R5x0 Resourcen verschwendet hat.


Ich bin hier mal so frei, und kopiere Quasars Beitrag aus einem anderen Thread:

C1: 48 Vec4+1-MADD-ALUs mit 500 MHz.
-> 48*(4+1)*(4+4)*500= 960.000
R520: 16*Vec4-MADD+16*Vec4-ADD+8*Vec4+1-MADD*625 MHz.
-> (16*4*(4+4))+(16*4*4)+(8*(4+1)*(4+4))*625= 680.000

http://www.forum-3dcenter.de/vbulletin/showpost.php?p=3973170&postcount=66

Also selbst wenn man die Taktfrequenz berücksichtigt, erreicht Xenos einen wesentlich höheren PS/VS-Output, hinzu kommt noch die bessere Lastverteilung.


***edit: psssst wo ist der Speichercontroller auf Xenos?


Okay, der fehlt natürlich. Trotzdem sehe ich keine Transistorenverschwendung bei Xenos.


Viel Zweifel hab ich momentan nicht, was aber auch wiederrum nichts heisst. Einfache Logik erstens wuerden getrennte GS/VS sowieso nebeneinander hocken in einem Design und zweitens anstatt einen GS zu haben der nur dumm rumhockt bis Spiele endlich mal den GS benutzen, macht es wohl doch mehr Sinn ueber eine einzige Geometrie-Einheit zu verfuegen.

Der Logik nach würde auch ein US-Design Sinn machen, aber vermutlich hast du recht.

ShadowXX
2006-02-22, 13:32:52
Wo siehst Du die Verschwendung genau?


Darin, das ich nie 48VS* benötige (im Gamingbereich...das hatte ich oben aber auch mit dazugeschrieben)

*48 jetzt einfach als Zahl für die Shadereinheiten...kann man auch 96 oder 128 einsetzen wenn man möchte.

Deshalb auch meine Anmerkung: "....bis zu dem Zeitpunkt, wo es Transistor, Budget & Performancemäßig gleichteuer/schnell ist ob man eine US-ALU oder eine PS-ALU einzusetzt..."

Das das ganze im Profi CAD/CAM-Markt etwas anderes aussieht, will ich gar nicht bestreiten....


Nicht unbedingt. Nimm mal rein das Transistoren-budget eines R580 und erklaer mir warum in theoretisch 380M kein gleichperformanter USC reinpassen wuerde zudem mit vertex texturing und Null Latenz. GS und jegliche andere D3D10 Vorraussetzungen musst Du sowieso aus der Rechnung lassen. SM3.0 vs. SM3.0.

Schlecht abzuschätzen IMHO, da keine Mensch weiß, die Potent das C1-Design wirklich ist in relation zu einem PC-Design.

Auch wenn Reunion es nicht glauben will, ist ein x1800xt ja sogar lt. ATI selbst schneller als ein C1.