PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia G70?


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14 15

robbitop
2005-03-10, 20:49:23
wieso kommen nur so viele auf die Idee, NV würde 130nm lowk nutzen?

reunion
2005-03-10, 20:52:27
wieso kommen nur so viele auf die Idee, NV würde 130nm lowk nutzen?

Der im durchgesickerten ForceWare 75.90 bereits gelistete G70-Chipsatz von nVidia wird den von uns bereits angesprochenen Refresh der NV4x-Architektur darstellen und gegen Ende April vorgestellt werden. Dabei wird es durch den Wechsel der Produktionsstätte von IBM zur taiwanesischen Chipschmiede TSMC neben kleineren Verbesserungen an der GPU selbst hauptsächlich höhere Taktraten zu verzeichnen geben.

Diese werden unter anderem auch durch die low-K Fertigungsoption des 0,13µ-Prozesses, dessen sich auch Konkurrent ATi seit der X800-Serie bedient, ermöglicht.

Die Änderungen an der Architektur werden sich in Sachen Geschwindigkeitssteigerung auswirken und nicht den Chip weiter in Richtung WGF 2.0, welches mit Windows „Longhorn“ kommt, befördern. Höchstwahrscheinlich wird es sich demnach, der modularen Konzeption der GeForce-6-Series folgend, um zusätzliche Rendering-Pipelines in Form eines oder zweier zusätzlicher Pixelquads handeln, was die High-End Produkte möglicherweise auf 20 oder mehr Pipelines aufstockt.
Ein weiteres neues High-End Produkt wird allerdings noch dieses Jahr erwartet und soll, der offiziellen Nomenklatur folgend, aus der GeForce-7-Series stammen. Dieses wird dann auch weitere Fortschritte in Sachen Technik bringen - ob der Chip dabei schon komplett WGF-2.0-compliant, also deren wesentliche Features in Hardware anbietet, sein wird, ist noch unklar.


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/maerz/cebit05_nvidia_g70_ende_april/

robbitop
2005-03-10, 20:55:11
nur weil CB sowas schreibt, muss es nicht wahr sein. ;)
Oder ist CB jetzt der Maßstab? habe ich was verpasst? THG vieleicht auch? :D

Fadl
2005-03-10, 20:57:35
Wieviel Prozent Mehrleistung würde denn ein G70 mit 6 Quads und 400MHz gegenüber einer jetzigen 6800Ultra bringen? Kann man das in etwa sagen?

reunion
2005-03-10, 20:59:08
Wieviel Prozent Mehrleistung würde denn ein G70 mit 6 Quads und 400MHz gegenüber einer jetzigen 6800Ultra bringen? Kann man das in etwa sagen?

Bei sonst unveränderter Architektur und dazu linear steigender Speicherbandbreite bis zu 50%. ;)

ShadowXX
2005-03-10, 21:05:15
nur weil CB sowas schreibt, muss es nicht wahr sein. ;)
Oder ist CB jetzt der Maßstab? habe ich was verpasst? THG vieleicht auch? :D

Der Text ist immerhin von Quasar und laut mechwollier sollen die Infos von nV kommen....

ShadowXX
2005-03-10, 21:08:12
Bei sonst unveränderter Architektur und dazu linear steigender Speicherbandbreite bis zu 50%. ;)

Das Problem wird allerding genau die Speicherbandbreite sein....mehr als 700MHz Chips sehe ich da nicht.(Und das ist optimistisch)

@VooDoo7mx
scheint so auszusehen....ich glaube sogar, das die 6800Ultra wegfallen wird und der nv48 nur bis zur GT geht.

Der neue G70 wäre dann der Ersatz....

Fadl
2005-03-10, 21:09:50
Bei sonst unveränderter Architektur und dazu linear steigender Speicherbandbreite bis zu 50%. ;)

Ich meinte eher in der Praxis ;)

reunion
2005-03-10, 21:11:52
Ich meinte eher in der Praxis ;)

Ich würde sage ca. 30% wenn nicht die CPU limitiert.

bjnbv
2005-03-10, 21:18:21
Ich meinte eher in der Praxis ;)

bei langen shadern 50% (ohne taktsteigerung), in der praxis ohne cpu-limitierung wahrscheinlich rund 30%, beim einsatz von AF etwas mehr, bei FSAA etwas weniger.

Jesus
2005-03-10, 21:18:38
Der Text ist immerhin von Quasar und laut mechwollier sollen die Infos von nV kommen....

immerhin ... :rolleyes:

reunion
2005-03-10, 21:20:52
bei langen shadern 50% (ohne taktsteigerung)

Nein, man erreicht nie das theoretische maximum, auch nicht bei Shadern.

robbitop
2005-03-10, 21:21:50
Der Text ist immerhin von Quasar und laut mechwollier sollen die Infos von nV kommen....

1. das ändert den Wahrheitsgehalt nicht.
2. das steht dort nicht als Quelle. (glaube auch kaum, dass sie solche Details rausrücken)

r3ptil3
2005-03-10, 21:47:40
laut aussagen seitens nvidia an der cebit , bedeutet g70 nur der refresh chip des nv40, jedoch haben sie auch gesagt das geforce 7 im frühsommer erscheinen wird !! http://www.gamezoom.de/artikel/show/0,162843,1,10672.html

Jesus
2005-03-10, 22:11:24
laut aussagen seitens nvidia an der cebit , bedeutet g70 nur der refresh chip des nv40, jedoch haben sie auch gesagt das geforce 7 im frühsommer erscheinen wird !! http://www.gamezoom.de/artikel/show/0,162843,1,10672.html

Das klingt schon realistischer, ich glaube nicht wirklich an einen Refreshchip mit mehr Pipes ;)

reunion
2005-03-10, 22:12:05
laut aussagen seitens nvidia an der cebit , bedeutet g70 nur der refresh chip des nv40, jedoch haben sie auch gesagt das geforce 7 im frühsommer erscheinen wird !! http://www.gamezoom.de/artikel/show/0,162843,1,10672.html

Hm, wenn die Aussagen von nV kommen dann wirds schon stimmen.
Also wird G70 wohl in 130nm lowk gefertigt, allerdings halte ich den Frühsommer 2005 für die Geforce7-Serie doch für arg optimistisch, immerhin soll Longhorn erst mitte 2006 kommen. Es sei denn es handelt sich dabei nicht um den vermuteten WGF2.0-Chip.

r3ptil3
2005-03-10, 22:33:03
da nvidia wohl sicherlich mit dem refresh chip das rennen später gegen den r520 eigentlich fast sicher verlieren würde haben die auch (nvidia) seit längerem an der geforce 7 gewerkelt , einfach ziemlich versteckt, im gegensatz zu ati wusste man schon seit ca. spätsommer 2004 das die am r520 rumwerkeln.

robbitop
2005-03-10, 22:40:12
NV mag gesagt, haben, G70 sei der Refresh, aber 130nm lowk halte ich hier für Spekulation und nicht für offiziell.

reunion
2005-03-10, 22:50:07
NV mag gesagt, haben, G70 sei der Refresh, aber 130nm lowk halte ich hier für Spekulation und nicht für offiziell.

Kommen wir zuerst zum nV4x Refresh. - Laut nVidia wird dieser die Bezeichnung G70 tragen und zusammen mit TSMC im 0,13µ-Prozess gefertigt.


Präziser gehts wohl kaum.
Außerdem haben wir jetzt bereits zwei Quellen die unabhängig voneinanders dasselbe behaupten.

seahawk
2005-03-11, 08:10:44
Ich halte 130nm low-k durchaus für denkbar. 110nm dürfte die Menge an Transistoren nicht mehr schaffen (bei notwendigem Takt), 90nm scheint NV nocht nicht nutzen zu wollen.
Wenn man jetzt davon ausgeht, dass NV einen 110nm 4Quad 6800GT Nachfolger bringt und zusätzlich einen 5 (bis 6) Quad High-End-Chip in 130nm low-k, dann kan ich mir das sehr gut vorstellen. Natürlich wird das eine Riesenchip und die Ausbeute dürfte eher unbefriedigend sein, aber wir reden dann auch nur über den absoluten HiGh-End-Bereich. Mit 512 MB DDR 700+MHZ RAM kosten solche Karten wahrscheinlich so oder so 700+ Euro und dann kann man es sich imho durchaus leisten.

HOT
2005-03-11, 10:25:56
Ziemlich fest steht wohl, dass der G70 ein Refresh sein soll. Das kann eigentlich nur 2 Dinge beinhalten: Mehr Quads/Mehr VS (genauer 2 Quads und vielleicht noch 2 VS) und/oder Effizienzsteigerung. Die Namensgebung ist bei NV ja wieder relativ klassisch (nach dem FX Ausflug) und somit ist es nicht verwunderlich, warum sie das Teil Geforce7(000) nennen wollen, G70 deutet schon arg in die Richtung. Nv sind schlicht die NVxx Bezeichnungen ausgegangen, man muss hier ja von einer internen Bezichnung ausgehen, das umfasst dann auch Chips, die geplant waren, aber niemals das Licht der Welt erblickten. Der Sprung von einer Architekturbasierenden zu einer Generationsbasierenden Bezeichnung bringt 5 Bezeichnungen mehr pro Generation :D. Anstatt vom NV50 zu sprechen, sollte man lieber von G80 Sprechen in Zukunft. Die Frage ist nun: Welcher Fertigungsprozess. Für 110nm hat das Teil wohl a.) zuviele Transistoren und b.) zuwenig Takt. Bleiben noch 130nm Highend und 90nm Prozesse übrig.
Ob ATI jetzt 90nm benutzen möchte weiss ich nicht, ist denke ich auch nur wilde Spekulation. Kann sein, kann aber auch nicht sein. Beim G70 verhält es sich ähnlich, nur mit dem Hinweis, dass NV selber gesagt haben *soll*, dass sie den 90nm nicht für reif genug erachten (na ja, die Erfahrung haben sie ja schonmal gemacht :D). In diesem Falle bliebe nur 130nm übrig. Damals hat auch niemand damit gerechnet, dass ATI bei 107mio Transistoren 300MHz in 150nm schafft, wie wir sehen, leben totgesagte länger ;).
Der NV48 hört sich in der Tat wie ein 110nm Refresh an, dazu würde auch der fehlende 6800 Ultra Eintrag passen. Als Fakt können wir jedoch ansehen, dass der NV48 keine zusätzlichen Funktionen oder Quads ggü. dem NV40 haben wird, höchstens nen reparierten Videoprozessor und ein korrigiertes Speicherinterface.

reunion
2005-03-11, 10:34:09
Ob ATI jetzt 90nm benutzen möchte weiss ich nicht, ist denke ich auch nur wilde Spekulation. Kann sein, kann aber auch nicht sein.


R520 wird definitiv in 90nm gefertigt, das wurde sogar von Dave Orton bestätigt.


Beim G70 verhält es sich ähnlich, nur mit dem Hinweis, dass NV selber gesagt haben *soll*, dass sie den 90nm nicht für reif genug erachten (na ja, die Erfahrung haben sie ja schonmal gemacht :D).


Das dürfte auch sicher sein:

Michael Hara: “If you look at when we go to 90, my guess will be is we’ll have one or two products this year going from 90 in the second half”.

James Ryan
2005-03-11, 10:50:35
Der NV48 hört sich in der Tat wie ein 110nm Refresh an, dazu würde auch der fehlende 6800 Ultra Eintrag passen. Als Fakt können wir jedoch ansehen, dass der NV48 keine zusätzlichen Funktionen oder Quads ggü. dem NV40 haben wird, höchstens nen reparierten Videoprozessor und ein korrigiertes Speicherinterface.

Was ist denn am Speicherinterface beim NV40 kaputt was der NV48 korrigieren müsste? :|

MfG :cool:

Gaestle
2005-03-11, 11:20:10
Vermutung:
a) NV48 ist der Frühjahrs-Refresh ("kurz nach der CeBit")
b) NV47 = G70 umbenannt, weil NV47 mehr Leistung als NV48 hat, zu erwarten im Spätsommer/Herbst = R520-Konkurrent

Glaube, dass passt auch besser zu der NV-Miteilung den Analysten gegenüber.

Also ich bin der Meinung, dass der "kurz nach der CeBit"-Refresh nur ein paar Verbesserungen bringt (VP etc. ). Keine neuen Quads, keine oder nur geringe Taktsteigerung (weil: wenn mehr Takt und die Einträge gehen nur bis GT, dann müsste die Ultra ja noch einen draufsetzen). Ziel ist mehr Effizienz iun der Produktion und Bug-Fixing.

Ich vermute in G70 (= GeForce7xxx) den Sommer/Herbst-Refresh mit mehr Quads. Der kann dann vermutlich dem R520 auch Konkurrenz machen. Ich denke, CB und die andere Quelle haben vielleicht NV48 und G70 verwechselt.

Grüße

VooDoo7mx
2005-03-11, 11:55:57
Aber irgendwie macht es mich stutzig, dass selbst beim NV48 noch eine 6800LE mit nur 2 der ursprünglichen 4 Quads schon von Anfang an eingeplant ist.

Also ist auch beim neuen Refresh und beim neuen Fertiger mit der 0,11µ Fertigung imho die Ausfallquote noch viel zu hoch.

Das lässt doch schon fast ausschließen, dass der TSMC 0,11µ niemals für dn G70 ausreichen würde.

Zusätzlich lies NV ja verlauten, dass sie nicht 0,09µ einsetzen werden.

Viel bleibt da nicht mehr übrig.

Gaestle
2005-03-11, 12:17:18
Aber irgendwie macht es mich stutzig, dass selbst beim NV48 noch eine 6800LE mit nur 2 der ursprünglichen 4 Quads schon von Anfang an eingeplant ist.

Also ist auch beim neuen Refresh und beim neuen Fertiger mit der 0,11µ Fertigung imho die Ausfallquote noch viel zu hoch.

Oder die Verkaufszahlen für die LE sind seit Erscheinen bzw. Lieferbarkeit der 66GT so gesunken, dass sie nicht viele davon benötigen.



Zusätzlich lies NV ja verlauten, dass sie nicht 0,09µ einsetzen werden.



AFAIR haben Sie den Prozess nicht komplett ausgeschlossen, sondern nur gesagt, dass sie sich damit Zeit lassen....


Grüße

seahawk
2005-03-11, 12:26:13
Ich denke der NV48 sit 110nm Refresh der 6800GT. Den dort müssen sie preislich und von der Verfügbarkeit her auf die X800XL reagieren.

HOT
2005-03-11, 13:03:45
Was ist denn am Speicherinterface beim NV40 kaputt was der NV48 korrigieren müsste? :|

MfG :cool:

na jo, irgendwo muss das mit den 512MB doch auch herkommen. Könnte natürlich auch nur Marketing sein, aber ich weiss nicht, warum man so vorgehen sollte. Schliesslich ist es dem Kunden egal, ob die 6800GT jetzt nen NV40 mit 512MB oder nen NV48 mit 512MB ist. Für NV ist das doch nur ne minimale Einschränkung, weil sie ausschliesslich NV48 Karten mit 512MB laufen müssen. da ich nicht glaube, dass sie die IBM Produktion eingestellt haben. IMHO laufen diese parallel, zumindest ne Weile. Laut NV ist es halt so, dass irgendwas im NV40 limitierend wirkt, was oder warum auch immer.

ShadowXX
2005-03-11, 15:21:28
na jo, irgendwo muss das mit den 512MB doch auch herkommen. Könnte natürlich auch nur Marketing sein, aber ich weiss nicht, warum man so vorgehen sollte. Schliesslich ist es dem Kunden egal, ob die 6800GT jetzt nen NV40 mit 512MB oder nen NV48 mit 512MB ist. Für NV ist das doch nur ne minimale Einschränkung, weil sie ausschliesslich NV48 Karten mit 512MB laufen müssen. da ich nicht glaube, dass sie die IBM Produktion eingestellt haben. IMHO laufen diese parallel, zumindest ne Weile. Laut NV ist es halt so, dass irgendwas im NV40 limitierend wirkt, was oder warum auch immer.

Wir hatte schon irgendwo vorher, das schon der nv40 2 Gigabyte ansteuern kann.

Und irgendwo anders wurde auch schon Bilder von nv45-Platinen mit 512MB gezeigt.

Das mit nv48 für 512MB benötigt ist nur ein hoax (vom INQ verbreitet).

HOT
2005-03-11, 15:47:38
Wir hatte schon irgendwo vorher, das schon der nv40 2 Gigabyte ansteuern kann.

Und irgendwo anders wurde auch schon Bilder von nv45-Platinen mit 512MB gezeigt.

Das mit nv48 für 512MB benötigt ist nur ein hoax (vom INQ verbreitet).

Na jo, Demi hat mal irgendwo geschrieben, dass NV schon massiv tricksen musst, um überhaupt 256MB auf 32Bit Windowssystemen nutzbar zu machen. Wer weiss, vielleicht mussten für 512MB Änderungen an der Hardware diesbezüglich vorgenommen werden.
Das Bild mit der NV45 512MB Platine muss ja net zwingend der NV45 sein, sondern könnte genausogut ein NV48 sein.
Woher kommt eigentlich die Info, dass der Chip 2GB können soll? Das hört sich für mich etwas komisch an.
Gabs eigenltich Quadro Karten, die mit 512MB ausgestattet gewesen sind? Ich glaube nicht (lasse mich aber gerne eines Besseren belehren)... Das wäre noch ein Hinweis darauf, dass es einfach nicht geht, da professionelle Karten doch eher mal mehr Speicher nutzen.

ShadowXX
2005-03-11, 15:53:06
Na jo, Demi hat mal irgendwo geschrieben, dass NV schon massiv tricksen musst, um überhaupt 256MB auf 32Bit Windowssystemen nutzbar zu machen. Wer weiss, vielleicht mussten für 512MB Änderungen an der Hardware diesbezüglich vorgenommen werden.
Das Bild mit der NV45 512MB Platine muss ja net zwingend der NV45 sein, sondern könnte genausogut ein NV48 sein.
Woher kommt eigentlich die Info, dass der Chip 2GB können soll? Das hört sich für mich etwas komisch an.
Gabs eigenltich Quadro Karten, die mit 512MB ausgestattet gewesen sind? Ich glaube nicht (lasse mich aber gerne eines Besseren belehren)... Das wäre noch ein Hinweis darauf, dass es einfach nicht geht, da professionelle Karten doch eher mal mehr Speicher nutzen.

Es gibt Quadro-Karten mit 512MB....

Das Grafikspeichermengenproblem ist kein reines nV-Problem, sondern ein allgemeines Windows-Problem.

Auf der jetzigen CeBit werden übrigens gerade SLI-Systeme der 6800Ultra mit jeweils 512MB Speicher (pro Karte) von XFX und noch irgendjemand vorgestellt....

Ach ja...nv40 und 2048MB:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2789911&postcount=1

und

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2812674&postcount=11
(im Text seht 2x1Gig, das ist natürlich falsch, sondern es müsste heissen 2x512MB also insgesamt 1Gig)

DrumDub
2005-03-11, 16:29:43
.
Woher kommt eigentlich die Info, dass der Chip 2GB können soll?

von aths:

Übrigens kann der NV40 bis zu 2 Gigabyte RAM adressieren. http://www.3dcenter.org/artikel/nv40_technik/index3.php

DrumDub
2005-03-11, 16:31:37
Es gibt Quadro-Karten mit 512MB....

jo, aber nur als pcie ergo nv45.

HOT
2005-03-11, 16:52:33
Es gibt Quadro-Karten mit 512MB....

Das Grafikspeichermengenproblem ist kein reines nV-Problem, sondern ein allgemeines Windows-Problem.

Auf der jetzigen CeBit werden übrigens gerade SLI-Systeme der 6800Ultra mit jeweils 512MB Speicher (pro Karte) von XFX und noch irgendjemand vorgestellt....

Ach ja...nv40 und 2048MB:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2789911&postcount=1

und

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2812674&postcount=11
(im Text seht 2x1Gig, das ist natürlich falsch, sondern es müsste heissen 2x512MB also insgesamt 1Gig)

alles klar, danke :)

q@CBit
2005-03-11, 17:48:18
Hi,

also eines vorweg, das, was ich gestern über die 2GB sagte (ich kanns nicht mehr finden) war keine definitive Bestätigung, sondern nur eine Denkrichtung dahingehend, daß nicht alles, was man in den Chip packen wollte, auch wirklich darin funktioniert. Nachdem der PVP nicht geht, Tonemapping im RAMDAC noch von niemandem live gesehen wurde - warum sollte es da nicht auch ein Problem mit mehr als 256MB gegeben haben?
Das nur als Erklärung (also, wie man darauf kommen könnte, bzw. nicht alles für bare Münze nehmen muss, was in Launch-Reports geschrieben wird) für die mittlerweile als falsch bestätigte Meldung, es brauche einen nV48 für 512MB.

Zum zweiten: ein Refresh bei TSMC. 1 Quad dürfte nicht allzuviel mehr als 30M Transistoren kosten, da nV41 laut dem, was man so hört, ca. 190M Transistoren hat, nV40/45 dagegen 222M.

Ein 5-Quad-Chip (was ist daran so abwegig?) wäre demnach bei ~255M, ein 6-Quadder bei ~290M Transistoren. Gibt TSMC ein Limit an, für wieviele Transistoren bei etwa gleicher Frequenz (oder mehr??) deren 0,13µ Prozess ausgelegt ist? Wenn ja - bitte einen Link. ;)

Wenn TSMC der 0,13µ-Prozess gut gelingt und man neben Takterhöhung und/oder mehr Pixelquads auch noch einigen Ballast aus dem Design des nV40/45 entfernen konnte, warum sollte der Refresh dann nicht auf diesem Prozess, der sich als sehr leistungsfähig herausgestellt hat (wenn auch nicht bei besonders tollen Yields, aber dafür kann man ja die Chips teildeaktivieren) Prozess basieren?

Bei welchem Limit liegt der 0,11µ-Prozess? Takt- und Transistorbezogen? Angesichts der Taktungserfolge der X800 und X800XL-GPUs könnte da durchaus bei solch komplexen Dingern ein Limit bei rund 450MHz - entsprechend weniger für noch komplexere Designs wie den nV40 und entsprechend, wenn auch nur wenig, mehr bei einfacheren wie dem nV43.

Aber wieviele Transistoren kann man dort noch unterbringen, ohne daß der Takt ins Bodenlose fällt?


Zum G70-Namen: Vielleicht wurde er ja kurzfristig geändert? Momentan ist's jedenfalls ziemlich verwirrend, nV40 ist schneller als nV41-44 und nV45 ist wiederum schneller als nV44,43,42M und 41.
Vielleicht will da wer ein bissel Struktur reinbringen?

Keine Ahnung.

BTW, ATi hat heute nochmal in der PK gesagt, daß demnächst eine Grafiktechnologie auf den Markt kommt, die die erste in 0,09µ sein wird. Allerdings natürlich nicht explizit, welche es sein wird... ;)

ShadowXX
2005-03-11, 21:08:09
jo, aber nur als pcie ergo nv45.

Der "nv45" ist aber nichts anderes als ein nv40 + HSI.


Zum G70-Namen: Vielleicht wurde er ja kurzfristig geändert? Momentan ist's jedenfalls ziemlich verwirrend, nV40 ist schneller als nV41-44 und nV45 ist wiederum schneller als nV44,43,42M und 41.
Vielleicht will da wer ein bissel Struktur reinbringen?


Wenn man mal davon absieht, das der nv40 gleichschnell wie der nv45 ist, war die "Benamung" der Chips bei nV schon immer in dieser weise....

robbitop
2005-03-12, 21:23:54
Kommen wir zuerst zum nV4x Refresh. - Laut nVidia wird dieser die Bezeichnung G70 tragen und zusammen mit TSMC im 0,13µ-Prozess gefertigt.


Präziser gehts wohl kaum.
Außerdem haben wir jetzt bereits zwei Quellen die unabhängig voneinanders dasselbe behaupten.

Kannst du vergessen. NVIDIA hat auf der CeBIT nicht mal Lars Weinand und Dave Bauman irgendwas über das zukünftige Projekt erzählt. Wir waren auch mit Presseausweis da und man wollte wirklich gar nichts dazu sagen. Bei ATI ebenfalls. IMO hat sich da jemand was aus den Rippen geleiert.

robbitop
2005-03-12, 21:34:54
@Quasar

ich war bisher der Meinung, etwas von 175Mio Transistoren für NV41 gelesen zu haben, bin mir aber nicht ganz sicher. Woher beziehst du die 190 Mio?

Aths und XMas sind der Meinung, dass man einen NV4x 6Quad Chip mit 16 ROPs, 6xVS, Entfernung des Tonemappings und anderen Einsparungen (VP soll nicht gespart sondern repariert werden in dieser Theorie...naja sowas sollte heute schon wegen der Feature List nicht fehlen) auf rund 260Mio Transistoren käme. Beide gingen vom NV43 relativ zum NV40 aus.

Fertigungstechnisch sehe ich 90nm nicht als wahrscheinlich. 130nm lowk da schon eher. Was ich denke ist, dass R520 deutlich schneller wird als R420. Und um das einzuholen braucht man entweder eine Menge mehr Takt (was ohne 90nm kaum machbar wird) oder eben eine Verbreiterung der Architektur.
Wieso verteufeln alle 110nm, nur weil ATI den R430 nicht hoch genug takten konnte? 110nm sollten immernoch besser sein als IBM's 130nm. Und nebenbei spart es Fläche. Ich wüsste nicht, welche Komponente 110nm davon abhalten sollte, mehr Transistoren aufzunehmen als 130nm. Primär sind die Signallaufzeiten ein Faktor für das Transistorlimit. Und diese sinken nunmal mit der Fertigungsstrukturbreite. 130nm lowk würde selbst den NV40 größer und vor Allem noch teurer machen (lowk eben). Bei mehr Transistoren natürlich um so mehr. Aber da hat sowieso jeder seine eigene Theorie.

Ailuros
2005-03-13, 13:42:59
Bei welchem Limit liegt der 0,11µ-Prozess? Takt- und Transistorbezogen? Angesichts der Taktungserfolge der X800 und X800XL-GPUs könnte da durchaus bei solch komplexen Dingern ein Limit bei rund 450MHz - entsprechend weniger für noch komplexere Designs wie den nV40 und entsprechend, wenn auch nur wenig, mehr bei einfacheren wie dem nV43.

Selbst 400MHz waeren theoretisch gut genug im Fall von 6 quads.


Aths und XMas sind der Meinung, dass man einen NV4x 6Quad Chip mit 16 ROPs, 6xVS, Entfernung des Tonemappings und anderen Einsparungen (VP soll nicht gespart sondern repariert werden in dieser Theorie...naja sowas sollte heute schon wegen der Feature List nicht fehlen) auf rund 260Mio Transistoren käme. Beide gingen vom NV43 relativ zum NV40 aus.

Ich wuerde als Laie sogar noch weniger als 260 einschaetzen.

Leonidas
2005-03-13, 13:47:06
Kommen wir zuerst zum nV4x Refresh. - Laut nVidia wird dieser die Bezeichnung G70 tragen und zusammen mit TSMC im 0,13µ-Prozess gefertigt.


Präziser gehts wohl kaum.
Außerdem haben wir jetzt bereits zwei Quellen die unabhängig voneinanders dasselbe behaupten.



Wer?

Ganz ehrlich: Die (wenigen) Informationen zum Refresh hat nVidia generell unter NDA gestellt, insofern wundert mich die Schreibweise "Laut nVidia".

aths
2005-03-13, 16:05:57
Aths und XMas sind der Meinung, dass man einen NV4x 6Quad Chip mit 16 ROPs, 6xVS, Entfernung des Tonemappings und anderen Einsparungen (VP soll nicht gespart sondern repariert werden in dieser Theorie...naja sowas sollte heute schon wegen der Feature List nicht fehlen) auf rund 260Mio Transistoren käme. Beide gingen vom NV43 relativ zum NV40 aus.? Wir gingen vom NV40 aus, und nehmen <250 an. 260 war nur meine persönliche Meinung als Obergrenze.

Außerdem nervt es mich, wieder mal im Forum zu lesen, was ich mündlich von mir gegeben habe.

robbitop
2005-03-13, 16:24:35
? Wir gingen vom NV40 aus, und nehmen <250 an. 260 war nur meine persönliche Meinung als Obergrenze.

Außerdem nervt es mich, wieder mal im Forum zu lesen, was ich mündlich von mir gegeben habe.

Nächstes Mal zitiere ich es wortwörtlich. Es sei denn, ich muss ein NDA unterzeichnen, bevor wir plaudern. :rolleyes:

quasar@home
2005-03-14, 19:20:51
? Wir gingen vom NV40 aus, und nehmen <250 an. 260 war nur meine persönliche Meinung als Obergrenze.

Außerdem nervt es mich, wieder mal im Forum zu lesen, was ich mündlich von mir gegeben habe.

Für einen 6-Quad-Chip bei ansonsten gleichen Features?

robbitop
2005-03-14, 19:28:54
@Quasar
würdest du dich bitte zu deiner Meldung äußern, dass laut NV 130nm lowk beim NV40 Nachfolger verwenden wird?
Ich zweifle nämlich dieses "laut NVIDIA" arg an.

quasar@home
2005-03-14, 19:56:11
Tu dir keinen Zwang an - aber basiert ATis High-End Chip nicht auch noch auf 0,13µ-lowK anstelle des wirtschaftlicheren 0,11µ-Prozesses?

robbitop
2005-03-14, 20:02:12
Tu dir keinen Zwang an - aber basiert ATis High-End Chip nicht auch noch auf 0,13µ-lowK anstelle des wirtschaftlicheren 0,11µ-Prozesses?

Es geht mir um deine Berichterstattung. Du schreibst "laut NVIDIA". NVIDIA gab nie eine solche Info raus, schon gar nicht an die Öffentlichkeit. ...Dein Statement dazu?

reunion
2005-03-14, 20:33:45
Es geht mir um deine Berichterstattung. Du schreibst "laut NVIDIA". NVIDIA gab nie eine solche Info raus, schon gar nicht an die Öffentlichkeit. ...Dein Statement dazu?

IMO verwechselst du was, das "laut nVidia" kam von gamezone (http://www.gamezoom.de/artikel/show/0,162843,1,10672.html) und nicht von ComputerBase (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/maerz/cebit05_nvidia_g70_ende_april/).

robbitop
2005-03-14, 20:36:55
args ok, mein Fehler. Aber auch im CB Artikel wird nicht darauf aufmerksam gemacht, dass das nur eine Spekulation des Autors ist. Das kommt als Faktum rüber. Sehr unfein IMO. Ein "unserer Meinung nach..." oder so, würde hier passen.

naref
2005-03-14, 20:46:42
Also wenn ich mir ansehe, welche News in welcher Reihenfolge gamezone die Tage veröffentlicht hat, dürfte deren G70-Info von Computerbase abgetippt sein. Denn irgendwie gleicht sich das alles 1:1 - nur gamezone ist immer etwas später dran.

robbitop
2005-03-14, 20:49:16
Welch wunderbare Redakteursarbeit :|

reunion
2005-03-15, 10:32:36
INQ:

Nvidia core G80 emerges (http://www.the-inquirer.net/?article=21827)

DrumDub
2005-03-15, 10:55:46
INQ:

Nvidia core G80 emerges (http://www.the-inquirer.net/?article=21827)

toll. wieder eine völlig sinnlose meldung vom inq... :|

Gaestle
2005-03-15, 11:38:54
Würde IMHO aber passen:

NV48 = G70 = GeForce 7xxx = Frühjajhrsresfresh = NV40 mit etwas mehr Takt (aber bloß bis zur GT ???)
NV47 = G80 = GF 8xxx = Herbstrefresh = breitere Architektur

grüße

seahawk
2005-03-15, 13:07:28
Also der Inq. überrascht mich immer wieder. Wenn man denkt noch dümmer geht nicht, dann steigern die sich immer wieder .

TheCounter
2005-03-15, 13:10:24
Ich denke eher an GeForce 6900 für den Refresh. GeForce 7xxx halte ich für sehr unwarscheinlich da es ja nur ein Refresh ist und keine neue Generation.

Adam D.
2005-03-15, 13:37:52
Ich denke eher an GeForce 6900 für den Refresh. GeForce 7xxx halte ich für sehr unwarscheinlich da es ja nur ein Refresh ist und keine neue Generation.
*Zustimm* Und mal sehen, ob wir auch 'ne 6950 sehen.

mrt@h
2005-03-15, 14:21:35
*Zustimm* Und mal sehen, ob wir auch 'ne 6950 sehen.


Wenn ATI genug druck macht wäre es möglich. ;)

Iwan
2005-03-15, 21:10:36
jap denk ich auch, nv wird den nv4x soweit verbreitern/hochtakten wie es sein muss um mit dem r520 einigermaßen mitzuhalten oder sogar schneller zu sein. falls ein 6900 schneller ist als ein R520 wird wohl kaum noch ein 6950 kommen, sondern nv wird sich auf die neue architektur konzentrieren.

r3ptil3
2005-03-15, 21:26:17
Würde IMHO aber passen:

NV48 = G70 = GeForce 7xxx = Frühjajhrsresfresh = NV40 mit etwas mehr Takt (aber bloß bis zur GT ???)
NV47 = G80 = GF 8xxx = Herbstrefresh = breitere Architektur

grüße

oh hättest du es ein wenig mitbekommen dan wüsstest du NV48 G70 geforce 6 (6900)
nv47? g80 geforce 7

Adam D.
2005-03-15, 21:31:42
Rechtschreibung und Satzzeichen @ Reptile? :redface:

NV48 = NV45 @ 512MB
G70 = Refresh vom NV40

r3ptil3
2005-03-15, 21:55:35
Rechtschreibung und Satzzeichen @ Reptile? :redface:

ich setze keinen grossen wert hier im forum auf satzzeichen sowie gross/kleinschreibung, vielleicht kann es sein das ich mal in einem satz einen buchstabe vergesse jedoch nicht weil ich nicht weis wie man es schreibt sondern weil ich es "zu"schnell schreibe.

Hauwech
2005-03-15, 22:02:04
INQ:

Nvidia core G80 emerges (http://www.the-inquirer.net/?article=21827)

DualCore? Geilomat, Inq ist ja wirklich gut informiert...

quasar@home
2005-03-16, 10:08:30
args ok, mein Fehler. Aber auch im CB Artikel wird nicht darauf aufmerksam gemacht, dass das nur eine Spekulation des Autors ist. Das kommt als Faktum rüber. Sehr unfein IMO. Ein "unserer Meinung nach..." oder so, würde hier passen.
Sorry für die lange Antwortszeit. Mir geht's dieser Tage nicht so gut und Montag/Dienstag musste ich viel arbeiten und bin direkt danach ins Bettchen gefallen.


Zu deiner "Frage":
Dazu kann/darf ich momentan leider nichts (mehr!) sagen. Ich hoffe, es später aufklären zu können/dürfen. Sprich mich einfach nochmal darauf an, wenn der nächste High-End Chip von nV offiziell vorgestellt worden ist.

Wer weiß, vielleicht handelt es sich alles ja bloß um ein Mißverständnis. ;)

robbitop
2005-03-16, 10:38:37
gute Besserung Quasar :)

reunion
2005-03-16, 10:59:05
Wer weiß, vielleicht handelt es sich alles ja bloß um ein Mißverständnis. ;)


Oder du hast aus irgendeinen Grund Informationen bekommen bevor du eine NDA unterzeichnen musstest. Als ahnungsloser Beobachter fragt man sich nämlich schon warum der angesprochene Artikel mit derartiger Sicherheit geschrieben wurde und jetzt plötzlich auf der Startseite verlinkt ist. ;)

Achja, natürlich auch von mir gute Besserung. =)

DrumDub
2005-03-16, 11:02:11
von mir auch, quasar. :)

die cebit scheint dieses jahr ja die reinste virenschleuder gewesen zu sein. leo hats ja auch erwischt...

aber genug des ot-gelabers. spätestens im april wissen wir mehr bezüglich des ominösen g70.

robbitop
2005-03-16, 11:05:59
ich vermute hier erstmal nur heiße Luft inkl Geheimniskrämerei (wie gesagt, selbst Wavey und Borsti bekamen neben Leo keine wirkliche Info von NV).

reunion
2005-03-16, 11:12:56
ich vermute hier erstmal nur heiße Luft inkl Geheimniskrämerei (wie gesagt, selbst Wavey und Borsti bekamen neben Leo keine wirkliche Info von NV).

Wäre sich Quasar über die Fakten nicht 100%ig sicher gewesen hätte er IMO niemals mit derartiger Sicherheit und ohne wenn und aber einen solchen Artikel verfasst.

Aber es ist sinnlos darüber jetzt zu spekulieren, wir werden es ohnehin bald wissen. :)

robbitop@FH
2005-03-16, 11:17:52
Wäre sich Quasar über die Fakten nicht 100%ig sicher gewesen hätte er IMO niemals mit derartiger Sicherheit und ohne wenn und aber einen solchen Artikel verfasst.

Aber es ist sinnlos darüber jetzt zu spekulieren, wir werden es ohnehin bald wissen. :)
Ja das wundert mich, da ich ihn als äußerst akkuraten Redakteur kenne.
Aber andererseits weiß ich, dass NV derzeit keine Infos rausrückt.
Vieleicht hat sich ja jemand bei NV vertan...

Gaestle
2005-03-16, 11:32:13
oh hättest du es ein wenig mitbekommen dan wüsstest du NV48 G70 geforce 6 (6900)
nv47? g80 geforce 7

Alle Spekulieren, ich auch. Niemand weiß etwas (außer die, die nix sagen dürfen).


Gute Besserung@Quasar

Grüße

The Guest
2005-03-16, 22:16:54
Alle Spekulieren, ich auch. Niemand weiß etwas (außer die, die nix sagen dürfen).


Gute Besserung@Quasar

Grüße

Manchmal wissen auch die nichts, die etwas wissen.....

Godmode
2005-04-19, 16:39:14
http://www.theinquirer.net/?article=22645

G70 Tapeout? ist das nicht a bissl spät? oder checkt es :cop:FUAD:cop: wieder mal nicht?

Botcruscher
2005-04-19, 16:49:38
http://www.theinquirer.net/?article=22645

G70 Tapeout? ist das nicht a bissl spät? oder checkt es :cop:FUAD:cop: wieder mal nicht?

Einfach nicht beachten. Wenn man sich selber etwas ausdenkt hat es meist den selben Wahrheitsgehalt wie FUAD.

reunion
2005-04-19, 17:10:58
http://www.theinquirer.net/?article=22645

G70 Tapeout? ist das nicht a bissl spät? oder checkt es :cop:FUAD:cop: wieder mal nicht?

Man sollte nicht nur die Überschrift lesen: ;)

"Nvidia tapes out G70 silicon: Head to head with R520 'Fudo'"

Botcruscher
2005-04-19, 17:15:56
Man sollte nicht nur die Überschrift lesen: ;)

"Nvidia tapes out G70 silicon: Head to head with R520 'Fudo'"

Ergiebt sich ja logischerweise aus dem angepeilten Verstellungszeitraum. Sorry das ist einfach wieder so eine Meldung ohne Inhalt. Das ist wie: "R520 supports WGF 1.0" :rolleyes:

seahawk
2005-04-19, 18:16:17
Wenn überhaupt ist nur der Hinweis auf das Shippingsate des R520 beachtenswert : Autumn 2005

ShadowXX
2005-04-19, 19:43:23
Wenn überhaupt ist nur der Hinweis auf das Shippingsate des R520 beachtenswert : Autumn 2005

Ich habe auch nicht damit gerechnet, das die Karte wesentlich früher kommt.

Mein Schätzung war immer, dass Sie so September/Oktober kommt.....der von allen vermutete "Vorsprung" (zeitlich gesehen) gegenüber nVidia ist wohl doch nicht vorhanden.

Allerdings weiss ich dann zum Teufel überhaupt nicht, warum Sie die Karte schon nächsten oder übernächsten Monat "vorstellen" wollen.....(ich weiss es schon, aber dieses Marketingzeug/gehabe/gehype hängt mir langsam zum Hals raus)

Irgendwann stellen Sie Karten 1-2 Jahre vor Veröffentlichung vor, um damit Leute vom Kauf des Konkurenzproduktes abzuhalten...

Gast
2005-04-19, 19:49:17
Ich habe auch nicht damit gerechnet, das die Karte wesentlich früher kommt.

Mein Schätzung war immer, dass Sie so September/Oktober kommt.....der von allen vermutete "Vorsprung" (zeitlich gesehen) gegenüber nVidia ist wohl doch nicht vorhanden.

Allerdings weiss ich dann zum Teufel überhaupt nicht, warum Sie die Karte schon nächsten oder übernächsten Monat "vorstellen" wollen.....(ich weiss es schon, aber dieses Marketingzeug/gehabe/gehype hängt mir langsam zum Hals raus)

Irgendwann stellen Sie Karten 1-2 Jahre vor Veröffentlichung vor, um damit Leute vom Kauf des Konkurenzproduktes abzuhalten...

also ein zeitlicher Vorsprung wird kaum vorhanden sein. Vielleicht 1-2 Monate. Das ist aber vernachlässigbar. In der Zwischenzeit kommt von Nvidia aber nochmal ein 0.11 Update des NV40.

nagus
2005-04-19, 20:00:24
http://www.theinquirer.net/?article=22645

G70 Tapeout? ist das nicht a bissl spät? oder checkt es :cop:FUAD:cop: wieder mal nicht?


... nur zur info: R520 hatte laut inquire anfang dezember das tape-out (welches auch immer;)

Gast
2005-04-19, 20:03:11
was machen die in der zeit vom tapeout bis zur vorstellung ,könnte die produktion nicht schon losgehn nachm tapeout

seahawk
2005-04-19, 20:19:22
was machen die in der zeit vom tapeout bis zur vorstellung ,könnte die produktion nicht schon losgehn nachm tapeout

Ein Tape-Out muss nicht zwangsläufig erfolgreich sein. Selbstlauffähiges Silicon kann evtl. nicht die erforderliche ntaktfrequenzen erreichen. Und dann muss man nachbessern.

Naja, eine zeitige Vorstellung des r520 wäre positiv, weil sich dann die Preise für die 6800GT/X800XL weiter nach unten bewegen und ich langsam über ein PC Update nachdenken muss.

ShadowXX
2005-04-19, 20:22:23
... nur zur info: R520 hatte laut inquire anfang dezember das tape-out (welches auch immer;)

Könnte es nicht sein, das das damals der r500 war und Sie das in den falschen Hals bekommen haben...

Gerade bei Meldungen über r500 & r520 wird oftmals was vermischt und gewürfelt.

Ein Tape-Out muss nicht zwangsläufig erfolgreich sein. Selbstlauffähiges Silicon kann evtl. nicht die erforderliche ntaktfrequenzen erreichen. Und dann muss man nachbessern.

Naja, eine zeitige Vorstellung des r520 wäre positiv, weil sich dann die Preise für die 6800GT/X800XL weiter nach unten bewegen und ich langsam über ein PC Update nachdenken muss.

Warum sollte die Preise runtergehen, wenn die Boardhersteller wissen, das es sowieso nix vor Herbst wird...
Ich sehe da nicht unbedingt einen Druck....

Gast
2005-04-19, 21:45:47
Könnte es nicht sein, das das damals der r500 war und Sie das in den falschen Hals bekommen haben...

Gerade bei Meldungen über r500 & r520 wird oftmals was vermischt und gewürfelt.

Der R520 musste bereits einige Male zurück zu TSMC. Dabei ist einiges an Zeit liegen geblieben.

ShadowXX
2005-04-19, 22:16:03
Der R520 musste bereits einige Male zurück zu TSMC. Dabei ist einiges an Zeit liegen geblieben.

Ist eigentlich ein nicht so gutes Zeichen, oder?

robbitop
2005-04-19, 22:37:15
Ist eigentlich ein nicht so gutes Zeichen, oder?
Völlig normal für einen so komplexen Chip und dazu ein neues Fertigungsverfahren.

deekey777
2005-04-20, 01:25:15
Ist der G70 nun der "Feind" der R520 oder nicht?

robbitop
2005-04-20, 08:02:04
so sieht es zumindist aus ;)

The_Invisible
2005-04-20, 08:42:38
wie kommen die überhaupt auf G70???

noch unlogischer gehts ja nicht

mfg

robbitop
2005-04-20, 08:45:06
wie kommen die überhaupt auf G70???

noch unlogischer gehts ja nicht

mfg
NV50 wurde verschoben. Also muss die Zahl ja <NV50 werden. Das klingt angesichts R5xx doch sehr mager. NV47 b.s.w. klingt nicht nach viel mehr Power. G70 hingegen hat doch was, oder?
So erkläre ich mir das zumindist.

Ailuros
2005-04-21, 02:43:12
Der R520 musste bereits einige Male zurück zu TSMC. Dabei ist einiges an Zeit liegen geblieben.

Shadows Spekulation macht aber nichtdestominder Sinn, da nach einfacher Logik ein Consolen-chip und dessen "deadline" wichtiger ist.

Jeder neue chip (umso mehr auf einem neuen fuer den GPU Markt, Herstellungsprozess) ist auesserst selten oder besser nie nach nur einem tape-out Marktreif. Ihr Ziel was die Frequenz betrifft ist ja auch nicht gerade konservativ, eher das Gegenteil.

NV50 wurde verschoben. Also muss die Zahl ja <NV50 werden. Das klingt angesichts R5xx doch sehr mager. NV47 b.s.w. klingt nicht nach viel mehr Power. G70 hingegen hat doch was, oder?
So erkläre ich mir das zumindist.

Falls Du mit der Verschiebung die Anpassungen der IHVs fuer LONGHORN meinen solltest, dann stimmt es auch.

robbitop
2005-04-21, 09:35:31
Nein ich ging davon aus, dass NV50 schon lange als WGF2 Design geplant war (die ungefähren Specs sollten schon lang genug draußen sein). Und da sich Longhorn verschob, machte es natürlich keinen Sinn, ein WGF2 Design zu präsentieren.

Gastޘ|
2005-04-24, 23:36:47
Die Kompressionstechnik 3Dc wurde mit ATIs Radeon X800-Grafikkarten eingeführt, nun wurde bekannt, dass auch NVIDIA beim Nachfolger der Geforce 6800 Serie auf diese Kompressionstechnik setzen wird.


Grund dafür sei die große Nachfrage seitens der Spieleentwickler, diese halten die 3Dc Technik für eine innovative Neuerung und möchten es auch bei Geforce-Grafikkarten nicht missen. NVIDIA kann diese Kompressionstechnik ohne Verabredungen mit ATI nutzen, da es sich dabei um einen offenen Standard handelt. Eine große Promotion-Kampagne für das Feature darf man allerdings nicht erwarten, schließlich würde NVIDIA damit einen Technologie-Rückstand eingestehen.

Wann die neuen Grafikkarten mit dem Codenmane G70 erscheinen werden, bleibt unterdessen ungeklärt. Auch über weitere Details sind bislang nur wage Spekulationen zu finden, die sich zudem häufig wiedersprechen.

http://www.tweakpc.de/?news_id=7532

deekey777
2005-04-24, 23:51:31
Der Inquirer hat irgendwas (logisch erscheinendes) in die Welt gesetzt, und alle schreiben ab...

http://www.theinq.com/?article=22734

mapel110
2005-04-24, 23:54:07
In a best-case scenario, if you have a 256MB card you should be able to use up to 1024MB of textures and this should increase the quality of your game tremendously.
:ulol:

Spasstiger
2005-04-25, 00:11:58
In a best-case scenario, if you have a 256MB card you should be able to use up to 1024MB of textures and this should increase the quality of your game tremendously.
:ulol:

;D So siehts aus. Gegen diese bestechende Logik kann man einfach nicht ankommen, typisch Inquirer halt.

SKYNET
2005-04-25, 00:52:49
Rechtschreibung und Satzzeichen @ Reptile? :redface:

NV48 = NV45 @ 512MB
G70 = Refresh vom NV40


NV40/45 kann schon bis zu 4GB adressieren...

dafür brauch man also kein refresh.

Xmas
2005-04-25, 01:00:08
Interessant, wie Inquirer es schafft zwei Zeilen Information mit 20 Zeilen Unsinn zu strecken.

NVidia unterstützt 3Dc übrigens schon eine ganze Weile per Treiberkonversion.

deekey777
2005-04-25, 01:13:17
Interessant, wie Inquirer es schafft zwei Zeilen Information mit 20 Zeilen Unsinn zu strecken.

Kann doch jeder Politiker.

NVidia unterstützt 3Dc übrigens schon eine ganze Weile per Treiberkonversion.

:confused:
Ich dachte, es wird in ein anderes Texturenformat(V8U8) "übersetzt".
(Ich bin Laie.)

mapel110
2005-04-25, 01:18:53
:confused:
Ich dachte, es wird in ein anderes Texturenformat(V8U8) "übersetzt".
(Ich bin Laie.)
Das meint xmas doch. In Hardware wird da noch nix unterstützt.

Ist das überhaupt mal richtig ausgetestet worden inwiefern dieser Nvidia-Hack etwas bringt(Bildqualität und Speed)?

Ailuros
2005-04-25, 05:23:36
Ist das überhaupt mal richtig ausgetestet worden inwiefern dieser Nvidia-Hack etwas bringt(Bildqualität und Speed)?

Einen Unterschied konnte ich bis jetzt nicht sehen.

Gegenfrage wieviel Leistungssteigerung bringt das Zeug eigentlich auf Radeons in bisherigen Spielen?

Gast
2005-04-25, 07:34:27
Einen Unterschied konnte ich bis jetzt nicht sehen.

Gegenfrage wieviel Leistungssteigerung bringt das Zeug eigentlich auf Radeons in bisherigen Spielen?

Leistungssteigerung kann es eigentlich nicht bringen da zum Entpacken die PS Einheiten bemüht werden müssen. Theoretisch sieht ein Spiel damit besser aus aber im Vergleich zu einer "non-3dc Version", natürlich nur wenn die PS Einheiten immer voll ausgelastet werden, müsste es ein bisschen langsamer sein imho.

Quasar
2005-04-25, 08:31:18
NV40/45 kann schon bis zu 4GB adressieren...

dafür brauch man also kein refresh.
Der nV40/45 kann auch einen PvP bieten, ebenso wie Tone-Mapping im RAMDAC. ;) Dafür bräucht's keine Refreshes, bei denen das gefixt/gestrichen wird. ;)

Ailuros
2005-04-25, 11:37:39
Leistungssteigerung kann es eigentlich nicht bringen da zum Entpacken die PS Einheiten bemüht werden müssen. Theoretisch sieht ein Spiel damit besser aus aber im Vergleich zu einer "non-3dc Version", natürlich nur wenn die PS Einheiten immer voll ausgelastet werden, müsste es ein bisschen langsamer sein imho.

Um ganz ehrlich zu sein so ganz scharf hab ich auch nicht alles beobachtet, aber zumindest in Far Cry konnte ich keine besondere IQ Unterschiede bis jetzt mit normal map Kompression entdecken. Falls es tatsaechlich so sein sollte, kann es auch durchaus an der Implementierung im spezifischen Spiel liegen.

ATI hat ja ein paar Bildchen von CroTeam's naechster engine benutzt wo man Unterschiede mit 3dc tatsaechlich sehen kann. Mal sehen wie das in Echtzeit aussieht, wenn das Spiel endlich veroeffentlicht wird.

Interessante Kleinigkeit oben ueber die ich mir nicht bewusst war. Werden denn eigentlich PS-Einheiten heutzutage ueberhaupt voll ausgelastet?

robbitop
2005-04-25, 11:45:51
Interessante Kleinigkeit oben ueber die ich mir nicht bewusst war. Werden denn eigentlich PS-Einheiten heutzutage ueberhaupt voll ausgelastet?

kommt natürlich auf das Spiel und die PS ALU's drauf an. Ich schätze mal, dass die große MUL Power des NV40 keinesfalls ausgelastet ist, sonst würde sich das in Spielen ggü R420 deutlich niederschlagen. R3xx/4xx ist meist sehr gut ausgelastet. Hat ja auch nur eine ALU.

mapel110
2005-04-25, 11:54:46
Um ganz ehrlich zu sein so ganz scharf hab ich auch nicht alles beobachtet, aber zumindest in Far Cry konnte ich keine besondere IQ Unterschiede bis jetzt mit normal map Kompression entdecken. Falls es tatsaechlich so sein sollte, kann es auch durchaus an der Implementierung im spezifischen Spiel liegen.

bei Farcry sollte es auch nur Speed bringen, keine zusätzliche Bildqualität.

DrumDub
2005-04-25, 12:31:22
bei Farcry sollte es auch nur Speed bringen, keine zusätzliche Bildqualität. hat es auch. hier nen paar werte: http://www.bit-tech.net/article/145/4

deekey777
2005-04-25, 12:56:34
Die NMC (Normal Map Compression) in Far Cry bringt auch einige visuelle Unterschiede mit sich - man muß nur wissen, wo. :biggrin:

DrumDub
2005-04-25, 14:27:34
Die NMC (Normal Map Compression) in Far Cry bringt auch einige visuelle Unterschiede mit sich - man muß nur wissen, wo. :biggrin: hmm... jetzt wo du es sagst. ich erinner mich da an so ne sache mir felsen...

Ailuros
2005-04-25, 18:02:27
Die NMC (Normal Map Compression) in Far Cry bringt auch einige visuelle Unterschiede mit sich - man muß nur wissen, wo. :biggrin:

Beispiel?

deekey777
2005-04-25, 19:00:56
Beispiel?

Ihr Ungläubigen!
Level Bunker:
Mit "NMC" (http://img110.exs.cx/img110/1016/farcry00067iq.jpg)

Ohne "NMC" (http://img110.exs.cx/img110/521/farcry00075te.jpg)


Okay, die Screenshots wurden mit meiner 9800 Pro gemacht, einmal mit \r_TexNormalMapCompressed 1 und dann 0.

Bisher ist diese Höhle der einzige Ort mit visuellen Unterschieden.

ShadowXX
2005-04-25, 19:27:11
Ihr Ungläubigen!
Level Bunker:
Mit "NMC" (http://img110.exs.cx/img110/1016/farcry00067iq.jpg)

Ohne "NMC" (http://img110.exs.cx/img110/521/farcry00075te.jpg)


Okay, die Screenshots wurden mit meiner 9800 Pro gemacht, einmal mit \r_NormalTexCompressed 1 und dann 0.

Bisher ist diese Höhle der einzige Ort mit visuellen Unterschieden.

Dürfte aber da es kein r4x0-Chip ist bei nV den gleichen Effekt geben...den auch eine 9800Pro hat ja kein 3Dc in HW.

deekey777
2005-04-25, 19:33:35
Dürfte aber da es kein r4x0-Chip ist bei nV den gleichen Effekt geben...den auch eine 9800Pro hat ja kein 3Dc in HW.

Die NV40 zeigt 100%ig den gleichen (Neben-)Effekt, da sie wie meine 9800 Pro auf V8U8 ausweicht. Bisher hat sich leider kein Besitzer einer X800 gemeldet, ein paar Screenshots zu machen.

DrumDub
2005-04-25, 20:12:17
Die NV40 zeigt 100%ig den gleichen (Neben-)Effekt, da sie wie meine 9800 Pro auf V8U8 ausweicht. Bisher hat sich leider kein Besitzer einer X800 gemeldet, ein paar Screenshots zu machen. haste nen savegame von der stelle?

deekey777
2005-04-25, 21:26:54
haste nen savegame von der stelle?

Wenn du das Spiel gespielt hast, dann hast du auch das nötige Savegame: Das ist das Savegame Nr. 3 bzw. 4; einfach laden und dann die Screenshots machen (die Tür anstarren); in die Konsole muß \r_TexNormalMapCompressed 1 bzw. 0 eingeben.

Amun-Re
2005-04-25, 23:19:40
Scho ninteressant momentan scheint zwischen ATI und NVIDIA sowas wie ein Technologietausch stattzufinden R520 bekommt SM3 und G70 bekommt 3DC zur Seite gestellt.

deekey777
2005-04-25, 23:22:00
Scho ninteressant momentan scheint zwischen ATI und NVIDIA sowas wie ein Technologietausch stattzufinden R520 bekommt SM3 und G70 bekommt 3DC zur Seite gestellt.

Ein Technologieaustausch ist es definitiv nicht. ;(

Ailuros
2005-04-26, 12:14:51
Ihr Ungläubigen!
Level Bunker:
Mit "NMC" (http://img110.exs.cx/img110/1016/farcry00067iq.jpg)

Ohne "NMC" (http://img110.exs.cx/img110/521/farcry00075te.jpg)


Okay, die Screenshots wurden mit meiner 9800 Pro gemacht, einmal mit \r_TexNormalMapCompressed 1 und dann 0.

Bisher ist diese Höhle der einzige Ort mit visuellen Unterschieden.

Es handelte sich nicht um Unglaeubigkeit; dank Dir schoen denn Du hast mir gerade einen Haufen Zeit erspart. Einen Grossteil des Spiels nochmal durchspielen mit beiden settings verbraucht eine Unmenge von Zeit.

Ailuros
2005-04-26, 12:16:20
Scho ninteressant momentan scheint zwischen ATI und NVIDIA sowas wie ein Technologietausch stattzufinden R520 bekommt SM3 und G70 bekommt 3DC zur Seite gestellt.

3dc ist AFAIK open source.

robbitop
2005-04-26, 12:21:19
SM3 auch ;)

Ailuros
2005-04-26, 12:38:30
SM3 auch ;)

LOL das SM3.0 in seinem Satz hab ich tatsaechlich uebersehen.... :D

SM3.0 ist Anteil von DX9.0 seit dessen Veroeffentlichung.

mapel110
2005-04-26, 13:56:37
SM3.0 ist Anteil von DX9.0 seit dessen Veroeffentlichung.
nicht "Anteil", sondern "Bestandteil". :)

Übrigens hier was zum Schmunzeln. Wenn man keine Infos hat, kann man sich ja mal welche machen. :D
http://www.heise.de/foren/go.shtml?read=1&msg_id=7874779&forum_id=7269

deekey777
2005-04-26, 14:03:31
nicht "Anteil", sondern "Bestandteil". :)

Übrigens hier was zum Schmunzeln. Wenn man keine Infos hat, kann man sich ja mal welche machen. :D
http://www.heise.de/foren/go.shtml?read=1&msg_id=7874779&forum_id=7269

Immer noch keine Antwort? Du hättest einfach auf eine News zum R520 warten sollen oder zumindest "Linux-Treiber von ATi" in den Titel reinschreiben sollen. ;(
Zurück zum Thema.

ShadowXX
2005-04-26, 14:41:54
nicht "Anteil", sondern "Bestandteil". :)

Übrigens hier was zum Schmunzeln. Wenn man keine Infos hat, kann man sich ja mal welche machen. :D
http://www.heise.de/foren/go.shtml?read=1&msg_id=7874779&forum_id=7269

Mal ganz blöd gesagt....wir wissen nicht wie ATI die SM3.0 im r520 realisiert.

Im extremsten aller extremfälle könnte es tatsächlich sowas wie ein HW-Assisted SW-Emulation sein.....

Glaub ich zwar nicht dran....aber bis zum Launch des r520 wissen wir nichts genaues.

Ailuros
2005-04-26, 14:56:37
nicht "Anteil", sondern "Bestandteil". :)

Übrigens hier was zum Schmunzeln. Wenn man keine Infos hat, kann man sich ja mal welche machen. :D
http://www.heise.de/foren/go.shtml?read=1&msg_id=7874779&forum_id=7269

Danke *notiert "bestandteil"* (ich werde wohl doch noch zu einem Lexikon greifen muessen am Ende)....

Zum newsblurb; ich glaube hier will jemand mit dem INQ konkurrieren. Bin nur neugierig ob jemand anders den Quark auch noch aufschnappt und weitertraegt LOL :D

Im extremsten aller extremfälle könnte es tatsächlich sowas wie ein HW-Assisted SW-Emulation sein.....

Da ich ein kluger Idiot bin, koenntest Du mir vielleicht "HW asssisted SW-emulation" erklaeren? :|

ShadowXX
2005-04-26, 15:02:31
Da ich ein kluger Idiot bin, koenntest Du mir vielleicht "HW asssisted SW-emulation" erklaeren? :|

Demi meinte mal das man es im Prinzip hinbekommen könnte SM3.0 per F-Buffer (zumindest den PS-Anteil AFAIR) "nachzubilden".

Dazu brauchts dann natürlich auch etwas mehr Treiber-Arbeit....deshalb HW-Assisted (F-Buffer) SW-Emulation (Treiber).

(Das gilt natürlich nur, wenn der F-Buffer wirklich HW ist.....es gab ja auch schon öfter Spekus darüber, das der F-Buffer auch nur eine Treibergeschichte ist)

War vielleicht nicht schön ausgedrückt.....Aber wie ich schon erwähnte glaube ich nicht an eine solche Lösung.

Ailuros
2005-04-26, 15:13:18
Demi meinte mal das man es im Prinzip hinbekommen könnte SM3.0 per F-Buffer (zumindest den PS-Anteil AFAIR) "nachzubilden".

Dazu brauchts dann natürlich auch etwas mehr Treiber-Arbeit....deshalb HW-Assisted (F-Buffer) SW-Emulation (Treiber).

(Das gilt natürlich nur, wenn der F-Buffer wirklich HW ist.....es gab ja auch schon öfter Spekus darüber, das der F-Buffer auch nur eine Treibergeschichte ist)

War vielleicht nicht schön ausgedrückt.....Aber wie ich schon erwähnte glaube ich nicht an eine solche Lösung.

Es wahr ja auch nur ein Scherz von mir ueber das merkwuerdige Oxymoron. Dass Du auf den F-buffer gezielt hast, hab ich mir schon gedacht.

Die Vorraussetzungen fuer SM3.0 sind Dir bekannt; wie stets mit einer "pfiffigen" Idee fuer vertex texturing dann? :rolleyes:

Demirug
2005-04-26, 15:17:36
Die Vorraussetzungen fuer SM3.0 sind Dir bekannt; wie stets mit einer "pfiffigen" Idee fuer vertex texturing dann? :rolleyes:

Geht ganz einfach.

<- muss mal prüfen ob das schon patentiert ist und wenn nicht schnelle eines einreichen um dann auf reiche Beute zu hoffen.

DrumDub
2005-04-26, 15:26:11
Übrigens hier was zum Schmunzeln. Wenn man keine Infos hat, kann man sich ja mal welche machen. :D
http://www.heise.de/foren/go.shtml?read=1&msg_id=7874779&forum_id=7269
:uconf3: :uban:

da werden die fanatiker bei heise aber bestimmt drauf anspringen. ;)

Gast
2005-04-26, 15:46:06
:uconf3: :uban:

da werden die fanatiker bei heise aber bestimmt drauf anspringen. ;)

Dieser Mappel ist doch auch hier tätig in Foren! Peinlich!

Schon ein gewagtes Wort, hoffentlich erinnert er sich später noch daran.

Ich schenke Ihm ein T-Shirt dafür, I am desperate!, steht Ihm gut!

robbitop
2005-04-26, 16:09:17
Es wahr ja auch nur ein Scherz von mir ueber das merkwuerdige Oxymoron. Dass Du auf den F-buffer gezielt hast, hab ich mir schon gedacht.

Die Vorraussetzungen fuer SM3.0 sind Dir bekannt; wie stets mit einer "pfiffigen" Idee fuer vertex texturing dann? :rolleyes:

ohne "h" bitte


@Demi
wie performant wäre eine solche Realisierung über den F-Buffer im Vergleich zum NV4x?

Ailuros
2005-04-26, 16:26:01
Geht ganz einfach.

<- muss mal prüfen ob das schon patentiert ist und wenn nicht schnelle eines einreichen um dann auf reiche Beute zu hoffen.

ROFL :D

Demirug
2005-04-26, 16:45:24
ohne "h" bitte


@Demi
wie performant wäre eine solche Realisierung über den F-Buffer im Vergleich zum NV4x?

Wie performant ist den der F-Buffer von ATI? Solange das nicht bekannt ist kann man auch nicht sagen wie performat eine PS3.0 Lösung darüber wäre.

robbitop
2005-04-26, 16:50:26
Wie performant ist den der F-Buffer von ATI? Solange das nicht bekannt ist kann man auch nicht sagen wie performat eine PS3.0 Lösung darüber wäre.
Hast du diesbezüglich nicht einmal eine ungefähre Vorstellung?

Godmode
2005-04-26, 21:09:54
Ist das nicht mehr aktuell dass der R520 nur einige SM3.0 Units drinnen hat und die anderen normale 2.0 sind?

DrumDub
2005-04-26, 21:21:11
Dürfte aber da es kein r4x0-Chip ist bei nV den gleichen Effekt geben...den auch eine 9800Pro hat ja kein 3Dc in HW. hier ne x800xl zum vergleich:
http://img56.echo.cx/img56/2441/farcry00586wj.th.jpg (http://img56.echo.cx/my.php?image=farcry00586wj.jpg)

noch ne andere stelle, wo man es sieht.

ohne 3dc bzw. nmc
http://img56.echo.cx/img56/6990/farcry00594mp.th.jpg (http://img56.echo.cx/my.php?image=farcry00594mp.jpg)

mit 3dc bzw. nmc
http://img260.echo.cx/img260/2116/farcry00601pw.th.jpg (http://img260.echo.cx/my.php?image=farcry00601pw.jpg)

robbitop
2005-04-26, 21:36:37
Ist das nicht mehr aktuell dass der R520 nur einige SM3.0 Units drinnen hat und die anderen normale 2.0 sind?
Wäre zu schwierig umzusetzen. War also eher Unfug.

Xmas
2005-04-26, 21:51:13
Irgendwas wurde da wohl auch an den Shaderberechnungen geändert, anders kann ich mir jedenfalls nicht erklären warum die Screenshots mit NMC deutlich tiefere Strukturien zu haben scheinen.

Ailuros
2005-04-27, 06:35:10
Wie performant ist den der F-Buffer von ATI? Solange das nicht bekannt ist kann man auch nicht sagen wie performat eine PS3.0 Lösung darüber wäre.

Stimmt. Von der anderen Seite aber - egal mit wem ich das Thema bei Leuten ausserhalb von ATI beruehrt habe - gab es stets ernsthafte Zweifel dass es rein theoretisch etwas bringen wuerde selbst fuer <SM3.0.

Natuerlich sind auch in diesem Fall nicht genug Kleinigkeiten bekannt, dass man zu absoluten Schlussvolgerungen kommen koennte, aber ich wuerde von einem erfahrenen engineer als Beispiel erwarten rein theoretisch einen Nutzen sehen zu koennen.

Ist der F-buffer eigentlich im Einsatz bei R4xx? Wenn ja wie verhaelt sich solche eine Architektur mit laengeren als heute benutzten Shader?

Gast
2005-04-27, 08:07:57
Mal ganz blöd gesagt....wir wissen nicht wie ATI die SM3.0 im r520 realisiert.

Im extremsten aller extremfälle könnte es tatsächlich sowas wie ein HW-Assisted SW-Emulation sein.....

Glaub ich zwar nicht dran....aber bis zum Launch des r520 wissen wir nichts genaues.

:-)

Mann keine SM3.0 per Treiberhack realisieren! Der Key-Unterschied zwischen SM2.0 und SM 3.0 sind die IF & WHEN Loops bei SM 3.0. Eine derartige Programmier-Möglichkeit supportet SM.20 nicht!
Dort rennt der Code von oben nach unten einfach durch! Da hierfür die HW entsprechend DESIGNT werden muss kann ein OPTIMIERTES SM2.0 Design das EINFACH nicht!

Weiterhin ist die Technologie für die Technologie für XBOX und R520 identisch, MS würde sich mit einer optimierten SM2.0/ SM3.0 Technologie, auch wenn es NICHt REALISIERBAR ist, bis auf die Knochen blamieren.

Gast
2005-04-27, 08:17:07
Nachtrag:

25.04.2005, 17:20 | Quelle: nVidia
nVidias G70 mit 3Dc
Der von ATI eingesetzte Standard setzt sich durch

ATI hat mit dem eigenen X800 Chipsatz eine Kompressionstechnologie für Texturen eingeführt, die scheinbar bei den Entwicklern moderner Computer-Spiele so gut angekommen ist, dass der Kontrahent nVidia in der kommenden Grafikchip-Generation ebenfalls auf diese Technologie setzen wird. nVidia benötigt für diese Unterstützung jedoch kein Lizenz von ATI, da es sich bei 3Dc um einen offenen Standard handelt. Wann der Grafikchip (Codename G70) erscheint, ist jedoch weiterhin unklar.

www.hartware.de

P4RH3li4
2005-04-27, 09:19:23
Ist doch nix neues...
Ausserdem wird 3dc doch schon von nVidia "unterstützt".
Wenn auch nicht in harter Ware, sondern per Treiber...

Wie performant ist den der F-Buffer von ATI? Solange das nicht bekannt ist kann man auch nicht sagen wie performat eine PS3.0 Lösung darüber wäre.
Dann muss halt jemand einen F-Buffer Benchmark schreiben. :D
F-Mark 05 ;D

Ich gehe aber mal davon aus das die am meisten genutzten Operationen wohl in Hardware laufen und wenn überaupt nur selten benutztes Zeugs über den F-Buffer geht.

ShadowXX
2005-04-27, 09:23:23
:-)

Mann keine SM3.0 per Treiberhack realisieren! Der Key-Unterschied zwischen SM2.0 und SM 3.0 sind die IF & WHEN Loops bei SM 3.0. Eine derartige Programmier-Möglichkeit supportet SM.20 nicht!
Dort rennt der Code von oben nach unten einfach durch! Da hierfür die HW entsprechend DESIGNT werden muss kann ein OPTIMIERTES SM2.0 Design das EINFACH nicht!

Weiterhin ist die Technologie für die Technologie für XBOX und R520 identisch, MS würde sich mit einer optimierten SM2.0/ SM3.0 Technologie, auch wenn es NICHt REALISIERBAR ist, bis auf die Knochen blamieren.

Du hast gesehen worauf ich mich bezog?? Falls nein, liess noch einmal den Rest des Threads....

Quasar
2005-04-27, 09:31:27
:-)

Mann keine SM3.0 per Treiberhack realisieren! Der Key-Unterschied zwischen SM2.0 und SM 3.0 sind die IF & WHEN Loops bei SM 3.0. Eine derartige Programmier-Möglichkeit supportet SM.20 nicht!
Dort rennt der Code von oben nach unten einfach durch! Da hierfür die HW entsprechend DESIGNT werden muss kann ein OPTIMIERTES SM2.0 Design das EINFACH nicht!

Weiterhin ist die Technologie für die Technologie für XBOX und R520 identisch, MS würde sich mit einer optimierten SM2.0/ SM3.0 Technologie, auch wenn es NICHt REALISIERBAR ist, bis auf die Knochen blamieren.
Solange die entsprechenden FP32-Formate zur Verfügung stehen, sollte sich der Rest im Treiber lösen lassen. Nicht sehr performant vermutlich, aber machbar.

DrumDub
2005-04-27, 10:26:06
Irgendwas wurde da wohl auch an den Shaderberechnungen geändert, anders kann ich mir jedenfalls nicht erklären warum die Screenshots mit NMC deutlich tiefere Strukturien zu haben scheinen. sicher? ich seh hauptsächlich mehr details. was mich aber auch stutzig macht, ist die stärkere schattierung mit nmc.

Demirug
2005-04-27, 10:39:52
Dann muss halt jemand einen F-Buffer Benchmark schreiben. :D
F-Mark 05 ;D

Ich gehe aber mal davon aus das die am meisten genutzten Operationen wohl in Hardware laufen und wenn überaupt nur selten benutztes Zeugs über den F-Buffer geht.

Es gibt bis heute keine öffentliche Dokumentation wie man den F-Buffer überhaupt benutzt.

DrumDub
2005-04-27, 10:41:23
Es gibt bis heute keine öffentliche Dokumentation wie man den F-Buffer überhaupt benutzt. fall es ihn überhuapt gibt... und wenn, dann ists ja nur ne opengl-geschichte.

seahawk
2005-04-27, 10:46:23
Irgendwas wurde da wohl auch an den Shaderberechnungen geändert, anders kann ich mir jedenfalls nicht erklären warum die Screenshots mit NMC deutlich tiefere Strukturien zu haben scheinen.

Sieht fast wie mehr Kontrast aus.

DrumDub
2005-04-27, 11:10:59
Sieht fast wie mehr Kontrast aus. habe aber wirklich nur in der console \r_texnormalmapcompressed 0 bzw. 1 eingegeben. das ist der einzige unterschied zwischen beiden screenshots.

deekey777
2005-04-27, 12:57:23
Sieht fast wie mehr Kontrast aus.

Nein, bestimmt nicht. :)

Ailuros
2005-04-27, 13:17:08
Es gibt bis heute keine öffentliche Dokumentation wie man den F-Buffer überhaupt benutzt.

Ich will hoffen dass das "F" nichts mit Fudo zu tun hat :D (alberner Scherz ich weiss...)

stav0815
2005-04-27, 13:25:18
Ich will hoffen dass das "F" nichts mit Fudo zu tun hat :D (alberner Scherz ich weiss...)
[Verständnisfrage]
Fudo = :cop: Fuad :cop: ?

Gast
2005-04-27, 13:34:02
[Verständnisfrage]
Fudo = :cop: Fuad :cop: ?


nein

Demirug
2005-04-27, 13:36:35
Ich will hoffen dass das "F" nichts mit Fudo zu tun hat :D (alberner Scherz ich weiss...)

F steht für Fragment. Der F-Buffer ist ja auch keine Erfindung von ATI.

deekey777
2005-04-27, 14:38:03
[Verständnisfrage]
Fudo = :cop: Fuad :cop: ?

Fudo ist eine weitere Form von Fuad, hat Fuad erklärt*. Darum freut er sich so, daß der Codename für den R520 Fudo sein soll. Dagegen soll die Platine für den R520 "Raptor" sein.
http://www.theinq.com/?article=17622

*Wohl ähnlich wie im russischen Raum, wo zB für Alexander mehrere "Abwandlungen" wie Sascha oder Schura (!) gibt.

BeCreative
2005-04-27, 22:26:48
Na hoffentlich kommt der auch bald, hab mich entschloßen das Geld nicht wieder für eine 6800GT/U auszugeben sondern zu warten..

robbitop
2005-04-27, 23:39:35
Na hoffentlich kommt der auch bald, hab mich entschloßen das Geld nicht wieder für eine 6800GT/U auszugeben sondern zu warten..
Viel Spaß, die Dinger werden frühestens im Frühherbst verfügbar sein.
z.Z. kostet eine 6800LE (gehen soziemlich immer auf mind 12Pipes) 150EUR genau wie eine 6600GT. Eine 6800GT 256MB kostet 300EUR genau wie die X800XL. Preis/Leistung stimmt und so viel schneller werden die zukünftigen Karten mangels Bandbreite auch nicht sein.

Gast
2005-04-27, 23:46:49
nicht viel schneller ? hm also die ati´s werden um einiges schneller xD

der r520 wird mindestens so einen sprung machen wie die 9800pro -> x800pro und das ist in farcry z.b schonmal das doppelte

robbitop
2005-04-27, 23:52:05
nicht viel schneller ? hm also die ati´s werden um einiges schneller xD

der r520 wird mindestens so einen sprung machen wie die 9800pro -> x800pro und das ist in farcry z.b schonmal das doppelte
Wenn die Bandbreite nicht da ist, nützt einem die größte Rohperformance gar nichts, da die Farbwerte und Tiefenwerte in den Speicher müssen und auch Texturen gesampled werden müssen. Dann dreht der Chip Däumchen. Verfügbar ist gerade mal Speicher, der 40% mehr Bandbreite bringt. Und schon die X800XT PE ist am Bandbreitenlimit.
Wir hatten gerade einen >100% Sprung. Das kommt eigentlich nur alle 2 Jahre vor. Für etwas Ähnliches bräuchte man schon ein 512 Bit DDR Interface, dass derzeit zu teuer wäre, um markttauglich zu sein.

Gast
2005-04-28, 00:05:22
hm du machst uns ja keine hoffnung auf einen tollen chip,grad der r520 sollte endlich wieder eine neuentwicklung sein

Ailuros
2005-04-28, 00:18:26
*kopfschuettel* ich sagte ja dass es ein Scherz ist....

z.Z. kostet eine 6800LE (gehen soziemlich immer auf mind 12Pipes) 150EUR genau wie eine 6600GT. Eine 6800GT 256MB kostet 300EUR genau wie die X800XL. Preis/Leistung stimmt und so viel schneller werden die zukünftigen Karten mangels Bandbreite auch nicht sein.

Von massiven Leistungssteigerungen war nie die Rede, aber zu behaupten dass eine 6800GT oder sogar 6800LE nicht allzu weit von einer R520 entfernt sein werden ist schon ziemlich uebertrieben.

Kommt ganz drauf an wie man die Relativierung versteht und man sollte wohl eher R420/480 GPUs dafuer in Betracht nehmen; fuer SM3.0 eventuell dann eben 6800Ultra, aber mit schaetzungsweise ~60% hoeherer Frequenz, wird es schon so manche Stellen geben wo sich dieser Vorsprung wohl auch ausspielen wird.


Wenn die Bandbreite nicht da ist, nützt einem die größte Rohperformance gar nichts, da die Farbwerte und Tiefenwerte in den Speicher müssen und auch Texturen gesampled werden müssen. Dann dreht der Chip Däumchen. Verfügbar ist gerade mal Speicher, der 40% mehr Bandbreite bringt. Und schon die X800XT PE ist am Bandbreitenlimit.
Wir hatten gerade einen >100% Sprung. Das kommt eigentlich nur alle 2 Jahre vor. Für etwas Ähnliches bräuchte man schon ein 512 Bit DDR Interface, dass derzeit zu teuer wäre, um markttauglich zu sein.

Mit ~700MHz GDDR3 bleibt das Verhaeltnis zwischen Fuellrate und Bandbreite etwa auf gleichem Niveau fuer 4 quads @=/>650MHz.

Im Durchschnitt erwarte ich ehrlich gesagt auch nicht unbedingt mehr als ~30% im Vergleich zu R480 in heutigen Spielen. Im Vergleich aber zu chips die nur die Haelfte der Frequenz eines R520 haben oder noch schlimmer mit weniger quads ausgeruestet sind, wuerde ich den letzteren nicht so stark unterschaetzen.

Uebrigens ganz so nebenbei ohne Uebertaktung bringt Dir das freischalten eines quads auf der LE ungefaehr 10%. Spielbarer wird auf jeden Fall ein schwer spielbares Spiel nun auch wieder nicht mit einer so kleinen Steigerung.

Ailuros
2005-04-28, 00:20:34
hm du machst uns ja keine hoffnung auf einen tollen chip,grad der r520 sollte endlich wieder eine neuentwicklung sein

Definier "Neuentwicklung".

Gast
2005-04-28, 00:28:41
ihr denkt also es gibt nur ein paar pipes mehr,shader 3.0 rein,mehr takt das wars.....

mapel110
2005-04-28, 00:32:18
ihr denkt also es gibt nur ein paar pipes mehr,shader 3.0 rein,mehr takt das wars.....
Das reicht doch, wobei es beim R520 noch nichtmal nach mehr Pipes riecht, sondern nur mehr Takt und wohl effizientere Pipe. :)

Coda
2005-04-28, 00:32:35
"nur Shader 3.0" ist halt einfacher gesagt als getan :rolleyes:

Botcruscher
2005-04-28, 00:33:05
ihr denkt also es gibt nur ein paar pipes mehr,shader 3.0 rein,mehr takt das wars.....

Was soll sich sonst ändern?

robbitop
2005-04-28, 08:57:39
aber zu behaupten dass eine 6800GT oder sogar 6800LE nicht allzu weit von einer R520 entfernt sein werden ist schon ziemlich uebertrieben.

...

Kommt ganz drauf an wie man die Relativierung versteht und man sollte wohl eher R420/480 GPUs dafuer in Betracht nehmen; fuer SM3.0 eventuell dann eben 6800Ultra, aber mit schaetzungsweise ~60% hoeherer Frequenz, wird es schon so manche Stellen geben wo sich dieser Vorsprung wohl auch ausspielen wird.



1. Vorsicht. Das habe ich nicht so gesagt. Ich sagte nur, dass diese Produkte für ihr Geld eine adäquate Leistung bringen.

2.up to 60% ist noch nicht viel. Aber ACK.



hm du machst uns ja keine hoffnung auf einen tollen chip,grad der r520 sollte endlich wieder eine neuentwicklung sein

R520 wird höchstwarscheinlich ein aufgebohrter R420, welcher im Wesentlichen nur ein duplizierter R300 ist (welcher widerum nur ein aufgebohrter R200 ist). R400-R500-R600 sind schon eher das was du suchst.
Eine Neuentwicklung muss aus Performance Sicht nicht immer gut sein. Man sieht an NVIDIA's modernen Designs, dass gleiche Leistung deutlich mehr Transistoren kostet. Und schnell ist R420 ohne Frage.

Hauwech
2005-04-28, 11:16:45
1. Vorsicht. Das habe ich nicht so gesagt. Ich sagte nur, dass diese Produkte für ihr Geld eine adäquate Leistung bringen.

2.up to 60% ist noch nicht viel. Aber ACK.



R520 wird höchstwarscheinlich ein aufgebohrter R420, welcher im Wesentlichen nur ein duplizierter R300 ist (welcher widerum nur ein aufgebohrter R200 ist). R400-R500-R600 sind schon eher das was du suchst.
Eine Neuentwicklung muss aus Performance Sicht nicht immer gut sein. Man sieht an NVIDIA's modernen Designs, dass gleiche Leistung deutlich mehr Transistoren kostet. Und schnell ist R420 ohne Frage.

Hä? Kannst du mir den Satz mal bitte erklären?

Man sieht an NVIDIA's modernen Designs, dass gleiche Leistung deutlich mehr Transistoren kostet.

Gast
2005-04-28, 11:31:53
nicht viel schneller ? hm also die ati´s werden um einiges schneller xD

der r520 wird mindestens so einen sprung machen wie die 9800pro -> x800pro und das ist in farcry z.b schonmal das doppelte

in grakalimitierten szenen war der sprung von r300 auf r420 real mehr als 100% mehrleistung, wie willst du das 1 jahr später wieder schaffen?

ich gehe von max. 50% realer mehrleistung aus.

Hä? Kannst du mir den Satz mal bitte erklären?

Man sieht an NVIDIA's modernen Designs, dass gleiche Leistung deutlich mehr Transistoren kostet.

naja man sieht ja an nv40 vs r420 dass nvidia deutlich mehr transistoren hat und trotzdem meistens gerade mal die gleiche leistung, bei den absoluten topmodellen eher etwas geringere leistung bringt. dass der nv40 deutlich moderner ist als sein ati-pendant ist auch klar ;)

Gast
2005-04-28, 11:59:43
1. Vorsicht. Das habe ich nicht so gesagt. Ich sagte nur, dass diese Produkte für ihr Geld eine adäquate Leistung bringen.

Momentan ja; aber mit jeder neuen Produkt-familie die erscheint aendert sich auch die Relativierung des Preis-/Leistungs-Verhaeltnisses. G70 wird wohl nicht nur ein ultra high end Modell sein oder? Die "kleinen" 6800 werden dann wahrscheinlich entweder ersetzt mit schnelleren Modellen oder werden noch etwas billiger (die LE wird wohl ganz verschwinden denke ich).

2.up to 60% ist noch nicht viel. Aber ACK.

Hara sagte ja selber dass ihr Fruehlings-refresh nur "ein bisschen schneller" sein wird. Die Geruechte reden von =/>240M Transistoren und manche Optimisten sogar von 550MHz (was mir aber als viel zu viel klingt).

Nehme ich ~430MHz mit 6 quads an, ist der Unterschied zur 6800U in etwa gleich was die Fuellrate betrifft.

Wenn nicht besonders "viel" von ATI kommt, erwarte ich auch keine massiven Unterschiede von NVIDIA. Ein bisschen Luftraum fuer die WGF2.0 chips sollte es wohl doch noch geben fuer beide; denn ich will bezweifeln dass die ersten chips mit was anderem als low-k 90nm hergestellt werden.



R520 wird höchstwarscheinlich ein aufgebohrter R420, welcher im Wesentlichen nur ein duplizierter R300 ist (welcher widerum nur ein aufgebohrter R200 ist). R400-R500-R600 sind schon eher das was du suchst.
Eine Neuentwicklung muss aus Performance Sicht nicht immer gut sein. Man sieht an NVIDIA's modernen Designs, dass gleiche Leistung deutlich mehr Transistoren kostet. Und schnell ist R420 ohne Frage.

Es ist aeusserst selten dass ein IHV eine Architektur von "0" auf entwickelt; ist alles extrem relativ.

R300 war aber trotz allem im Vergleich zu R200 eine radikalere Aenderung als NV3x zu NV2x war; und man kann es auch hauptsaechlich auch an der Anzahl der HW-bugs des R200 bemerken.

Der Ur-R400 wurde uebrigens ueber den heutigen R5xx/6xx aufgespaltet.

Was jetzt die Transistoren-Anzahl des NV40 angeht, verstehe ich den Satz auch nicht ganz; sie haetten sich auch den Video-Prozessor sparen koennen und jegliches relevantes Zeug einfach durch die Shader schleusen. Erstens war die Vorstellung von Pure-Video nicht unbedingt erfolgreich und zweitens meckern so manche Verbraucher ueber die Unkosten des decoders und dazu gerechtfertigt. Wenn jemand >300-400 euro auf den Ladentisch legt sind die extra 20$ (?) fuer die zusaetzliche SW schon eine Zumutung.

Ailuros
2005-04-28, 12:01:31
^^^^ Hab vergessen mich einzuloggen :(

Ailuros
2005-04-28, 12:04:56
naja man sieht ja an nv40 vs r420 dass nvidia deutlich mehr transistoren hat und trotzdem meistens gerade mal die gleiche leistung, bei den absoluten topmodellen eher etwas geringere leistung bringt. dass der nv40 deutlich moderner ist als sein ati-pendant ist auch klar ;)

Eben SM3.0 + video prozessor (wieviele Transistoren der letztere jetzt verbraucht hat weiss ich zwar nicht, aber von den whitepapers die Pure Video analysieren, klingt der Aufwand auch nicht gerade als gering).

mapel110
2005-04-28, 12:08:13
R300 war aber trotz allem im Vergleich zu R200 eine radikalere Aenderung als NV3x zu NV2x war; und man kann es auch hauptsaechlich auch an der Anzahl der HW-bugs des R200 bemerken.

Da hab ich hier von unseren Gurus aber mehrfach das komplette Gegenteil gehört(gelesen).



Wenn jemand >300-400 euro auf den Ladentisch legt sind die extra 20$ (?) fuer die zusaetzliche SW schon eine Zumutung.
Ironisch gemeint?!

Gaestle
2005-04-28, 12:29:09
Ironisch gemeint?!


Ich glaube nicht. Und das IMHO zurecht. Ich find's auch mIst.

Grüße..

Ailuros
2005-04-28, 12:34:12
In den meisten Faellen behalten bei der Entwicklung einer neuen Architektur die IHVs umso einige Bestandteile der vorigen Generation. Man hat zwar einige Bestandteile vom R200 uebertragen, aber man kann hier leichter von fundamentalen Aenderungen reden als bei anderen Vergleichen.

Ironisch gemeint?!

Keine Ironie. Jegliche extra-Summe fuer SW fuer eine teure high-end Karte ist eine Zumutung. Ich kann zwar verstehen dass die Unzahl der Lizenzen fuer Pure Video NVIDIA ganz heftig gekostet haben, aber entschuldige der Verbraucher hat erstmal fuer die Hardware dick bezahlt.

Wie wuerde das Publikum reagieren wenn man 500 euro fuer eine Graka blechen muesste und nochmal X Summe fuer den Treiber?

Die fortschrittlichen Features von Pure Video ohne den decoder sind fuer den Verbraucher nicht erreichbar.

robbitop
2005-04-28, 13:28:32
Hä? Kannst du mir den Satz mal bitte erklären?

Man sieht an NVIDIA's modernen Designs, dass gleiche Leistung deutlich mehr Transistoren kostet.

1. welchen Satz meinst du?
2. das ist die gleiche Aussage nur mit anderen Termen


Momentan ja; aber mit jeder neuen Produkt-familie die erscheint aendert sich auch die Relativierung des Preis-/Leistungs-Verhaeltnisses. G70 wird wohl nicht nur ein ultra high end Modell sein oder? Die "kleinen" 6800 werden dann wahrscheinlich entweder ersetzt mit schnelleren Modellen oder werden noch etwas billiger (die LE wird wohl ganz verschwinden denke ich).


Man kann auch ewig auf immer bessere Hardware warten. :|
Kaufen kann man ohne schlechtes Gewissen immer. Es wird immer etwas Besseres geben. Es geht um das Hier und Jetzt. Und genau da ist die Leistung da. Und das wird sie sicher in einem halben Jahr immer noch sein.


R300 war aber trotz allem im Vergleich zu R200 eine radikalere Aenderung als NV3x zu NV2x war; und man kann es auch hauptsaechlich auch an der Anzahl der HW-bugs des R200 bemerken.
Das glaube ich allerdings nicht. Von NV2x auf NV3x ist man auf eine VLIW Architektur umgesprungen und durfte große Teile der Pipeline, den Geometrieteil und vA die ALU's komplett neu entwerfen. Bis auf die Regcombiner im NV30 und ein paar anderen Dingen blieb wohl nicht mehr viel übrig. NV30 war ein sehr ambitioniertes Design, das an verschiedensten Sachen "scheiterte" (u.A. an der technischen Machbarkeit, an DX9 und am R300 *gg*).
Beim R200 -> R300 konnten große Teile der Pipeline einfach nur geändert werden. Die Architektur war darauf hinaus entwickelt worden, auf FP umgestellt zu werden. Klar musste man viel überarbeiten um blurbs und bugs zu fixen. Aber sogar das Trisetup ist in etwa das gleiche geblieben. Das gilt auch für den Geometrieteil.


Was jetzt die Transistoren-Anzahl des NV40 angeht, verstehe ich den Satz auch nicht ganz; sie haetten sich auch den Video-Prozessor sparen koennen und jegliches relevantes Zeug einfach durch die Shader schleusen.

Der VP macht AFAIK gar nicht mal soviel aus. Das ist einfach eine ALU mit 10 Stufen. Nichts Besonderes. Bei ähnlichen Specs verbrät NV40 ~38% mehr Transistoren. Die meisten davon gingen sicher für den Pixelteil drauf (FP16 Filterun/Blending/ dynamic flow controll/ dynamic branching/looping).

Hauwech
2005-04-28, 16:40:43
Eben jenen Satz: Man sieht an NVIDIA's modernen Designs, dass gleiche Leistung deutlich mehr Transistoren kostet.

Ailuros
2005-04-28, 16:46:18
Man kann auch ewig auf immer bessere Hardware warten. :|
Kaufen kann man ohne schlechtes Gewissen immer. Es wird immer etwas Besseres geben. Es geht um das Hier und Jetzt. Und genau da ist die Leistung da. Und das wird sie sicher in einem halben Jahr immer noch sein.

Ist auch relativ zum Zeitabstand; je kleiner der Abstand zu einer Veroeffentlichung desto mehr Sinn macht es vielleicht doch ein bisschen zu warten. Ich rede auf keinem Fall von einem Halbjahr.


Das glaube ich allerdings nicht. Von NV2x auf NV3x ist man auf eine VLIW Architektur umgesprungen und durfte große Teile der Pipeline, den Geometrieteil und vA die ALU's komplett neu entwerfen. Bis auf die Regcombiner im NV30 und ein paar anderen Dingen blieb wohl nicht mehr viel übrig.

Was heisst VLIW eigentlich bei Dir?

The NV3x shader core was a fully original design, created to be good at floating-point pixel shading. The NV4x core is the second generation of that design, optimized for greater parallelism and throughput. Terms like VLIW describe older, simpler architectures and don't really apply too well to the kind of processors that we build now.

The shader cores on NV3x and NV4x process groups of pixels, and multiple channels of data per pixel, as in red, green, blue, and alpha, not to mention Z and stencil. So, is it scalar? Certainly, not. Is it vector? Yes, in a way, but not purely vector—all of the data processed is not a single vector. Each pixel is a vector, but multiple pixels, and multiple groups of pixels, can be processed differently. Also, for each cycle, in each pixel pipeline, multiple operations can happen in parallel—plus texture and special math operations. We talked a bit about this at Editors' Day for the GeForce 6800, and there's not too much more we're willing to reveal at this point.

http://www.extremetech.com/article2/0,1558,1744808,00.asp

Dass ich Kirk's Ausschnitt benutze unterstuetzt zwar meinen Punkt ueberhaupt nicht, aber so "original" und von Grund auf war der NV30 nun auch wieder nicht. Stets IMHO.



NV30 war ein sehr ambitioniertes Design, das an verschiedensten Sachen "scheiterte" (u.A. an der technischen Machbarkeit, an DX9 und am R300 *gg*).

Der originale "NV30" schon. Nur war dieser teilweise was der Ur-R400 fuer ATI war.

Beim R200 -> R300 konnten große Teile der Pipeline einfach nur geändert werden. Die Architektur war darauf hinaus entwickelt worden, auf FP umgestellt zu werden. Klar musste man viel überarbeiten um blurbs und bugs zu fixen. Aber sogar das Trisetup ist in etwa das gleiche geblieben. Das gilt auch für den Geometrieteil.

Ich notiere mal "grosse Teile" und "einfach" und erwaehne nochmal die HW-bugs.


Der VP macht AFAIK gar nicht mal soviel aus. Das ist einfach eine ALU mit 10 Stufen. Nichts Besonderes. Bei ähnlichen Specs verbrät NV40 ~38% mehr Transistoren. Die meisten davon gingen sicher für den Pixelteil drauf (FP16 Filterun/Blending/ dynamic flow controll/ dynamic branching/looping).

Natuerlich ging der Grossteil in den Pixel-Bereich; was anderes hab ich gar nicht behauptet.

Da zwei Algorithmen auf dem Prozessor laufen (PVP, MME), wuerde ich das Ganze nicht so radikal unterschaetzen.

***edit: uebrigens ganz so nebenbei ist PureVideo2 auf dem Weg....

robbitop
2005-04-28, 17:03:02
Eben jenen Satz: Man sieht an NVIDIA's modernen Designs, dass gleiche Leistung deutlich mehr Transistoren kostet.
NV40: 220Mio Transistoren
R420: 160Mio Transistoren


@Ailuros

Ich kann dir empfehlen, den CineFX Artikel von Demirug zu lesen.

Das Zeug was du zitiert hast, ist allgemeines, nichtssagendes Gewäsch. Kirk beherrscht das ganz gut ;)

Demirug
2005-04-28, 18:09:09
robbitop, im Prinzip sind alle nVidia Chips VLIW Chips. Das wurde nicht erst mit dem NV30 eingeführt. Beim NV40 kommt jedoch die besonderheit hinzu das der Chip das VLIW zur Laufzeit zum Teil selbst zusammensetzt.

Allerdings kann man das ganze auch nicht zu 100% mit dem was man im allgemeinen als VLIW Prozessor versteht gleichsetzten. Das kommt daher das auch elemente eines Vektorprocessors zu finden sind.

stav0815
2005-04-28, 18:47:54
Eben jenen Satz: Man sieht an NVIDIA's modernen Designs, dass gleiche Leistung deutlich mehr Transistoren kostet.
achja, lass mal die Teile weg die zum SM3.0 gehören und dann den Videoprocessor, dann sind wir schätzungsweise bei ca. 170-180Mio Transistoren. So viel mehr is das nich, wenn man bedenkt dass ATi's R420 ein paar dinge fehlen.

robbitop
2005-04-28, 19:54:32
robbitop, im Prinzip sind alle nVidia Chips VLIW Chips. Das wurde nicht erst mit dem NV30 eingeführt. Beim NV40 kommt jedoch die besonderheit hinzu das der Chip das VLIW zur Laufzeit zum Teil selbst zusammensetzt.

Allerdings kann man das ganze auch nicht zu 100% mit dem was man im allgemeinen als VLIW Prozessor versteht gleichsetzten. Das kommt daher das auch elemente eines Vektorprocessors zu finden sind.

Naja beim NV3x wurde aber ein Haufen Kontrollogik gespart. Dafür brauchte man dann entsprechend gute Compiler.
btw: im CineFX Artikel stand IIRC das VLIW im bezug auf den NV3x.

Demirug
2005-04-28, 20:14:12
Naja beim NV3x wurde aber ein Haufen Kontrollogik gespart. Dafür brauchte man dann entsprechend gute Compiler.
btw: im CineFX Artikel stand IIRC das VLIW im bezug auf den NV3x.

Welche Kontrollogik soll den gespart worden sein? Bei GPUs macht es sowieso nur begrenzt Sinn Schaltkreise für Instruction reordering einzusetzten.

Natürlich steht im CineFX Artikel VLIW aber dort steht nicht das dies nun etwas neues beim NV30 wäre.

Im Prinzip hatt ja schon ein einzelnener RegComb ein VLIW um in zu steuern.

ShadowXX
2005-04-28, 20:25:51
achja, lass mal die Teile weg die zum SM3.0 gehören und dann den Videoprocessor, dann sind wir schätzungsweise bei ca. 170-180Mio Transistoren. So viel mehr is das nich, wenn man bedenkt dass ATi's R420 ein paar dinge fehlen.

Diese "Sachen" die du weglassen willst (ausser der VP) gehören aber nun mal zu dem "modernen Design".

SKYNET
2005-04-28, 21:07:39
in grakalimitierten szenen war der sprung von r300 auf r420 real mehr als 100% mehrleistung, wie willst du das 1 jahr später wieder schaffen?

ich gehe von max. 50% realer mehrleistung aus.



naja man sieht ja an nv40 vs r420 dass nvidia deutlich mehr transistoren hat und trotzdem meistens gerade mal die gleiche leistung, bei den absoluten topmodellen eher etwas geringere leistung bringt. dass der nv40 deutlich moderner ist als sein ati-pendant ist auch klar ;)


dafür hat NV aber auch DEUTLICH weniger takt und theoretische füllrate.
NV hat einfach das deutlich effektivere chipdesign, sieht man ja auch dadrann das ne 6600GT ne 9800XT verbrutzelt, trotz magerer 128bit anbindung.

Gast
2005-04-28, 21:08:45
die 9800 xt hatt auch 128 bitt

mapel110
2005-04-28, 21:11:23
die 9800 xt hatt auch 128 bitt
Sie hat ein 256bit Speicherinterface.

SKYNET
2005-04-28, 21:13:25
NV40: 220Mio Transistoren
R420: 160Mio Transistoren


@Ailuros

Ich kann dir empfehlen, den CineFX Artikel von Demirug zu lesen.

Das Zeug was du zitiert hast, ist allgemeines, nichtssagendes Gewäsch. Kirk beherrscht das ganz gut ;)


NV45 fillrate: 6800M
R420 fillrate: 8320M

aber die leistung verpufft im nix, weil ineffektives chipdesign.

SKYNET
2005-04-28, 21:15:41
die 9800 xt hatt auch 128 bitt du deeppp



dazu sage ich nur:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2969884&postcount=20


und hat 256bit. :P

Gast
2005-04-28, 21:15:48
die 9800 xt hatt auch 128 bitt

depp ist nicht nett, und eine 9800xt hat 256bit zur speicheranbindung (weshalb sie mit fsaa auch eine 6600GT schlagen kann)

SKYNET
2005-04-28, 21:18:59
depp ist nicht nett, und eine 9800xt hat 256bit zur speicheranbindung (weshalb sie mit fsaa auch eine 6600GT schlagen kann)


AA hat nix mit der speicheranbindung zutun, sondern mit der füllrate.

was du meinst ist AF, das brauch bandbreite.


oder, verdrehe ich das grade ? :|
wenn ja, möge man mich bitte korrigieren. :rolleyes:

und selbst in 1600*1200 4xAA/8xAF ist die 6600GT meistens schneller... sogar in FC. :eek:

mapel110
2005-04-28, 21:20:36
oder, verdrehe ich das grade ? :|
wenn ja, möge man mich bitte korrigieren. :rolleyes:
:
Ja, das verdrehst du. :)

SKYNET
2005-04-28, 21:24:45
Ja, das verdrehst du. :)


danke. :)


hast du kurz nen link wo das steht ?
will mich da nochmal, schnell durchlesen. =)

mapel110
2005-04-28, 21:27:18
danke. :)


hast du kurz nen link wo das steht ?
will mich da nochmal, schnell durchlesen. =)
Das ist Allgemeinwissen. Das ist so simpel, da gibts keine Artikel zu. :biggrin:

/edit
http://www.3dcenter.org/artikel/grafikfilter/
http://www.3dcenter.org/artikel/anti-aliasing/

Jesus
2005-04-28, 21:32:03
NV45 fillrate: 6800M
R420 fillrate: 8320M

aber die leistung verpufft im nix, weil ineffektives chipdesign.

das spricht der Experte :biggrin:

SKYNET
2005-04-28, 21:36:10
Das ist Allgemeinwissen. Das ist so simpel, da gibts keine Artikel zu. :biggrin:

/edit
http://www.3dcenter.org/artikel/grafikfilter/
http://www.3dcenter.org/artikel/anti-aliasing/


danke. :ulove3:

BeCreative
2005-04-28, 22:28:01
Viel Spaß, die Dinger werden frühestens im Frühherbst verfügbar sein.
z.Z. kostet eine 6800LE (gehen soziemlich immer auf mind 12Pipes) 150EUR genau wie eine 6600GT. Eine 6800GT 256MB kostet 300EUR genau wie die X800XL. Preis/Leistung stimmt und so viel schneller werden die zukünftigen Karten mangels Bandbreite auch nicht sein.


Scheinst dir ja ziemlich sicher zu sein :>, woher weißt du das mit der Bandbreite?

robbitop
2005-04-28, 22:34:38
Scheinst dir ja ziemlich sicher zu sein :>, woher weißt du das mit der Bandbreite?
Schau doch mal bei samsung und Konsorten vorbei. Was ist maximal verfügbar? Richtig GDDR700. Das ist nicht viel mehr als aktueller RAM.
Den Rest kann man sich ausrechen (jeder Pixel kostet bsw 32 Bit Farbe udn 24 Bit Z und dazu nochmal etwas für die Texturen, von denen gesampled wird)

robbitop
2005-04-28, 22:36:26
NV45 fillrate: 6800M
R420 fillrate: 8320M

aber die leistung verpufft im nix, weil ineffektives chipdesign.

Füllrate nützt nichts, ohne die nötige Bandbreite. Die berechneten Pixel müssen ja auch in den Speicher geschrieben werden.

Ailuros
2005-04-29, 07:39:54
@Ailuros

Ich kann dir empfehlen, den CineFX Artikel von Demirug zu lesen.

Das Zeug was du zitiert hast, ist allgemeines, nichtssagendes Gewäsch. Kirk beherrscht das ganz gut ;)

Darf ich Dir dann eher nochmal empfehlen meine Unterschrift nochmal zu ueberdenken?

Allgemein sind Kirk's Aussagen natuerlich; erstens Antwortet er auf Fragen von Laien wie ich und Du (also ist eine K.I.S.S. Methode logischer) und zweitens wird ein jeder Kirk auch nicht zu viel verraten wollen. "Nichtsagendes Gewaesch" ist ein bisschen uebertrieben; ueberhaupt wenn ich es mit meinen und deinen Aussagen vergleichen wuerde, oder? :|

Ailuros
2005-04-29, 08:44:51
NV45 fillrate: 6800M
R420 fillrate: 8320M

aber die leistung verpufft im nix, weil ineffektives chipdesign.

Ineffektives chipdesign ist wohl falsch ausgedrueckt; ATI hat einfach die Taktrate fuer die ulta high end Modelle viel zu hoch geschraubt.

6800U:

400/550MHz = 6400MPixels/sec, 35.2GB/sec

X800XT PE:

520/560MHz = 8320MPixels/sec, 35.8GB/sec

robbitop
2005-04-29, 09:14:05
Darf ich Dir dann eher nochmal empfehlen meine Unterschrift nochmal zu ueberdenken?

Allgemein sind Kirk's Aussagen natuerlich; erstens Antwortet er auf Fragen von Laien wie ich und Du (also ist eine K.I.S.S. Methode logischer) und zweitens wird ein jeder Kirk auch nicht zu viel verraten wollen. "Nichtsagendes Gewaesch" ist ein bisschen uebertrieben; ueberhaupt wenn ich es mit meinen und deinen Aussagen vergleichen wuerde, oder? :|

Sehe ich komplett anders, sry :|

Ailuros
2005-04-29, 09:52:59
Sehe ich komplett anders, sry :|

NV4x hat einen etwas groesseren Abstand zu den vorigen Designs, da hier als einfaches Beispiel ein paar "texture computer" Ideen von Kilgariff implementiert wurden. Nicht in allen Stellen und nicht bei allen Loesungen der Familie, da sie nicht ueberall zum Vorteil kommen.

Ausser ein paar kleineren algorithmischen Aenderungen hatten die zusaetzlichichen vorigen 3dfx engineers nicht allzu viel mit NV3x zu tun.

Wer frueher fuer wen arbeitete ist eigentlich kein Anhaltspunkt aber positive Design-aspekte voriger Arbeit (mit selbstverstaendlicher Weiter-entwicklung) und ein bisschen Philosophie tragen diese immer mit sich. Ich will ernsthaft bezweifeln dass die multi-board Entwicklung zuerst fuer Quantum3D und spaeter mit NV4x via SLi purer Zufall waren; ueberhaupt wenn die relevante Treiber-Entwicklung fuer die letzteren schon ueber 2 Jahre zurueckgeht.

Coda
2005-04-29, 10:21:49
AA hat nix mit der speicheranbindung zutun, sondern mit der füllrate.Käse³. Natürlich braucht AA Bandbreite, die Füllrate ist bei aktiviertem MSAA gleich hoch wie ohne.

NV40 scheint aber wirklich etwas effizienter als R420 zu sein...

Hauwech
2005-04-29, 10:30:36
NV40: 220Mio Transistoren
R420: 160Mio Transistoren
*snip*


Öh, wenn du schon es so schreibst, dann schreibe doch auch bitte dabei wozu die höhere Anzahl an Transistoren dient.

Beide Chips leisten in etwa das Gleiche, aber die Ausstattung ist bei Nvidia wesentlich besser. ATI fährt nicht schlecht mit Minimalismus aber so langsam, naja.... eine Schwalbe macht noch keinen Sommer aber die ersten Vorboten sind schon da wie SC:CT.

Gast
2005-04-29, 11:31:11
Den Rest kann man sich ausrechen (jeder Pixel kostet bsw 32 Bit Farbe udn 24 Bit Z und dazu nochmal etwas für die Texturen, von denen gesampled wird)

zumindest bei nvidia scheint z- und colorcompression auch ohne FSAA recht gut zu funktionieren, das teil skaliert sehr gut mit dem chiptakt und kaum mit dem speichertakt.
ohne FSAA dürfte der nv40 kaum am bandbreitenlimit anlangen

BeCreative
2005-04-29, 12:58:38
Schau doch mal bei samsung und Konsorten vorbei. Was ist maximal verfügbar? Richtig GDDR700. Das ist nicht viel mehr als aktueller RAM.
Den Rest kann man sich ausrechen (jeder Pixel kostet bsw 32 Bit Farbe udn 24 Bit Z und dazu nochmal etwas für die Texturen, von denen gesampled wird)

Ahja, und was ist mit 512 bit Speicherinterface?

Gaestle
2005-04-29, 13:26:12
Ahja, und was ist mit 512 bit Speicherinterface?

Wird hier im Forum allgemein als zu teuer in der Produkion angesehen, weil das nicht nur in den Chip gebastelt werden muss, sondern auch nach einer entsprechend komplexen Platine (PCB) verlangt, die eine solche Karte extrem teuer machen würde.

Grüße...

robbitop
2005-04-29, 13:30:21
NV4x hat einen etwas groesseren Abstand zu den vorigen Designs, da hier als einfaches Beispiel ein paar "texture computer" Ideen von Kilgariff implementiert wurden. Nicht in allen Stellen und nicht bei allen Loesungen der Familie, da sie nicht ueberall zum Vorteil kommen.

Ausser ein paar kleineren algorithmischen Aenderungen hatten die zusaetzlichichen vorigen 3dfx engineers nicht allzu viel mit NV3x zu tun.

Wer frueher fuer wen arbeitete ist eigentlich kein Anhaltspunkt aber positive Design-aspekte voriger Arbeit (mit selbstverstaendlicher Weiter-entwicklung) und ein bisschen Philosophie tragen diese immer mit sich. Ich will ernsthaft bezweifeln dass die multi-board Entwicklung zuerst fuer Quantum3D und spaeter mit NV4x via SLi purer Zufall waren; ueberhaupt wenn die relevante Treiber-Entwicklung fuer die letzteren schon ueber 2 Jahre zurueckgeht.

Full Ack :up:
Das mit den 3dfx engineers ist IMO eine urban legend wie auch das mit den ArtX engineers.

robbitop
2005-04-29, 13:32:06
Öh, wenn du schon es so schreibst, dann schreibe doch auch bitte dabei wozu die höhere Anzahl an Transistoren dient.

Beide Chips leisten in etwa das Gleiche, aber die Ausstattung ist bei Nvidia wesentlich besser. ATI fährt nicht schlecht mit Minimalismus aber so langsam, naja.... eine Schwalbe macht noch keinen Sommer aber die ersten Vorboten sind schon da wie SC:CT.

Ich beschrieb ja, dass der Mehrverbrauch dem Technologischen Fortschritt zugrundeliegt. Bezog mich in dem Posting jedoch primär auf die heutige Leistung. Dort tut eben dies wenig zur Sache.

robbitop
2005-04-29, 13:38:22
Ahja, und was ist mit 512 bit Speicherinterface?
no go für 2005 ;-)


zumindest bei nvidia scheint z- und colorcompression auch ohne FSAA recht gut zu funktionieren, das teil skaliert sehr gut mit dem chiptakt und kaum mit dem speichertakt.
ohne FSAA dürfte der nv40 kaum am bandbreitenlimit anlangen

Z Kompression funktioniert immer besser, je mehr Daten vorhanden sind. Da dort die Wahrscheinlichkeit größer wird, dass sich wiederholende Muster substitiuiert werden können. Da der Z Buffer in Tiles geschrieben wird, klappt das auch ohne MSAA recht gut. Mit MSAA ist der Wirkungsgrad leicht höher.
Die Colorcompression ist allerdings nur eine Pseudokompression. Hier ist der Wirkungsgrad ohne MSAA sehr gering. Denn der Colorbuffer wird oft nur Pixelweise geschrieben. Und nur bei MSAA kommt es an den Nicht-Polykanten vor, dass der gleiche Pixel mehrfach den gleichen Farbwert hat (Subpixelcolor).
Die Skallierung sieht mit 4xMSAA NoAF schon wieder anders aus.
Das liegt einfach daran, dass NV40 nur 400MHz Chiptakt hat und dennoch 550Mhz Speichertakt. Der R420 ist mit ~540MHz Chiptakt schon total am Ende der Bandbreite.


Käse³. Natürlich braucht AA Bandbreite, die Füllrate ist bei aktiviertem MSAA gleich hoch wie ohne.
Das ist AFAIK nicht ganz richtig. Für die zu glättenden Polyedges ist natürlich Füllrate nötig. Die nehmen aber recht wenig Bildfläche weg.

Coda
2005-04-29, 15:30:27
Nö, da ist auch keine Füllrate nötig, nur mehr Bandbreite, weil die Komprimierung nicht funktioniert.

Wenn was Füllrate braucht, dann die Loops ab >2 samples.

Ailuros
2005-04-29, 15:46:49
Full Ack :up:
Das mit den 3dfx engineers ist IMO eine urban legend wie auch das mit den ArtX engineers.

Urban legend ja aber auch stets relativ eingeschaetzt (man darf eben weder damit untertreiben oder es im Gegenfall unterschaetzen). Der texture und shader core wurde ja von Kilgariff entwickelt.

Ein Versuch es so balanciert wie moeglich zu praesentieren waere vielleicht, dass die positiven Anteile der alten Entwicklung weiterentwickelt und implementiert wurden.

So oder so gibt es einen Einfluss auf die Design-Philosophie eines IHVs wenn so grosse engineer-teams dazu kommen. Sagt aber jemand der NV40 waere ein quasi Rampage oder R300 ein quasi Flipper, ist es natuerlich absoluter Schwachsinn.

Eigentlich wundere ich mich ob sich die alte Gigapixel-Fraktion wenigstens in einem Markt irgendwann man "durchsetzen" koennte. Persoenliches Wunschdenken und sollte man natuerlich nicht ernst nehmen.... :frown:

DrumDub
2005-04-29, 15:53:16
Wird hier im Forum allgemein als zu teuer in der Produkion angesehen, weil das nicht nur in den Chip gebastelt werden muss, sondern auch nach einer entsprechend komplexen Platine (PCB) verlangt, die eine solche Karte extrem teuer machen würde.

Grüße... und nicht nur das. wie xmas schon anmerkte gibts überhaupt noch keine speicherchips, die sich daran anbinden ließen.

mapel110
2005-04-29, 16:02:55
und nicht nur das. wie xmas schon anmerkte gibts überhaupt noch keine speicherchips, die sich daran anbinden ließen.
ehm, hat er nicht gesagt, dass es mit 512 MB insgesamt gehen würde?!

btw wie siehts eigentlich mit 384 Bit-Interface aus? :)

Ailuros
2005-04-29, 16:19:19
ehm, hat er nicht gesagt, dass es mit 512 MB insgesamt gehen würde?!

btw wie siehts eigentlich mit 384 Bit-Interface aus? :)

Mach mir keine Angst; da muss ich ja nochmal eine Formel entwickeln fuer die Busbreite (ganz OT: multiplizier einfach 300MHz -128bit- mit 32 oder 300MHz -256bit- mit 64, aber wahre Frequenzen nicht die effektiven).

Spass beiseite: nein :P

SKYNET
2005-04-29, 17:36:43
Wird hier im Forum allgemein als zu teuer in der Produkion angesehen, weil das nicht nur in den Chip gebastelt werden muss, sondern auch nach einer entsprechend komplexen Platine (PCB) verlangt, die eine solche Karte extrem teuer machen würde.

Grüße...


noch teurer als 550€ ? ;)

Xmas
2005-04-29, 18:01:55
Nö, da ist auch keine Füllrate nötig, nur mehr Bandbreite, weil die Komprimierung nicht funktioniert.
Doch, das kostet minimal Füllrate, denn an den Kantenpixeln sind ja nun zumeist mehrere Polygone beteiligt.

mrt
2005-04-29, 18:43:19
und nicht nur das. wie xmas schon anmerkte gibts überhaupt noch keine speicherchips, die sich daran anbinden ließen.

ähm, was sollte das mit den speicherchips zu tun haben? Nur kommt man mit ne derzeitigen chips nich unter 512MB.
AFAIR ist der speicherbus bei zB ATI mit 4*64bit unterteilt.
Meistens wird ein speicherchip mit 32 oder 64bit angebunden, je nach Einstazgebiet.

Xmas
2005-04-29, 18:45:38
"Ein Speicherchip"? Es gibt keine x64 GDDR3-Speicherchips, Maximal x32.

Coda
2005-04-29, 18:54:57
Doch, das kostet minimal Füllrate, denn an den Kantenpixeln sind ja nun zumeist mehrere Polygone beteiligt.Sagen wir mal wir rendern idiotischerweiße perfekt von Hinten nach Vorne. Dann gibt's keinen Unterschied.

Jesus
2005-04-29, 19:56:56
no go für 2005 ;-)



Wieso kein 5120 bit Speicherinterface ? Wieso sollte ATI das in die Xbox (eDRAM) pflanzen und den R520 aussen vor lassen?

Bin mir sicher dass es eine High-High-End Version geben wird die sowas in der Art bietet... :tongue:

Edit: Falscher Thread =)

BeCreative
2005-04-29, 19:58:53
Wird hier im Forum allgemein als zu teuer in der Produkion angesehen, weil das nicht nur in den Chip gebastelt werden muss, sondern auch nach einer entsprechend komplexen Platine (PCB) verlangt, die eine solche Karte extrem teuer machen würde.

Grüße...

Ah, alles klar :)

ShadowXX
2005-04-29, 20:08:03
Wieso kein 5120 bit Speicherinterface ? Wieso sollte ATI das in die Xbox (eDRAM) pflanzen und den R520 aussen vor lassen?

Bin mir sicher dass es eine High-High-End Version geben wird die sowas in der Art bietet... :tongue:

Das wird viel zu teuer....du müsstest eDRAM für mindestens 1600x1200x32 + 6xAA reinpflanzen.

Dann wären wir bestimmt bei 800-1000Euro pro GraKa....

Coda
2005-04-29, 20:37:23
Das wäre gar nicht produzierbar wahrscheinlich...

Jesus
2005-04-29, 21:31:09
Das wäre gar nicht produzierbar wahrscheinlich...

Wieso? Es ist doch schon offiziell (NEC liefert eDRAM für Xbox360 Graphikchip) und die muss zumindest auch 1080i darstellen können ;)

Coda
2005-04-29, 21:37:57
Ok Argument. Aber ich erwarte das bei nem Desktopchip irgendwie trotzdem nicht...

Xmas
2005-04-29, 21:49:31
Sagen wir mal wir rendern idiotischerweiße perfekt von Hinten nach Vorne. Dann gibt's keinen Unterschied.
Doch, auch dann. Da mit MSAA ein Polygon mehr Pixel bedeckt (ohne AA muss der Pixel mindestens zur Hälfte bedeckt sein um gerendert zu werden, mit AA wegen der Sampleverteilung deutlich weniger).


Wieso? Es ist doch schon offiziell (NEC liefert eDRAM für Xbox360 Graphikchip) und die muss zumindest auch 1080i darstellen können ;)
Das ist immer noch nur etwa die Hälfte von 1600x1200. Außerdem müsste dann NEC den R520 herstellen, was ich nicht glaube.

Gast
2005-04-29, 22:16:49
Das ist immer noch nur etwa die Hälfte von 1600x1200. Außerdem müsste dann NEC den R520 herstellen, was ich nicht glaube.

1080i ist 1920x1088 (interlaced am TV)

Jesus
2005-04-29, 22:18:14
1080i ist 1920x1088 (interlaced am TV)

Keks verloren :ugly2:

BeCreative
2005-04-29, 22:23:01
Das ist immer noch nur etwa die Hälfte von 1600x1200. Außerdem müsste dann NEC den R520 herstellen, was ich nicht glaube.

Versteh ich nicht, kannst mir erklären wieso NEC dann die Chips produzieren müsste?

Xmas
2005-04-29, 22:32:56
1080i ist 1920x1088 (interlaced am TV)
Eben, interlaced. Berechnet werden also nur 1920x540 = 1036800 Pixel. Bei 1600x1200 sind es aber 1920000 Pixel, fast das Doppelte.

Versteh ich nicht, kannst mir erklären wieso NEC dann die Chips produzieren müsste?
Weil TSMC nicht mal gerade so eben anfängt, einen solchen Chip mit eDRAM zu fertigen. Dazu braucht es auch die entsprechende Technologie.

Gast
2005-04-29, 23:01:04
Eben, interlaced. Berechnet werden also nur 1920x540 = 1036800 Pixel. Bei 1600x1200 sind es aber 1920000 Pixel, fast das Doppelte.



naja, man könnte es als 1920x1080@25fps oder als 1920x540@50fps interpretieren.

BeCreative
2005-04-29, 23:06:48
Weil TSMC nicht mal gerade so eben anfängt, einen solchen Chip mit eDRAM zu fertigen. Dazu braucht es auch die entsprechende Technologie.


Ahja... und eDRAM hängt mit der Speicheranbindung zusammen oder wie ist das? o_O

Xmas
2005-04-29, 23:20:21
Ahja... und eDRAM hängt mit der Speicheranbindung zusammen oder wie ist das? o_O
:confused:
Ich redete von Fertigungstechnologie.

Coda
2005-04-29, 23:35:12
Doch, auch dann. Da mit MSAA ein Polygon mehr Pixel bedeckt (ohne AA muss der Pixel mindestens zur Hälfte bedeckt sein um gerendert zu werden, mit AA wegen der Sampleverteilung deutlich weniger).Hmm, jetzt weiß ich glaub was du meinst. Aber das ist ja wirklich Erbsenzählerei :D

robbitop
2005-04-30, 08:56:04
Hmm, jetzt weiß ich glaub was du meinst. Aber das ist ja wirklich Erbsenzählerei :D
Je nach Polycount ists das eben nicht ;) (aber ich weiß was du meinst)

Ailuros
2005-04-30, 10:52:42
Wieso? Es ist doch schon offiziell (NEC liefert eDRAM für Xbox360 Graphikchip) und die muss zumindest auch 1080i darstellen können ;)

Weil die eDRAM Menge zu klein ist fuer eine desktop GPU (~10MB; es sollte wohl bekannt sein dass Consolen auf andere Aufloesungen zielen) und weil eDRAM auch ziemlich viel Transistoren verbrauchen.

Und bevor ich noch von X*Y Aufloesung hoere, erinnere ich gleich nochmal dass man mit solchen chips wie R520 auch den Profi-Markt bedienen will und da koennen die Ansprueche an Aufloesungen um einiges steigen.

Coda
2005-04-30, 12:05:58
Je nach Polycount ists das eben nicht (aber ich weiß was du meinst)An den Rändern müssen ja eh immer ganze Quads gerendert werden, auch wenn nur ein Pixel reinfällt. Insofern dürfte der Unterschied doch noch geringer sein, oder?

Jesus
2005-04-30, 13:45:34
naja, man könnte es als 1920x1080@25fps oder als 1920x540@50fps interpretieren.

Und ersteres ist es was die Grafikkarte ausgeben muss damits des TV oder was auch immer darstellen kann. Wenn ich einen HDTV Film am PC ansehe dann ist der genau 1920x1088 Pixel gross, bei 25 fps.

BeCreative
2005-04-30, 14:16:40
:confused:
Ich redete von Fertigungstechnologie.

aha...
Naja eDRAM "Fertigungstechnologie" ... thx für die Erklärung :rolleyes:

Ailuros
2005-04-30, 14:23:05
Und ersteres ist es was die Grafikkarte ausgeben muss damits des TV oder was auch immer darstellen kann. Wenn ich einen HDTV Film am PC ansehe dann ist der genau 1920x1088 Pixel gross, bei 25 fps.

Filme haben wohl dank Interaktivitaet erstmal gar nichts mit Echtzeit-Spielen zu tun.

Ausser man wuerde echtes motion blur in den mix werfen, aber durch den Leistungsaufwand das dieses kosten wuerde, kann man wohl erst gar nicht von solchen Aufloesungen reden.

Jesus
2005-04-30, 14:27:10
Filme haben wohl dank Interaktivitaet erstmal gar nichts mit Echtzeit-Spielen zu tun.

:up: Es geht ja nur um die Ram Grösse bei so einer Auflösung.

Ailuros
2005-04-30, 14:31:32
:up: Es geht ja nur um die Ram Grösse bei so einer Auflösung.

Wir werden ja sehen welche Aufloesungen am Ende und fuer was genau erlaubt sein werden. Falls es tatsaechlich ~10MB eDRAM sein sollten, wuerde ich etwas konservativer sein, denn man wird wohl eher an die 60fps als Ziel haben.

reunion
2005-04-30, 16:34:20
G70 to be power hungry: Nvidia asked PCI Sig for more power (http://www.theinquirer.net/?article=22917)

"[...]It turns out that 75W from external connector and 75W from motherboard is not enough. Nvidia wants an additional 75W for its G70 card.[...]"

Ailuros
2005-04-30, 16:44:44
G70 to be power hungry: Nvidia asked PCI Sig for more power (http://www.theinquirer.net/?article=22917)

"[...]It turns out that 75W from external connector and 75W from motherboard is not enough. Nvidia wants an additional 75W for its G70 card.[...]"

Haette ich auch nicht anders erwartet; 225W ist aber verrueckt hoch.

Whatever happens, this card is an autumn marchitecture and even if Nvidia announces it before then, I don’t think you will be able to get one until then. µ

G70 wird mit allerhoechster Wahrscheinlichkeit etwa zur gleichen Zeit mit R520 veroeffentlicht. Nach Hara's Angaben werden sie im Fruehling einen "leicht schnelleren NV4x" (womoeglich 110nm) und einen "nochmal leicht schnelleren NV4x" (90nm) im Herbst veroeffentlichen.

Coda
2005-04-30, 17:28:46
150W PCIe ist ja schon spezifiziert...
Wahrscheinlich hat das Inquirer nur wieder etwas verdreht.

Xmas
2005-04-30, 18:37:57
Und ersteres ist es was die Grafikkarte ausgeben muss damits des TV oder was auch immer darstellen kann. Wenn ich einen HDTV Film am PC ansehe dann ist der genau 1920x1088 Pixel gross, bei 25 fps.
Der ist dann aber codiert als 50 Halbbilder á 1920x540. Die Halbbilder werden deinterlaced und nacheinander ausgegeben. Darüber hinaus, dass die Konsole 1080i darstellen kann, heißt noch lange nicht dass es auch besonders performant ist. Die meisten Spiele sollen wohl für 720p ausgelegt sein.


aha...
Naja eDRAM "Fertigungstechnologie" ... thx für die Erklärung :rolleyes:
Na ich weiß ja nicht wie genau du es erklärt haben willst. DRAM wird anders gefertigt als Logikschaltungen, weil es andere Anforderungen an Schaltzeit, Energieverbrauch, Dichte, usw. hat. Bei eDRAM braucht man eben eine Fertigungstechnik, die es schafft, für beide Bestandteile brauchbare Eigenschaften herauszuholen. Und TSMC hat meines Wissens keinen solchen spezialisierten Prozess, wie er aber bei einem High-Performance-Chip wie dem R500 bzw. einem entsprechenden eDRAM-R520 nötig wäre.

Demirug
2005-04-30, 18:59:26
Na ich weiß ja nicht wie genau du es erklärt haben willst. DRAM wird anders gefertigt als Logikschaltungen, weil es andere Anforderungen an Schaltzeit, Energieverbrauch, Dichte, usw. hat. Bei eDRAM braucht man eben eine Fertigungstechnik, die es schafft, für beide Bestandteile brauchbare Eigenschaften herauszuholen. Und TSMC hat meines Wissens keinen solchen spezialisierten Prozess, wie er aber bei einem High-Performance-Chip wie dem R500 bzw. einem entsprechenden eDRAM-R520 nötig wäre.

TSMC hat eDRAM bis 90nm im Angebot. Ich weiss allerdings nicht wie gut dieser ist.

BeCreative
2005-04-30, 19:34:39
Der ist dann aber codiert als 50 Halbbilder á 1920x540. Die Halbbilder werden deinterlaced und nacheinander ausgegeben. Darüber hinaus, dass die Konsole 1080i darstellen kann, heißt noch lange nicht dass es auch besonders performant ist. Die meisten Spiele sollen wohl für 720p ausgelegt sein.



Na ich weiß ja nicht wie genau du es erklärt haben willst. DRAM wird anders gefertigt als Logikschaltungen, weil es andere Anforderungen an Schaltzeit, Energieverbrauch, Dichte, usw. hat. Bei eDRAM braucht man eben eine Fertigungstechnik, die es schafft, für beide Bestandteile brauchbare Eigenschaften herauszuholen. Und TSMC hat meines Wissens keinen solchen spezialisierten Prozess, wie er aber bei einem High-Performance-Chip wie dem R500 bzw. einem entsprechenden eDRAM-R520 nötig wäre.

Alles klar :D, naja ich hab wohl nicht das Grundwissen um das zu verstehen... Logikschaltungen etc.
Trotzdem thx.

Jesus
2005-04-30, 19:57:02
Der ist dann aber codiert als 50 Halbbilder á 1920x540.

Afaik ist der MPEG2 Stream bei HDTV codiert in 1920x1088 bei 25Hz, zumindest sagen das meine Conerter Tools :)