PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : First hands-on look at NV40 (INQ)


Sunrise
2004-03-19, 18:43:11
- Auszüge:

"...The primary shocker was that the board requires two large 4-pin power connectors as opposed to the single power connector on current high-end products...

...However whilst our earlier information indicated that it comprised of 205 -210 million transistors, our sources currently say that what we were holding was a 175 million transistor part...

...Eight 32MB video memory modules are installed – four on each side of the PCB and as we first reported from Computex in Taiwan – these are of the new GDDR3 type.

However these were not from Micron, which at that time seemed to be both ATi and Nvidia’s GDDR3 development partner. Instead, Samsung seems to be the preferred supplier of the 256MB we saw installed..."

mehr unter:
http://www.theinquirer.net/?article=14827

VooDoo7mx
2004-03-19, 18:59:31
Wuah 2 Stromstecker :O :O :O
Und das bei nur einen GPU...

Oh Gott ich bin auch voll auf Gerüchtewelle mitgeschwommen.
Von wegen 210Mio transis und 16 Pipes.

Alles deutet wirklich auf eine 6x2 Architektur hin, wie schon ganz zu Anfang hier spekuliert wurde.

Wenn der Chip jetzt schon 2 Stromanschlüsse benötigt...
210Mio in Chip ( ;) Demi) Transistoren lassen sich wohl absolut nicht in 0,13µ realisieren.

Dafür wird der Chiptakt aber denke ich jetzt wieder höher sein. 550-600Mhz sollten schon drin sein#.

Demirug
2004-03-19, 19:05:31
Original geschrieben von VooDoo7mx
Wenn der Chip jetzt schon 2 Stromanschlüsse benötigt...
210Mio in Chip ( ;) Demi) Transistoren lassen sich wohl absolut nicht in 0,13µ realisieren.

Natürlich geht das. Wir eben nur entsprechend teuer.

stickedy
2004-03-19, 19:23:47
Original geschrieben von VooDoo7mx
Wuah 2 Stromstecker
Und das bei nur einen GPU...


Allerdings...

Langsam wird das echt lächerlich...

Das wär doch der richtige Zeitpunkt um 3dfx-Technik zu Einsatz zu bringen: Voodoo Volts

*kopfschüttel*

War schon die XGI Volari V8 Duo krank, aber das topt das ja wohl noch - falls es wahr ist!

Exxtreme
2004-03-19, 19:38:36
Original geschrieben von VooDoo7mx
Wuah 2 Stromstecker :O :O :O
Und das bei nur einen GPU...

Da steckt doppelt soviel 3dfx-Technik drin als bei der NV3x-Serie. :D Neee, Spaß. Aner wenn das stimmt mit 2 Stromsteckern, dann weiss ich nicht ob ich mir das Teil hole. :|

Godmode
2004-03-19, 19:44:05
Original geschrieben von stickedy


Allerdings...

Langsam wird das echt lächerlich...

Das wär doch der richtige Zeitpunkt um 3dfx-Technik zu Einsatz zu bringen: Voodoo Volts

*kopfschüttel*

War schon die XGI Volari V8 Duo krank, aber das topt das ja wohl noch - falls es wahr ist! [/SIZE]

Also das mit den Stromsteckern stört mich überhaupt nicht, dann wird wenigstens das Mobo nicht so belastet.

Aber ich frag mich jetz schön langsam wie es mit der Performance des NV40 aussehen wird! Nv muss ja auch für PS/VS 3.0 ein paar mio Transistoren opfern und für den Hardware Decoder geht auch sicher ein bisschen was drauf. Ait kann alles in reine Rohleistung umsetzen, ich hoffe nur für NV das sie nicht wieder ihre Ziele verfehlen

Man sieht da einfach wieder wie unverlässlich The Inq ist, ich habe das übrigens auch gefressen mit den 16 Pipes und 210 mio!! Aber das mit dem Redesign ist mir ein bisschen komisch vorgekommen, einfach den Chip auf 210 mio aufzublähen.

deekey777
2004-03-19, 20:02:33
Was soll die Aufregung? Zwei Stromstecker: Einer für die Grafikkarte selbst, der andere für den nötigen Lüfter.

Demirug
2004-03-19, 20:02:44
Ich weiss gar nicht was ihr habt? Das die Karte 150 Watt verbraten soll ist doch schon länger bekannt. Für 150 Watt braucht man bei einer AGP Karte nun mal 2 Spannungsanschlusse wenn man nicht wieder einen ein hochaufwendiges Netzteil auf der Karte selbst verbauen möchte.

r@e
2004-03-19, 20:03:29
Original geschrieben von bans3i
Man sieht da einfach wieder wie unverlässlich The Inq ist, ich habe das übrigens auch gefressen mit den 16 Pipes und 210 mio!! Aber das mit dem Redesign ist mir ein bisschen komisch vorgekommen, einfach den Chip auf 210 mio aufzublähen. Ich freß gar nichts, bis es nicht (endlich !) Fakten gibt...

All das, was hier bisher an 'Infos' rüber gekommen ist, hat doch absolut KEINEN Nährwert. Hier werden Pipes rauf und runter gezählt, Transitormengen die wieder in sich zusammen fallen oder noch ganz andere, haarsträubende Dinge.

Noch gibt es KEINE Fakten von den Herstellern.

Ich weiß auch, dass dies hier das Speku-Forum ist und es ist ja teilw. auch ganz amüsant hier zu lesen (oder gar mitzuwirken), aber irgendwie habe ich das Gefühl, dass sich die Leutz einfach etwas zusammen reimen, wenn's keine harten Fakten gibt.

Und über irgendwelche Phantasien zu diskutieren, ist irgendwie ziemlich sinnlos, wenn man dem Gegenüber nicht psychisch unter die Arme greifen will.

Nur meine 2 cents.

Razor

Godmode
2004-03-19, 20:07:28
Ja du hast eigentlich völlig recht!

Mein Problem ist das ich mir zu jeder neuen Graka Generation VIEL zu VIEL erwarte, und zum Schluss dann doch entäuscht bin! Ich verlasse mich auch jetz auf überhaupt nichts mehr und warte einfach ab.

Könnt ihr dazu was sagen, dass anscheinend 2 NDAs mit 2 verschiedenen NV40 Chips umherschwirren??

INTRU
2004-03-19, 20:12:35
Original geschrieben von Demirug
Ich weiss gar nicht was ihr habt? Das die Karte 150 Watt verbraten soll ist doch schon länger bekannt. Für 150 Watt braucht man bei einer AGP Karte nun mal 2 Spannungsanschlusse wenn man nicht wieder einen ein hochaufwendiges Netzteil auf der Karte selbst verbauen möchte.

150W!!! Die können mich mal... :arsch:

Mir verbraucht ja schon 'ne 9800 pro zuviel... bzw. ist IMO gerade an der Grenze des zumutbaren!

Pirx
2004-03-19, 20:14:19
Ne 150W Grafikkarte kommt bei mir jedenfalls nicht in den Rechner, wo soll denn das noch hinführen?:bonk:

INTRU
2004-03-19, 20:16:48
Original geschrieben von bans3i
Mein Problem ist das ich mir zu jeder neuen Graka Generation VIEL zu VIEL erwarte


Games für die 'ne neue Graka pflicht ist, wird es bestimmt nicht so schnell geben. Warum dann die grossen Erwartungen? Um Techdemos zu sehen? Aber Strom wie SAU frisst das Teil trotzdem... kommt mir nicht in die Kiste! Dann schon eher 'ne 9800 pro. Frisst zwar auch Strom - aber noch geradeso erträglich!

Edit:
Wird es eigentlich auch 'ne PCI-E-Variante der 9800 pro geben?

Godmode
2004-03-19, 20:19:05
Wenn die Leistung da ist weiss ich schon auf was ich sparen werde! Die werden doch so weit sein und ne Stromspar Technik für dieses Monster entwickelt zu haben!

Coda
2004-03-19, 20:19:29
Dann wirst du wohl für immer auf der jetzigen Generation sitzen bleiben müssen (oder vielleicht noch auf der nächsten von ATi) :asshole:

Sphinx
2004-03-19, 20:20:39
Und ich musste für letztes Jahr schon 300 Euro an Stromrechnung nachzahlen ,)

INTRU
2004-03-19, 20:22:20
Meinst mich...

... ich bin ja auch für Fortschritt... aber nicht so!

LovesuckZ
2004-03-19, 20:29:33
Original geschrieben von INTRU
Meinst mich...
... ich bin ja auch für Fortschritt... aber nicht so!

Fortschritt gab es schon beim NV30 als Nvidia die Spannung und Taktraten im 2D Modus runterstellten.
Wer sich solch ein Monster kauft, wird wohl noch das noetige Kleingeld für den Strom haben, vorallen die, die doch mit dem Loetkolben rumhantieren...

INTRU
2004-03-19, 20:32:34
Original geschrieben von LovesuckZ
Fortschritt gab es schon beim NV30 als Nvidia die Spannung und Taktraten im 2D Modus runterstellten.
Wer sich solch ein Monster kauft, wird wohl noch das noetige Kleingeld für den Strom haben, vorallen die, die doch mit dem Loetkolben rumhantieren...

IMHO trotzdem alles andere als gut (auch wenn das nötige kleingeld da ist)...

prinzip!

LovesuckZ
2004-03-19, 20:34:27
Original geschrieben von INTRU
prinzip!

Dann solltest du auch nicht übertakten. :)
Ausserdem brauch man sich ja nicht das Ultrahighendmonster kaufen, die kleinere Version tut es auch und dank der reduzierten Taktraten sparsamer.

Godmode
2004-03-19, 20:41:36
Original geschrieben von INTRU
IMHO trotzdem alles andere als gut (auch wenn das nötige kleingeld da ist)...

prinzip!

Aber wie willst du sonst eine bessere Leistung erzielen? Geht meistens nur mit mehr Transen; und mehr Transen = höherer Stromverbrauch

reunion
2004-03-19, 20:42:19
Original geschrieben von Sunrise
- Auszüge:

"...The primary shocker was that the board requires two large 4-pin power connectors as opposed to the single power connector on current high-end products...

...However whilst our earlier information indicated that it comprised of 205 -210 million transistors, our sources currently say that what we were holding was a 175 million transistor part...

...Eight 32MB video memory modules are installed – four on each side of the PCB and as we first reported from Computex in Taiwan – these are of the new GDDR3 type.

However these were not from Micron, which at that time seemed to be both ATi and Nvidia’s GDDR3 development partner. Instead, Samsung seems to be the preferred supplier of the 256MB we saw installed..."

mehr unter:
http://www.theinquirer.net/?article=14827

Schön langsam hören sich die Gerüchte realistisch an, 175Mio Transistoren 150W Leistungsaufnahme und max. 6x2(oder vielleicht noch einmal 4x2?)...

Frage: Würde die Karte mit PCIE-Infance auch noch 2 Stromanschlüsse benötigen(den wenn dann kaufe ich mir sowieso die PCIExpress Version)?

reunion
2004-03-19, 20:45:47
Original geschrieben von bans3i
Aber wie willst du sonst eine bessere Leistung erzielen? Geht meistens nur mit mehr Transen; und mehr Transen = höherer Stromverbrauch

Trozdem ist der leistungsaufnahme zu hoch, schau dir ATi an, selbst der in 150nm Prozess hergestellte R360 benötigt weniger Saft als der Nv38, und der R420 wird vermutlich dank 130nm lowk auch ohne 2ten Stromanschluss auskommen.

AlfredENeumann
2004-03-19, 21:00:52
Original geschrieben von Pirx
Ne 150W Grafikkarte kommt bei mir jedenfalls nicht in den Rechner, wo soll denn das noch hinführen?:bonk:



Hey, man spart im Winter ne menge Heizkosten !!!

ShadowXX
2004-03-19, 21:06:44
Und auf die Kühllösung für das kleine nV Atomkraftwerk bin ich am gespanntesten.....

Das mit den 2 Molex ist wirklich nur logisch, bei dem Verbrauch...(ich sehe schon auf der Verpackung: "500 Watt NT empfohlen" ;D )

Naja...PCI-Slot1 wird wohl definitiv bei der Kühl-Lösung draufgehen..wüsste nicht wie es sonst realisiert werden soll.

Ich hoffe nur inständig, das Sie denn auch eine Gegenwert (=schnell, besseres AA) für den Aufwand (150Watt, grosser (lauter??) Kühler) liefert...

Zum r420...lasst uns erst mal abwarten, ob von ATI nicht ähnliche Überraschungen kommen...

J.S.Shadow

Aquaschaf
2004-03-19, 22:28:57
Original geschrieben von AlfredENeumann
Hey, man spart im Winter ne menge Heizkosten !!!

Dafür brauchts aber nicht einmal eine 150W Graka ;)

Winter[Raven]
2004-03-19, 22:29:07
Hmmm ... kann es sein das INQ da ne "älteres" sample von von dem NV40 bekommen hat?

1) The Inquirer was talking to the wrong people
2) The Inquirer has misreported what they heard
3) That's just an old sample they had to show people at the show
4) They're planning to use the old NV40 in the lineup somewhere
5) There is no new NV40 (doubtful - too many knowledgable people have confirmed it)

robbitop
2004-03-19, 22:48:53
wieso sollte bei 175Mio Transistoren kein 8x2 Setup drinsein? 16 Colorops/Takt waren eh ein Unsinn.
Aber Demi hat mal gesagt, dass es machbar wäre bei 175Mio Transistoren ein 8x2 Setup unterzubekommen.
6x2 ist wegen der Quads ungünstig. Dann hätte man alle 2 Takte 3 Quads. Entwerder 4x2 oder 8x2 imo. Wobei das ganze Pipelinegetue echt unsinnig ist, da das mal vor ein paar Jahren noch Ausagekraft hatte, heutzutage sind Ops/Takt, die letztentlich netto rauskommen wichtig.

Natürlich gibt es kein "neuen" und "alten" NV40. Das kann man in der jetzigen Phase einfach nicht mehr machen. Ich denke im mittleren Planungsstadium hat sich evl einiges geändert. Denn eine alte Folie besagt 150Mio Transistoren, im Herbst waren es 175Mio. Die Folie ist alt und vieleicht hat man das Design unterschätzt oder ein wenig mehr gearbeitet als man ursprünglich wollte.
Aber akkut wie es über die Gerüchtemedien rüberkommt gibts keinen "neuen"/"alten" NV40 in dem Sinne. Genau wie die Sache mit 16x1 oder 210Mio Transistoren..ich frage mich woher die diese Infos haben... =)

hier eine kleine
Zusammenfassung (http://www.ttecx.de/files/news/article.php?article_file=1079731745.txt&showtopic=)

Winter[Raven]
2004-03-20, 00:04:31
Ahso ... der NV40 wird wohl doch schneller kommen als man sich wünscht ...

auf der Gforce NX Lan Party werden die PC mit dem NV40 ausgerüstet und die Gewinner bekommen eine geschenkt!

Wie es aussieht steht einer schnellen Markteinführung nix im Wäge ...!

Godmode
2004-03-20, 00:13:31
Original geschrieben von Winter[Raven]
Hmmm ... kann es sein das INQ da ne "älteres" sample von von dem NV40 bekommen hat?

1) The Inquirer was talking to the wrong people
2) The Inquirer has misreported what they heard
3) That's just an old sample they had to show people at the show
4) They're planning to use the old NV40 in the lineup somewhere
5) There is no new NV40 (doubtful - too many knowledgable people have confirmed it)

Von wo/wem hast du jetzt diese Info? oder ist das deine Einschätzung?

Winter[Raven]
2004-03-20, 00:14:55
Einschätzung von jemandem aus dem Beyond3d forum.

Godmode
2004-03-20, 00:19:14
http://www.theinquirer.net/?article=14830



"But slippery Nvidia seems to have hoodwinked its competition. Even some game developers and customers received 300MHz samples with an 8x2 marchitecture. And ATI is reeling in the ominous shadow of a 16-pipeline competitor."

Was wollen sie uns damit jetzt wieder sagen?

Nun doch 8*1? Ich glaube die haben in Hannover zu viel Bier gesoffen :)

Ailuros
2004-03-20, 00:50:21
Original geschrieben von Winter[Raven]
Hmmm ... kann es sein das INQ da ne "älteres" sample von von dem NV40 bekommen hat?

1) The Inquirer was talking to the wrong people
2) The Inquirer has misreported what they heard
3) That's just an old sample they had to show people at the show
4) They're planning to use the old NV40 in the lineup somewhere
5) There is no new NV40 (doubtful - too many knowledgable people have confirmed it)

(2)

thop
2004-03-20, 00:52:12
150W und 2 Stromstrecker? :o Als Kühlung wird diesmal wohl nicht mal der alte nVFön ausreichen. Sorry aber das mach ich nicht mehr mit! Da kann der NV40 von mir aus 3x so schnell sein wie der R420.

Das ist eindeutig ein Schritt in die falsche Richtung. Ich hoffe dass das bei ATI anders aussehen wird.

Ailuros
2004-03-20, 00:56:58
Original geschrieben von robbitop
wieso sollte bei 175Mio Transistoren kein 8x2 Setup drinsein? 16 Colorops/Takt waren eh ein Unsinn.
Aber Demi hat mal gesagt, dass es machbar wäre bei 175Mio Transistoren ein 8x2 Setup unterzubekommen.
6x2 ist wegen der Quads ungünstig. Dann hätte man alle 2 Takte 3 Quads. Entwerder 4x2 oder 8x2 imo. Wobei das ganze Pipelinegetue echt unsinnig ist, da das mal vor ein paar Jahren noch Ausagekraft hatte, heutzutage sind Ops/Takt, die letztentlich netto rauskommen wichtig.

Natürlich gibt es kein "neuen" und "alten" NV40. Das kann man in der jetzigen Phase einfach nicht mehr machen. Ich denke im mittleren Planungsstadium hat sich evl einiges geändert. Denn eine alte Folie besagt 150Mio Transistoren, im Herbst waren es 175Mio. Die Folie ist alt und vieleicht hat man das Design unterschätzt oder ein wenig mehr gearbeitet als man ursprünglich wollte.
Aber akkut wie es über die Gerüchtemedien rüberkommt gibts keinen "neuen"/"alten" NV40 in dem Sinne. Genau wie die Sache mit 16x1 oder 210Mio Transistoren..ich frage mich woher die diese Infos haben... =)

hier eine kleine
Zusammenfassung (http://www.ttecx.de/files/news/article.php?article_file=1079731745.txt&showtopic=)

Argggghhhh mein Kopf explodiert bald mit dem Quark.

Ach jetzt ist es "natuerlich" dass es keinen alten und neuen NV40 ploetzlich gibt? :kratz:

Nochmal Infos werden meistens falsch interpretiert, genau weil man nur mit generellen Zeug meistens von Quellen gefuettert wird; noch groesser wird die Gefahr so manches falsch zu interpretieren je mehr die Komplexitaet steigt.

Ailuros
2004-03-20, 00:58:32
Original geschrieben von thop
150W und 2 Stromstrecker? :o Als Kühlung wird diesmal wohl nicht mal der alte nVFön ausreichen. Sorry aber das mach ich nicht mehr mit! Da kann der NV40 von mir aus 3x so schnell sein wie der R420.

Das ist eindeutig ein Schritt in die falsche Richtung. Ich hoffe dass das bei ATI anders aussehen wird.

Ich hab zwar keine Ahnung wie der Stromverbrauch bei R420 aussieht, aber ueber derartige Phaenomena sollte man vorbereitet sein, wenn man >160M Transistoren und >500MHz hoert.

LovesuckZ
2004-03-20, 07:49:24
Also, aeh, aehm, okay, jetzt sollte man sich festhalten, auch wenn dies nicht stimmen sollte:

The card that was running those games was an NV40 ( it was an A2 revision ) clocked at 475mhz Core and 1.2ghz memory ( gddr3 ) and 256mb. The card IT IS 16x1 as the fillrate shows it. With 3dmark2001 give results of 7010 Mpixels/s for single texturing and 7234 Mpixels/s for multi texturing ( pretty impressive don't? ).The PS performance is boosted a lot, at least 2.5x faster and even got to 5x faster.

Vegetto-eX (http://www.beyond3d.com/forum/viewtopic.php?t=10946)

Sollte das stimmen, werde ich wohl nen kleinen Kredit bei meinen Eltern aufnehmen :D

/edit: Zu den 16x1: Es kann auch sein, dass Nvidia die Singletexturingoptimierung verwenden werde. Also sich hier nicht so dran aufhaengen.
Ansonsten spreche auch die 2.5 fache schnellere PS2.0 Geschwindigkeit aus meiner Sicht eher für 8x2, da alleine 16FP Pipelines mindesten 3-4 fach schnelelr sein sollte (16 zu 4 Arithmetische OPS oder so).

/edit2: Das ist ja wie Weihnachten:

3. Stuff I know. NV40 Ultra is clocked at 475/600, GDDR3, revision A2, will probably be an A3 at some point for power consumption, 16x1, very significant pixel shader improvements (guessing that for register-intensive FP32 shaders, we're looking at a 4-6x performance improvement versus NV35 clock-for-clock...), RGMS, adaptive AF (don't know if there will still be non-adaptive AF, we'll see), will ship with Forceware 60, review boards will be out end of March. [...] (PS--it's 16x1. Period. There is no doubt.)

The Baron (http://www.beyond3d.com/forum/viewtopic.php?p=240564#240564)

Interessant ist das mit dem AF. Nunja, war absosehen, dass Nvidia wohl auch diesem Weg des "winkelabhaengigen" AF's gehen werde...

ShadowXX
2004-03-20, 08:17:36
Ich sag jetzt nur mal, das ich ein X*1 Design bei nV für ungewöhnlich halten würde....

J.S.Shadow

robbitop
2004-03-20, 08:18:13
@AiL
nein diesmal warst DU derjenige der meine Aussagen bzgl NV40 (neu/alt) fehlinterpretiert hat.
Ich habe niemals behauptet, dass man das kurzfristig so geändert hat, im Gegensatz zu anderen.

Und bitte beschimpfe nicht alles so mit "Quark"...finde ich ein paar Leuten ggü etw unfair. Das machst du nämlich schon die ganze Woche und länger.

Sachlich kommentieren und argumentieren oder eben gar nicht, alles andere ist ein Level auf dem man sich nicht aufhalten sollte.

Exxtreme
2004-03-20, 08:26:12
Original geschrieben von LovesuckZ
Interessant ist das mit dem AF. Nunja, war absosehen, dass Nvidia wohl auch diesem Weg des "winkelabhaengigen" AF's gehen werde...

Naja, "adaptiv" kann alles Mögliche bedeuten. Es kann sein, daß damit schlicht und ergreifen dieses brilineare AF gemeint ist. :|

robbitop
2004-03-20, 08:27:29
nunja es könnte möglich sein, dass wenn man ein 8x2 Setup hat dies wie der NV31/36 auf 16x1 bei Singletexturing umzulagern. (2x2 -> 4x1). Letztendlich sind das für mich 16 colorops/takt bei Singletexturing und 8 Colorops/Takt bei Multitexturen aber eben mehr Textusamples.
Aber 16 Pipes sind das für mich deswegen noch lang nicht. Gut man hat evl auch 16 Z/Stencil Units aber nicht soviele Rechenwerke wie für 16 "vollständige Pipes" nötig wären.
Ehrlich gesagt ist der Bergiff Pipelines eh schon zu abgegriffen.

Ausserdem solte man die Aussagen der beiden nich überbewerten. Denn wer ein NV40 sample in die Hände bekommt, der hat auch ein NDA und das brechen die Wenigsten und auch TheinQ wollte ein Sample gehabt haben.

Winkeladaptiv ist das AF vom NV30 schon wenn man auf Medium Quality aussucht, jedoch etwas ZU winkeladaptiv. Ich hoffe, dass es den HighQuality Mode beim NV40 noch gibt, das AF der FX möchte ich eigentlich nicht missen...

Was RGMS angeht, das hat die FX auch schon..2xRGMS. Also das sind keine wahren Aussagen für mich.

Demirug
2004-03-20, 08:34:10
Original geschrieben von Exxtreme
Naja, "adaptiv" kann alles Mögliche bedeuten. Es kann sein, daß damit schlicht und ergreifen dieses brilineare AF gemeint ist. :|

Nicht nur das. nVidia bezeichnet das AF mindestens seit der GF3 als adaptiv. Adaptiv ist dabei die Anzahl der benutzen Texel aufgrund des dx/dy verhältnisses. Vielleicht hat man auch weiter mit der Idee rumgespielt den Texturinhalt als Kriterium heran zu ziehen.

robbitop
2004-03-20, 08:36:53
Posts: 200 Posted: Sat Mar 20, 2004 6:56 am Post subject: Vegetto-eX wrote: "bah I missed something with 16-bit Z the fillrate was 7190 for single texturing and 7330 for multi texturing" Sounds like BS to me. 16 pixels per clock at 475 mhz uses 60 GB/s bandwidth if you don't want it to be bandwidth limited. The single texture fillrate of 7190 implies it is barely bandwidth limited (475 * 16 = 7.6 Gpixels/s). If you take 7190/7600 and compute the required bandwidth, you get 57.5 GB/s, but since nothing is fully efficient it would have to be higher than this. I don't buy it. -FUDie

die beiden "Entwickler" haben sich ordentlich verhaspelt..das senkt die Glaubwürdigkeit..wie gesagt, so viel würd ich auf die beiden "unbekannten" vorerst nicht setzen.

Ailuros
2004-03-20, 08:39:07
Original geschrieben von robbitop
@AiL
nein diesmal warst DU derjenige der meine Aussagen bzgl NV40 (neu/alt) fehlinterpretiert hat.
Ich habe niemals behauptet, dass man das kurzfristig so geändert hat, im Gegensatz zu anderen.

Und bitte beschimpfe nicht alles so mit "Quark"...finde ich ein paar Leuten ggü etw unfair. Das machst du nämlich schon die ganze Woche und länger.

Sachlich kommentieren und argumentieren oder eben gar nicht, alles andere ist ein Level auf dem man sich nicht aufhalten sollte.

Ich koennte natuerlich auch ueber das Niveau von Inquirer oder aehnlichen "Quellen" sachlich kommentieren, aber das wuerde meine Meinung auch nicht um sehr viel aendern.

Nimm mein Zeug nicht persoenlich und auch nicht sentimental. Diejenigen die sich als "unfair" behandelt fuehlen, koennen sich ja beim Inquirer oder anderen Quellen dann beschweren, dass vorige Info nicht der Wahrheit entsprach.

Ich hab nie von kurz- oder langfristigen groesseren Aenderungen bei der NV40 Entwicklung persoenlich gehoert; kleinere passieren im Raum des Moeglichen bei allen Designs.

Mein Niveau stelle ich nicht zur Debatte frei; ueberhaupt wenn es sowieso irrelevant zum Thema ist.

***edit:

Well, I feel justified in my skepticism. Just like on the ATI side with HB, DT, et al, there seem to be a Cabal of people who claim to have inside information on the NV40, but ironically, that information is a moving target, constantly changing. You know, "I know a guy who knows a guy ..." There are few people are who actually under NDA and know the real facts, but if they've got integrity, they aren't speaking.

I'm signed up April 13th for SF unveiling. I'll find out for myself.

http://www.beyond3d.com/forum/viewtopic.php?t=10936&start=100

*hust*

ShadowXX
2004-03-20, 08:50:59
Original geschrieben von robbitop
@AiL
nein diesmal warst DU derjenige der meine Aussagen bzgl NV40 (neu/alt) fehlinterpretiert hat.
Ich habe niemals behauptet, dass man das kurzfristig so geändert hat, im Gegensatz zu anderen.

Und bitte beschimpfe nicht alles so mit "Quark"...finde ich ein paar Leuten ggü etw unfair. Das machst du nämlich schon die ganze Woche und länger.

Sachlich kommentieren und argumentieren oder eben gar nicht, alles andere ist ein Level auf dem man sich nicht aufhalten sollte.

Schon mal als überlegung gahabt, das sich nie etwas an dem Chip geändert hat??? ....und das ganze alt,neu,mittel gerede nur durch Fehlinformationen und Fehlinterpretationen überhaupt erst aufkaum....

Wen INQ (was wieso die Quelle vor dem Herrn ist) jetzt plötzlich reinschmeissen würde:
"Its really a 210Mio Chip and has a 512Bit Memory Interface"...was meist du wie viele wiederum auf diese Meldung anspringen würden...
Am besten würde ein anderes Posting dazu passen..."ich glaube die haben einfach zu viel Bier auf der CeBit gesoffen...."

Davon abgesehen, das sich Barons Posting (und die seines Kumpels) doch stark nach Vermutungen und etwas Marketing anhören...denn aussagen tun sie nicht allzuviel...
Sie ziehen wohl fast alle ihre Infos aus einem 3DMark03 durchlauf und vielleicht der Painkiller Demo...und interpretieren den Rest rein...(und Testläufe auf der Karte werde wohl nur mit von nV "ausgewählter" SW gemacht...übrigens ist Painkiller PS/VS1.1....und der 03 ja auch mehr ein Pseudo 2.0 Mark)

Davon mal abgesehen, das nV wohl kaum einen von beiden (und bestimmt nicht INQ) eine fertige Karte in die Hand gedrückt hat....

J.S.Shadow

//Edit: hab gerade gesehen, das du die Glaubwürdigkeit der beiden auch nicht mehr als bare münzen nimmst...wir sollte wirklich auf etwas bessere quellen warten

Demirug
2004-03-20, 08:55:45
Wenn wir mit Wahrscheinlichkeiten spielen dann ist die Wahrscheinlichkeit das besagte Person eine echte Karte hatte wensetlich höher als die das es ein Fake ist. Ich werde das nicht begründen sondern einfach so stehen lassen.

Der Hauptgrund warum ich mich gegen 16 vollständige Pipelines (Pixelprocessor + Rasteroperatoren) gewehrt habe ist die benötigte Bandbreite die ein solche Setup verbrauchen würde. Aus diesem Grund war NV30 ja auch nur ein 4*2 Setup weil er ursprunglich für ein 128 Bit Speicher interface entworfen wurde.

Die Ergebnisse im 3dMark Fillratetest die erreicht wurden Strafen mich jetzt aber irgendwie Lügen. Für 7010 MPixel braucht man dort eigentlich 56080 MB/s nur für den Framebuffer. Mit 600 MHZ GDDR3 hat man aber nur 38400 MB/s. Entweder hat nVidia einen DR gabaut womit das Alphablending nicht mehr auf die Bandbreite geht oder die Framebufferkompression funktioniert jetzt auch ohne AA. In diesem Fall macht ein Steup das 16 vollständige Pixel/Takt ausgeben kann Sinn.

Was nun die PS Performance angeht so müsste man wissen welche Tests genau gefahren wurden. Wurden wirklich nur 2.0 Shader gemssen? Bei 1.1-1.4 Shader sollte der Sprung kleiner ausfallen. Desweiteren kann auch ein 2.0 Shader immer noch Füllraten limitiert sein. Und die hätte sich ja nur verdoppelt. Und als letztes sollte man noch bedenken das die Treiber noch nicht final sein. Der interne Shadercompiler für die NV3X Chips funktioniert definitive nicht mehr mit den NV4X Chips. Auch wenn die Struktur vereinfacht wurde ohne guten Shadercompiler kann man nicht das maximum herausholen.

Ein letztes noch. Hört bitte auf von einem alten und neuen NV40 zu sprechen. Davon bekomme ich Kopfschmerzen.

Ailuros
2004-03-20, 09:05:31
Die Ergebnisse im 3dMark Fillratetest die erreicht wurden Strafen mich jetzt aber irgendwie Lügen. Für 7010 MPixel braucht man dort eigentlich 56080 MB/s nur für den Framebuffer. Mit 600 MHZ GDDR3 hat man aber nur 38400 MB/s. Entweder hat nVidia einen DR gabaut womit das Alphablending nicht mehr auf die Bandbreite geht oder die Framebufferkompression funktioniert jetzt auch ohne AA. In diesem Fall macht ein Steup das 16 vollständige Pixel/Takt ausgeben kann Sinn.

Wie ich schon bei B3D schrieb, wuerde ich persoenlich Fuellraten von anderen Applikationen wie MDolenc oder SS:SE bevorzugen und das mit MSAA eingesetzt.

Falls sich die 3dmark Fuellraten quasi bestaetigen sollten, dann hat NVIDIA tatsaechlich einen sehr imposanten Chip zusammengebastelt.

ShadowXX
2004-03-20, 09:06:27
Original geschrieben von robbitop
die beiden "Entwickler" haben sich ordentlich verhaspelt..das senkt die Glaubwürdigkeit..wie gesagt, so viel würd ich auf die beiden "unbekannten" vorerst nicht setzen.

einfach mal nur ein ack...

@Demi: ich würde die in den Raum geworfenen Zahlen einfach mal nur in die Ablage tun....um Sie später mit dem was wirklich rauskommt zu vergleichen....
Ich "esse" die ca. 7000MPixel noch nicht..(speziell so früh am Morgen..)

J.S.Shadow

Demirug
2004-03-20, 09:54:30
Original geschrieben von ShadowXX
@Demi: ich würde die in den Raum geworfenen Zahlen einfach mal nur in die Ablage tun....um Sie später mit dem was wirklich rauskommt zu vergleichen....
Ich "esse" die ca. 7000MPixel noch nicht..(speziell so früh am Morgen..)

J.S.Shadow

Natürlich muss man solche Zahlen mit vorsicht genissen. Die Quelle kann sich die technischen Daten auch sonst wo her besorgt haben und dann ein paar Zahlen erfunden haben.

Technisch sind 7000 MPixel/s in Verbindung mit Framebuffer Compression aber möglich. Und nur dann machen die 16 vollständen Pipelines auch Sinn. OK ob es wirklich 16 vollständige (Pixelprocessor+ROPs) Pipelines sind wissen wir ja nicht wirklich.

zeckensack
2004-03-20, 10:07:55
Original geschrieben von Demirug
Natürlich muss man solche Zahlen mit vorsicht genissen. Die Quelle kann sich die technischen Daten auch sonst wo her besorgt haben und dann ein paar Zahlen erfunden haben.

Technisch sind 7000 MPixel/s in Verbindung mit Framebuffer Compression aber möglich.IMO macht das einfach keinen Sinn. Welche Techniken gibt's denn für verlustfreie Farb-Kompression, die für kleine Blockgrössen überhaupt geeignet sind?
Mir fällt da jetzt nur RLE und "wir sind alle gleich" ein. Beides ist (ohne MSAA) völliger Quatsch für einen Grafikchip.

... im 3DMark-Füllratentest könnte es in der Tat was bringen (stark vergrösserte Texturen lassen sich ganz gut mit Block-RLE komprimieren), aber für die Praxis IMO total unnütz :|

Dictionary-basierte Kompressionsverfahren ala LZW scheiden aus. Bei irgendwo zwischen 4 und 64 Worten pro Block gibt's dafür einfach keine Grundlage. Man könnte Deltas komprimieren und ein statisches Dictionary benutzen (Huffman bietet sich dann an), etc pp, yadda yadda. Da kann man sicher eine ganze Menge rumbasteln.

Dass sich das dann letztendlich lohnen kann, vA wenn man sich überlegt, wofür man solche Schleudern eigentlich braucht (maximale Details = viel Kontrast = schlechte Komprimierbarkeit), glaube ich trotzdem nicht.

Demirug
2004-03-20, 11:10:40
Was die Blockgrösse angeht müssten wir mit mindestens 128 Byte eher mit 256 Byte rechnen. Das ist technisch durch GDDR3 bedingt. Das sind 32 oder 64 Pixel pro Block. Mit 8*8 Pixel kann man ja schon ein bischen was komprimieren. Ich würde DPCM pro Farbebene vorschlagen. Eventuel noch ein paar Spezialmodies wie Farbebene unbenutzt (alles 0) oder Farbebene konstant.

zeckensack
2004-03-20, 14:08:03
Original geschrieben von Demirug
Was die Blockgrösse angeht müssten wir mit mindestens 128 Byte eher mit 256 Byte rechnen. Das ist technisch durch GDDR3 bedingt. Das sind 32 oder 64 Pixel pro Block. Mit 8*8 Pixel kann man ja schon ein bischen was komprimieren. Ich würde DPCM pro Farbebene vorschlagen. Eventuel noch ein paar Spezialmodies wie Farbebene unbenutzt (alles 0) oder Farbebene konstant. DPCM?
"Doberman Pinscher Club of Missouri" (http://www.dpcm.org/)? :D
Oder doch eher sowas (http://www.cmlab.csie.ntu.edu.tw/cml/dsp/training/coding/dpcm/)? Das eignet sich IMO eher für verlustbehaftete Kompression :|

(und ja, ich habe sowas schonmal implementiert, kannte allerdings den Begriff nicht)

Ährm, edit: Auf etwas in der Art (aber natürlich nicht verlustbehaftetes) wollte ich hinaus, als ich oben von "Deltas komprimieren" und Huffman sprach. Auch sowas habe ich schon gemacht (zuletzt für den Bröter).

Demirug
2004-03-20, 15:21:27
Original geschrieben von zeckensack
DPCM?
"Doberman Pinscher Club of Missouri" (http://www.dpcm.org/)? :D
Oder doch eher sowas (http://www.cmlab.csie.ntu.edu.tw/cml/dsp/training/coding/dpcm/)? Das eignet sich IMO eher für verlustbehaftete Kompression :|

(und ja, ich habe sowas schonmal implementiert, kannte allerdings den Begriff nicht)

Ährm, edit: Auf etwas in der Art (aber natürlich nicht verlustbehaftetes) wollte ich hinaus, als ich oben von "Deltas komprimieren" und Huffman sprach. Auch sowas habe ich schon gemacht (zuletzt für den Bröter).

Habe ich mir fast schon gedacht aber Inzwischen abe ich noch eine andere Idee die viellicht noch etwas Hardwarefreundlicher ist. Dynamische Bitlängen pro Pixel sind ja nicht unbedingt das Wahre. Ich muss das allerdings noch etwas ausarbeiten.

Xmas
2004-03-21, 17:39:04
Was die Bandbreitennutzung angeht, habe ich in diesem Beitrag (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1605930#post1605930) ja schon einmal etwas spekulativ herumgerechnet...

aths
2004-03-21, 18:41:02
Original geschrieben von r@e
Noch gibt es KEINE Fakten von den Herstellern.Ach nee? :| Ich lese im Thread massenhaft Fakten. Allerdings auch massenhaft falsches.

Aqualon
2004-03-21, 19:16:15
Der "First hands-on look at NV40" hat IMO gar nicht stattgefunden.

In zitiertem Artikel schreibt Paul Dutton "THE INQUIRER has managed to get hold of one NV40 sample." Aber im Artikel http://www.theinquirer.net/?article=14834 schreibt wiederum Paul Dutton unter anderem "These NV40 GPU Guards were apparently under instructions to not even leave their ‘trusted’ partners alone with the prized little jewel!"

Warum er an einem Tag in dem CeBIT-Bericht schreibt, dass sie einen NV40 in der Hand hatten, aber am Tag darauf sagt, dass sie keinen zu Gesicht bekommen haben, weil sie "not in a position to sign Nvidia’s gagging agreements." sind, wird wohl sein Geheimnis bleiben.

Aqua

r@e
2004-03-21, 19:47:51
Also die INQ-'Aussagen' zu diesem Thema würde ich noch mit den größten Fragezeichen versehen wollen !

Razor

reunion
2004-03-21, 22:29:53
Original geschrieben von Aqualon
Der "First hands-on look at NV40" hat IMO gar nicht stattgefunden.

In zitiertem Artikel schreibt Paul Dutton "THE INQUIRER has managed to get hold of one NV40 sample." Aber im Artikel http://www.theinquirer.net/?article=14834 schreibt wiederum Paul Dutton unter anderem "These NV40 GPU Guards were apparently under instructions to not even leave their ‘trusted’ partners alone with the prized little jewel!"

Warum er an einem Tag in dem CeBIT-Bericht schreibt, dass sie einen NV40 in der Hand hatten, aber am Tag darauf sagt, dass sie keinen zu Gesicht bekommen haben, weil sie "not in a position to sign Nvidia’s gagging agreements." sind, wird wohl sein Geheimnis bleiben.

Aqua

War irgendwie sowieso klar dass die Zahlen gefaked sind...

r@e
2004-03-21, 22:47:37
Original geschrieben von reunion
War irgendwie sowieso klar dass die Zahlen gefaked sind... Was für Zahlen ?
Die 175mio Transistoren und die beiden Molex-Anschlüsse ?
:???:

Razor

aths
2004-03-22, 01:11:00
Original geschrieben von robbitop
nunja es könnte möglich sein, dass wenn man ein 8x2 Setup hat dies wie der NV31/36 auf 16x1 bei Singletexturing umzulagern.Wenn das mit den >200 Mio. Transistoren stimmt, sind 16 "echte" Pipelines denkbar. Da man dann 1 TMU pro Pipe einspart, könnte man auch etwas an der aritmetischen Rechenkraft pro Pipe sparen.

robbitop
2004-03-22, 08:42:30
für ein Xx1 Setup müsste man allerdings in den Pipelines selbst einiges ändern, da afaik die CineFX Architektur auf Xx2 abgestimmt ist. Zuviel Aufwand für den Nutzen??
Ich könnte mir wie gesagt lediglich diesen Double Pumped Mode von NV31/36 für Singletexturing vorstellen. Ansonsten hat XMas ja mal recht schön ausgerechnet, dass 16 Colorops/Takt nicht in ein 256bit DDR Interface "hineinpassen". Das Verhältnis zw Speicher- und Chiptakt müsste dann 1,6:1 betragen.

Sicher ist 16x1 besser für die Granularität, aber so ein Sprung vom NV35 zum NV40??

Gast
2004-03-22, 08:55:59
Original geschrieben von robbitop
für ein Xx1 Setup müsste man allerdings in den Pipelines selbst einiges ändern, da afaik die CineFX Architektur auf Xx2 abgestimmt ist. Zuviel Aufwand für den Nutzen??
Ich könnte mir wie gesagt lediglich diesen Double Pumped Mode von NV31/36 für Singletexturing vorstellen. Ansonsten hat XMas ja mal recht schön ausgerechnet, dass 16 Colorops/Takt nicht in ein 256bit DDR Interface "hineinpassen". Das Verhältnis zw Speicher- und Chiptakt müsste dann 1,6:1 betragen.

Sicher ist 16x1 besser für die Granularität, aber so ein Sprung vom NV35 zum NV40??

Wer sagt hier eigentlich, daß es "16x1" ist, bzw. wo ist die Quelle dafür?

AFAIK gab es nur die Information, daß man 16 Pixel inkl. Color-Writes pro Takt "kann". Ob der "Double-Pumped" Modus drin ist oder nicht, ist ja eigentlich wurscht, da bei mehr als einer bilinearen Textur ja sowieso nur noch 8 Texel drin wären, bei mehr als einer trilinearen Textur nur noch deren 4.
Dank Caching usw. ist dann auch Bandbreite nicht mehr so ein Problem, da sich viele Texturinformationen dann wiederverwenden lassen dürften.
Der "16x1"-Modus dürfte nur der Granularität und dem Quad-basierenden Design der Pixelprozessoren geschuldet sein, wenn denn die Gerüchte stimmen und der nV40 nicht doch nur ein aufgebohrter nV38 mit 100Millionen Massetransistoren für 1,5GHz Chiptakt ist, gefertigt in 0,09 im östlichen Fischmord von internationalen Geschäftsmaschinen.

Ailuros
2004-03-22, 09:01:18
Sicher ist 16x1 besser für die Granularität, aber so ein Sprung vom NV35 zum NV40??

Die Frage ist noch etwas fruehzeitig IMHO. Ist alles sehr relativ; sogar SIMD=!SIMD in allen Faellen.

Denk so dran: kommt im Durchschnitt beim NV40 am Ende z.B. 2*NV35 (oder mehr) raus, dann ist der "Sprung" von NV35 genau wie gross?

Was ich damit meine ist dass man womoeglich beim ersten Blick sagen koennte: "woaaa 16x1 vs 4*2...das ist etwa 4x so viel"; 4x so viel was genau ueberhaupt wenn die SIMDs nicht gleich gross oder identisch sind.

***edit:

bin mir sicher dass es schon gepostet wurde:

http://www.bodnara.co.kr/bbs/?imode=view&D=6&num=50148&category=33

BK-Morpheus
2004-03-22, 09:01:54
wenn die neuen Karten allesamt 2 Stromanschlüsse haben und auch dementsprechend den Strom verbraten wie nix gutes, dann hab ich jetzt schon keinen Bock mir ne neue Graka zu kaufen.

Ich wollte meinen PC eigentlich etwas stromsparender machen (also TFT statt CRT, standard Vcore statt maximales OCing und evtl. eine Graka mit 0,13µm fertigungspreozess, die wenig Verlustleistung hat), aber so eine Monsterkarte verbraucht dann ja sicher übel viel Strom.

aths
2004-03-22, 09:27:02
Original geschrieben von robbitop
Sicher ist 16x1 besser für die Granularität, aber so ein Sprung vom NV35 zum NV40?? Der Sprung von NV5 zum NV10 war 2x1 bi -> 4x1 tri.

Demirug
2004-03-22, 10:02:50
Original geschrieben von robbitop
für ein Xx1 Setup müsste man allerdings in den Pipelines selbst einiges ändern, da afaik die CineFX Architektur auf Xx2 abgestimmt ist. Zuviel Aufwand für den Nutzen??
Ich könnte mir wie gesagt lediglich diesen Double Pumped Mode von NV31/36 für Singletexturing vorstellen. Ansonsten hat XMas ja mal recht schön ausgerechnet, dass 16 Colorops/Takt nicht in ein 256bit DDR Interface "hineinpassen". Das Verhältnis zw Speicher- und Chiptakt müsste dann 1,6:1 betragen.

Sicher ist 16x1 besser für die Granularität, aber so ein Sprung vom NV35 zum NV40??

CineFX I war auf eine x2 Struktur designt weil man damit eine gute Ausnutzung des FP Rechenwerks erreichen konnte. Der Trick stamt noch aus dem NV2X.

Geht man nun auf x1 gibt die Effiziente Ausnutzung einer FPU zu Texturzwegen für eine bessere Granularität auf. Zudem wird es einfacher einen Shadercompiler zu schreiben.

robbitop
2004-03-22, 10:34:58
@BK Morpheus

wer ernsthaft stromsparen möchte, greift sowieso nicht zu HighEnd Karten und HighEnd CPUs.
Allein die Wandler verbraten ja schon mehr als low Voltage.

Man muss sich eben entscheiden. Wenn du lediglich den "Kompromiss" suchst, wähle den Deltachrome oder eine Radeon9600. Alles andere ist nicht wirklich Stromsparend. Bei CPUs brauchst man gar nicht beim P4 oder beim K7 zu suchen, zieht alles extrem viel Strom...naja ist eben OT.

@Demi
klingt plausibel
aber was ist mit der Rechnung von XMas?

robbitop
2004-03-22, 10:36:42
@aths
NV10 war nicht 4x1tri sondern bi ;)
ausserdem sind NV5 und NV10 sicher in ganz anderen Relationen zu sehen als heutige VPUs oder?

StefanV
2004-03-22, 10:38:04
Original geschrieben von robbitop
@aths
NV10 war nicht 4x1tri sondern bi ;)
ausserdem sind NV5 und NV10 sicher in ganz anderen Relationen zu sehen als heutige VPUs oder?

Nein, der NV10 war 4x1 Tri, der sollte aber anscheinend 4x2 werden, was aber nicht so ganz geklappt hat, da irgendwas 'quer' sitzt...

robbitop
2004-03-22, 10:40:04
woooha, bist du sicher?
und warum hat NV15 einen solchen Füllratenvorteil ggü NV10?

StefanV
2004-03-22, 10:43:03
Original geschrieben von robbitop
woooha, bist du sicher?
und warum hat NV15 einen solchen Füllratenvorteil ggü NV10?

1. ich nicht, andere schon, denen ich (ver)traue, XMas z.B.

2. weil der nV10 nur eine TMU hat und nicht ganz so hoch wie ein nV15 getaktet ist, würd ich mal vermuten ;)

Exxtreme
2004-03-22, 10:46:17
Original geschrieben von robbitop
woooha, bist du sicher?
und warum hat NV15 einen solchen Füllratenvorteil ggü NV10?
200 MHz vs. 120 MHz und 4x1 tri-TMU vs 4x2 bi-TMU. :) Leider brachte das kaum was da hier die relativ niedrige Bandbreite limitierte.

robbitop
2004-03-22, 10:51:41
es gab eine DDR Variante der GF1 das weisst du aber oder? ;)

StefanV
2004-03-22, 10:53:39
Original geschrieben von robbitop
es gab eine DDR Variante der GF1 das weisst du aber oder? ;)

ja, 150MHz vs 166MHz, das brachte der GF2 aber auch nicht wirklich weiter, da sie damals arg Bandbreiten limitiert waren...

Exxtreme
2004-03-22, 10:55:29
Original geschrieben von robbitop
es gab eine DDR Variante der GF1 das weisst du aber oder? ;)
Ja, das weiss ich. Trotzdem reichte die Bandbreite in den meisten Fällen nicht um die Pipes zu füttern. Und bei der GF2 war das Verhältnis auch sehr ungünstig.

Demirug
2004-03-22, 10:57:01
Original geschrieben von robbitop
@Demi
klingt plausibel
aber was ist mit der Rechnung von XMas?

Was soll mit der Rechnung sein?

Das man um 16Pixel/Takt in den Speicher zu bekommen entweder kompression oder viel Bandbreite braucht habe ich ja schon gesagt. Ich habe aber auch schon gesagt das 4 Pixelprozessoren a 4 Pixel nicht unbedingt auch 16 ROPs bedeuten müssen.

robbitop
2004-03-22, 11:09:29
die GF2 hatte eine sehr Ähnliche Bandbreite wie die GF1DDR und trotzdem war sie deutlich deeuuuutlich schneller ;) ...wie erklärst du dir das Exxtreme?

BK-Morpheus
2004-03-22, 11:15:28
Original geschrieben von robbitop
@BK Morpheus

wer ernsthaft stromsparen möchte, greift sowieso nicht zu HighEnd Karten und HighEnd CPUs.
Allein die Wandler verbraten ja schon mehr als low Voltage.

Man muss sich eben entscheiden. Wenn du lediglich den "Kompromiss" suchst, wähle den Deltachrome oder eine Radeon9600. Alles andere ist nicht wirklich Stromsparend. Bei CPUs brauchst man gar nicht beim P4 oder beim K7 zu suchen, zieht alles extrem viel Strom...naja ist eben OT.


Dennoch kann das doch nicht der Sinn des Fortschritts sein, dass die neuen Karten so viel verbraten....wäre doch schön, wenn die Hersteller diesen Aspekt berücksichtigen und die Karten so optimieren, dass die Leistung steigt, aber der Stromverbrauch annähernd gleich bleibt....vielleicht ist mehr Leistung ja nicht möglich ohne deutlich mehr Stromverbrauch, aber es kann ja sein, dass man einen Weg findet, um es doch zuschaffen.

Ich würde das jedenfalls sehr begrüßen.

Gast
2004-03-22, 15:10:54
hi,
ich habe mal ne kleine verständnisfrage:
wieso brauch man 2 anschlüsse? ist die frage nicht eher wie viel die PSU bringt? man liest doch immer die angaben für die einzelnen spannungen, wie viel W max sind. wo ist der unterschied, ob ich das nun über ein kabel ziehe oder über 2? das kabel wird ja wohl net durchschmelzen oO :/. die einzige erklärung wäre das es noch ne andere spannung vom netzteil haben will?

grüsse steve

Demirug
2004-03-22, 15:35:17
Original geschrieben von Gast
hi,
ich habe mal ne kleine verständnisfrage:
wieso brauch man 2 anschlüsse? ist die frage nicht eher wie viel die PSU bringt? man liest doch immer die angaben für die einzelnen spannungen, wie viel W max sind. wo ist der unterschied, ob ich das nun über ein kabel ziehe oder über 2? das kabel wird ja wohl net durchschmelzen oO :/. die einzige erklärung wäre das es noch ne andere spannung vom netzteil haben will?

grüsse steve

Wenn man 2 Anschlüsse nimmt muss man über einen nicht so viel Strom jagen. Die Pins eines solchen Anschlusses sind auf maximal 6,5A genormt.

Gast
2004-03-22, 15:46:53
achso, ok danke!

zeckensack
2004-03-22, 16:05:45
Original geschrieben von robbitop
die GF2 hatte eine sehr Ähnliche Bandbreite wie die GF1DDR und trotzdem war sie deutlich deeuuuutlich schneller ;) ...wie erklärst du dir das Exxtreme? Hat er doch schon: 200MHz vs 120MHz (IIRC waren's aber 125MHz). Bei der GF2U sogar 240MHz.
In 32Bit Farbtiefe verpufft ein Grossteil dieser Mehrleistung an der Bandbreite. In 16 Bit sieht's natürlich ganz anders aus, da versägt die GF2 die GF1 ziemlich derb.

Endorphine
2004-03-22, 16:22:10
Original geschrieben von zeckensack
Hat er doch schon: 200MHz vs 120MHz (IIRC waren's aber 125MHz). Bei der GF2U sogar 240MHz. Nicht ganz. :kicher:
NV10: 120 MHz Kern, 166 MHz SDR-SD/GRAM, 150 MHz DDR-SD/GRAM
NV15 GTS: 200 MHz Kern, 166 MHz DDR-SD/GRAM
NV15 PRO: 200 MHz Kern, 200 MHz DDR-SD/GRAM
NV15BR ("Ultra"): 250 MHz Kern, 230 MHz DDR-SD/GRAM
NV15 Ti: 250 MHz Kern, 200 MHz DDR-SD/GRAM

Wenn ich nichts verwechselt habe müsste die Liste so stimmen.

Gast
2004-03-22, 16:25:37
Jo, bis auf Kleinigkeiten, z.B. SGRAM war nicht bei der Ultra/Pro/Ti verbaut, aber egal.

@Zecki:
125MHz waren's IIRC nur bei Hercules ;)

zeckensack
2004-03-22, 16:27:22
Ah, danke :kicher:

Endorphine
2004-03-22, 16:28:19
Original geschrieben von Gast
Jo, bis auf Kleinigkeiten, z.B. SGRAM war nicht bei der Ultra/Pro/Ti verbaut, aber egal. Meine Leadtek GF2Ti hatte wirklich DDR-SGRAM. :) Ist aber wie du schon sagst egal — der NV15 hat eh' keinen Nutzen daraus gezogen.

StefanV
2004-03-22, 17:29:09
Original geschrieben von Endorphine
Meine Leadtek GF2Ti hatte wirklich DDR-SGRAM. :) Ist aber wie du schon sagst egal — der NV15 hat eh' keinen Nutzen daraus gezogen.

Richtig, die nV Chips können mit Block Write und den anderen SGRAM Features nicht umgehen, die Konkurenz, z.B. 'Ferrari', kanns hingegen...

Xmas
2004-03-22, 17:32:17
Original geschrieben von robbitop
Ansonsten hat XMas ja mal recht schön ausgerechnet, dass 16 Colorops/Takt nicht in ein 256bit DDR Interface "hineinpassen". Das Verhältnis zw Speicher- und Chiptakt müsste dann 1,6:1 betragen.
Davon ab dass ich nicht genau weiß, was du mit "Colorops" meinst, interpretierst du mich hier wohl ein wenig falsch.

Übrigens... wie oft war ein NVidia Flagschiff-Produkt im Single-Texturing-Fall nicht bandbreitenlimitiert?

HeHe_1687
2004-03-22, 18:18:39
mal so ne zwischenfrage... wie sollte man 150W (nur chip) bei einer graka abführen... naja speicher wird ja auch heiß werden??? :O
greetz

ironMonkey
2004-03-22, 18:50:35
Ach was, wer sagt den sowas, ich schätze den Chip alleine so auf 80 - 90 Watt und Gesamt so 110 - 120 Watt, das währe in Sachen Leistung/verbauch um welten besser als die derzeitigen high end Karten.



Gruß

HeHe_1687
2004-03-22, 18:54:20
asooooooo....lol.. sorry
ja wie viel haben di jetztigen in etwa???
greetz=)

robbitop
2004-03-22, 19:06:34
@Xmas
~2x mal??
FX5900 und 5950
mit Colorops meine ich Farbwerte pro Pass.
16x1 hat 16 Farbwerte. 8x2 nur 8.
4 Quads : 2 Quads


wenn ich mich recht errinnere hat die NV15 den NV10 auch unter 32bb ordentlich verkloppt und der Chiptakt ist für mich kein Argument, wenn man behauptet dass sogar bei der GF1DDR die Bandbreite limitierte.

Aber gut wenn ihr sagt, dass er trilineare TMUs hatte, will ich euch mal Glauben schenken

robbitop
2004-03-22, 19:26:45
@BK Morpheus

naja leider verhält sich der Aufwand in der Natur und in der Technik nie linear zum Nutzen.
Und da Grafikkarten eben auf maximale Rechenleistung ausgelegt werden (der Markt verlangt dies hier) ist der Aufwand (uA erlustleistung) eben dazu entsprechenend unlinear groß.

Wenn du wirklich darauf aus bist, strom zu sparen bleib bei Midrange Karten. Ich denke da du aber auch High End willst, musst du einige Abstriche machen. Hier käme der R420 für dich sicher eher in Frage. Dem Traue ich aus schon oft genannten Gründen nicht so eine hohe Leistungsaufnahme wie NV40 zu allerdings auch mehr als die Karten der letzten Generation.
IMO

Aqualon
2004-03-22, 20:46:54
Ein Thread reicht ja zum NV40, bitte dort weitermachen:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=131643

*closed*

Aqua