PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Bemessung der Ausführungseinheiten / Taktraten


Gast
2009-01-11, 15:37:27
Hallo werte Mitglieder / Leser!

Kann jemand erklären, wie die Grafikchip - Hersteller AMD/ATI bzw. Nvidia die Grafikchips auf "optimale" Taktfrequenzen trimmen?

Gemeint ist: Entwickelt zB. Nvidia eine neue GPU, dann wissen die, das zB. 128 Unified Shader verbaut werden sollen, das diese X ROPs und X TMUs brauchen, um im "Gleichgewicht" mit den anderen Ausführungseinheiten zu sein und irgendwie scheinen sie auch zu wissen, wie schnell sie die einzelnen Teile takten müssen....?? (natürlich vom Fertigungsprozess und -qualität sowie finanziellen Gründen begrenzt).
Immerhin haben sie zB. bei G80 nicht 64 ROPs und 128 TMUs mit 32 Unified Shadern verbaut, sondern 28 ROPs mit 56 (?) TMUs und 128 Unified Shadern. Dazu haben die Shader eine höhere Frequenz als der Rest.
Bei einigen GPUs hat es mit heutigen Spielen scheinbar dann auch keinen Sinn, nachträglich zB. den Speicher zu OCen, weil er anscheinend ohnehin genug Bandbreite liefert etc. oder der Einfluß von mehr Shadereinheiten bei sonst ähnlichen Ausführungseinheiten / Taktfrequenzen (8800 GT vs. 9600 GT) hat weniger Einfluß, als gedacht.

Danke, Alex

Spasstiger
2009-01-11, 15:51:20
Sowas findet man per Simulation heraus. Erfahrungswerte spielen auch eine große Rolle. Dass 80 GTexel/s Texelfüllrate und 40 GPixel/s Pixelfüllrate bei 150 GFlops Rechenleistung weniger Sinn machen als 40 GTexel/s Texelfüllrate und 15 GPixel/s Pixelfüllrate mit 600 GFlops Rechenleistung, ist jedem Chipingenieur bei ATI und Nvidia klar. Denn pro Pixel fallen in der Regel deutlich mehr als 4 Shaderoperationen an (bei Crysis sinds 1500-3000 Shaderoperationen pro Pixel). Genauso hat man in der Regel auch mindestens zwei Texeloperationen pro Pixel (trilineares Filtern), oft sogar deutlich mehr (anisotropes Filtern). D.h. die Texelfüllrate sollte deutlich höher sein als die Pixelfüllrate.

Die Taktfrequenzen legt man so fest, dass noch genug Taktspielraum nach oben vorhanden ist, um hohe Yieldraten zu erreichen. Die Leistungsfähigkeit des Konkurrenzchips spielt bei der Festlegung der Taktraten natürlich auch eine große Rolle.

Gast
2009-01-11, 16:04:49
Vielen Dank!

Dann bedeutet das, daß die Entwickler versuchen, zukünftig erscheinende Spiele / Titel bzw. deren Rechenbedarf zu erahnen und dann strikt man sich seinen Chip zusammen?

Also um bei Crysis zb. bei 1280x1024 und 4xAA / 8xAF in den höchst auftretenden Belastungen verschiedener Szenen zb. 40 FPS zu erreichen könnte man, bei bekanntem Shaderbedarf, errechnen, wie stark ein Chip sein muß? (Einheiten, Taktraten, Speicherbandbreite?)

Gruß

Armaq
2009-01-11, 16:53:57
Die Entwickler erahnen das nicht. Sie arbeiten ja mit den Spieleherstellern zusammen. :)