PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Was ist sinnvoller: Mehr Pipes oder mehr Shadereinheiten?


Piffan
2006-03-01, 00:38:41
Moin!

Mal wieder ne absolut laienhafte Frage. :tongue:

Ati hat die Zahl der Pipes seit dem R420 nicht mehr erhöht, dafür dann aber mit dem XT1900 die Shadereinheiten pro Pipeline verdreifacht. Wenn die Shaderleistung dann auch um den Faktor drei skaliert, sollte der Effekt bei shaderlastigen Spielen entsprechend gut sein.
Nun gibts aber noch zahlreiche ältere Spiele ohne aufwändige Shader, die immer noch Spaß machen. Nun könnte man doch denken, dass da NVs Rechnung mit der Erhöhung der Pipe- Zahl auf 24 im Spielealltag eher aufgeht als Atis Blick in die Zukunft.
Immerhin bietet NV Supersampling- Modi an, die eine generelle Verbesserung der Bildqualität bringen. Supersampling kostet nun mal reichlich Leistung, daher kann man nie genug Pipes haben.

Frage: Bringt die Vermehrung der Pipes überhaupt noch was oder limitiert schon die Speicherbandbreite bei 16 Pipelines? Irgendwas muss sich Ati doch auch gedacht haben beim Festhalten an 16 Pipes... :confused:

Spasstiger
2006-03-01, 07:31:34
Schauen wir mal auf auf die theoretische Leistung der Pixelrecheneinheiten der schnellsten aktuell verfügbaren Karten von NV und ATI.

GeForce 7800 GTX 256 MB:
--------------------------
Texelfüllrate = 24 TMUs*430 MHz = 10,3 Gigatexel/s
Pixelfüllrate = 16 ROPs*430 MHz = 6,88 Gigapixel/s
MAD-Shaderleistung (multiply-add)= 24*2*4*430 MHz MAD-Operationen = 82,56 Giga-MAD/s

Radeon X1900 XTX 512 MB:
---------------------------
Texelfüllrate = 16 TMUs*650 MHz = 10,4 Gigatexel/s
Pixelfüllrate = 16 ROPs*650 MHz = 10,4 Gigapixel/s
MAD-Shaderleistung (multiply-add)= 16*3*4*650 MHz MAD-Operationen = 124,8 Giga-MAD/s

Die Rechenwerke der X1900 XTX (R580) sind also in jeder Hinsicht schneller als die der GeForce 7800 GTX 256 MB (G70). Bei der GeForce 7800 GTX 512 MB würde sich das Bild aufgrund des höheren Chiptaktes etwas zugunsten von Nvidia verschieben, trotzdem ist dann lediglich die Texelfüllrate höher als bei ATI. Die 7800 GTX 512 MB scheint aber gar nicht mehr verfügbar zu sein.

mapel110
2006-03-01, 07:40:28
Die 7800 GTX 512 MB scheint aber gar nicht mehr verfügbar zu sein.
Sie war nur bei Start recht breit verfügbar, danach immer nur mal hier und da kleinere Mengen in einzelnen Shops.

Supersampling sollte kein Grund sein, die Anzahl der Textureinheiten zu erhöhen. SSAA ist nunmal ineffizient.

Der Thread hier sollte interessant für dich sein. Da ist das meiste beantwortet worden oder auch nicht. ^^

R5xx - Eine ineffiziente Architektur?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=270717&highlight=transistoren

tombman
2006-03-01, 10:31:55
Und jetzt im Vergleich zu 7900 @ 650mhz (ansonsten gleiche Technik wird angenommen)

GeForce 7900 GTX 512 MB:
--------------------------
Texelfüllrate = 24 TMUs*650 MHz = 15,6 Gigatexel/s
Pixelfüllrate = 16 ROPs*650 MHz = 10,4 Gigapixel/s
MAD-Shaderleistung (multiply-add)= 24*2*4*650 MHz MAD-Operationen = 124,8 Giga-MAD/s

Radeon X1900 XTX 512 MB:
---------------------------
Texelfüllrate = 16 TMUs*650 MHz = 10,4 Gigatexel/s
Pixelfüllrate = 16 ROPs*650 MHz = 10,4 Gigapixel/s
MAD-Shaderleistung (multiply-add)= 16*3*4*650 MHz MAD-Operationen = 124,8 Giga-MAD/s

Dürfte ausreichen für Nvidia ;)

Raff
2006-03-01, 10:36:38
Supersampling sollte kein Grund sein, die Anzahl der Textureinheiten zu erhöhen. SSAA ist nunmal ineffizient.

Stimmt. Aber was ist mit TSSAA?
Würde Ati mal an den TMUs schrauben, wäre AAA sicher auch billiger. Das kostet nämlich bei Spielen wie FarCry extrem Leistung ... schaut aber eben auch sehr geil aus. =)

MfG,
Raff

ShadowXX
2006-03-01, 10:37:33
Und jetzt im Vergleich zu 7900 @ 650mhz (ansonsten gleiche Technik wird angenommen)

GeForce 7900 GTX 512 MB:
--------------------------
Texelfüllrate = 24 TMUs*650 MHz = 15,6 Gigatexel/s
Pixelfüllrate = 16 ROPs*650 MHz = 10,4 Gigapixel/s
MAD-Shaderleistung (multiply-add)= 24*2*4*650 MHz MAD-Operationen = 124,8 Giga-MAD/s

Radeon X1900 XTX 512 MB:
---------------------------
Texelfüllrate = 16 TMUs*650 MHz = 10,4 Gigatexel/s
Pixelfüllrate = 16 ROPs*650 MHz = 10,4 Gigapixel/s
MAD-Shaderleistung (multiply-add)= 16*3*4*650 MHz MAD-Operationen = 124,8 Giga-MAD/s

Dürfte ausreichen für Nvidia ;)

Nur das die ATI-Shader nicht nur ein MADD können, sondern zusätzlich auch noch einen ADD (was zur Leistung noch dazugerechnet werden müsste) und bei ATI keine ALU stallt, wenn TexOps anliegen (diese müssten nämlich von der Rechenleistung der nVs noch mir abgezogen werden).

Dazu noch die wesentlich bessere Branchingleistung.

Für Spiele sollte die x1900-Reihe insgesamt die effizientere und leistungsfähigeren Gesamt-Shaderpower haben.

Stimmt. Aber was ist mit TSSAA?
Würde Ati mal an den TMUs schrauben, wäre AAA sicher auch billiger. Das kostet nämlich bei Spielen wie FarCry extrem Leistung ... schaut aber eben auch sehr geil aus. =)

MfG,
Raff
Nicht nur bei ATI.....bei nV ist der Verlust bei TSAA in ähnlichen Regionen (Supersampling bleibt Supersampling....die "3" Takte die die ATI-Lösung, da wohl mehr SW als HW, mehr braucht fallen da wohl nicht großartig ins Gewicht).

Davon mal abgesehen....wird das TSAA überhaupt von den TMUs gemacht?

tombman
2006-03-01, 10:42:14
Nur das die ATI-Shader nicht nur ein MADD können, sondern zusätzlich auch noch einen ADD (was zur Leistung noch dazugerechnet werden müsste) und bei ATI keine ALU stallt, wenn TexOps anliegen (diese müssten nämlich von der Rechenleistung der nVs noch mir abgezogen werden).

Dazu noch die wesentlich bessere Branchingleistung.

Für Spiele sollte die x1900-Reihe insgesamt die effizientere und leistungsfähigeren Gesamt-Shaderpower haben.

Ich hab nur copy & paste gemacht, hab mir aber schon gedacht (da war noch was gespeichert im Hinterkopf ;)), daß man die nicht direkt vergleichen kann.

Außerdem sind heutige games immer noch stark von Texturpower abhängig, und da sollte die NV stark besser sein -> könnte also durchaus sein, daß Nvidia bei vielen benchmarks besser dasteht.

Im Endeffekt werden sich beide bis DX10 auf einem Niveau befinden (machen die doch immer so :mad:) IMO ;)

Und dann gibts ja noch QUAD SLi -> also wird Nvidia weiterhin die performance Krone haben ;)

robbitop
2006-03-01, 10:46:48
Wen interessiert die Branchingperformance? Die wird zur Lebenszeit der Karten eh unwichtig bleiben.

ShadowXX
2006-03-01, 10:56:15
Ich hab nur copy & paste gemacht, hab mir aber schon gedacht (da war noch was gespeichert im Hinterkopf ;)), daß man die nicht direkt vergleichen kann.

Außerdem sind heutige games immer noch stark von Texturpower abhängig, und da sollte die NV stark besser sein -> könnte also durchaus sein, daß Nvidia bei vielen benchmarks besser dasteht.

Ja, in solchen Games sollte nV vorne liegen.

Nur wenn nV immer noch diese "riesigen" Performancedrops bei AA (+AF) hat, könnte Ihnen das nicht viel bringen.

Mich interessiert langsam sehr stark, warum die ATIs bei AA so viel weniger als die nVs einbrechen....wenn das nur ein Bug im nv40/G70 ist, der vielleicht beim G71 gefixt wurde, dann könnte das ganze Bild sich sowieso noch mal verschieben.
Wenns allerdings am "Gesamtdesign" liegt, dann wirds wohl erst beim G80 besser werden in dieser hinsicht.

IMHO liegt das bessere abschneiden der ATIs bei AA nämlich nicht (bzw. nur zum Teil) am neuen Memcontroller (den ich persönlich, wie auch andere hier, für etwas Overhypt halte).


Im Endeffekt werden sich beide bis DX10 auf einem Niveau befinden (machen die doch immer so :mad:) IMO ;)

Wenn man mal den nv3x-Ausrutscher weglässt, lagen nV und ATI schon immer recht nah beieinander (mal die ganz alten Karten rausgenommen).

Ich glaube auch nicht, das es sehr viel sinn für den jeweils anderen hätte die Überkarte zum Wegboxen des anderen rauszubringen, da viel zu teuer.
Man macht das, was notwendig ist um den anderen jeweils nicht wegziehen zu lassen....ist so ein bisserl wie im kalten Krieg.


Und dann gibts ja noch QUAD SLi -> also wird Nvidia weiterhin die performance Krone haben ;)
Daran zweifle ich nicht....ich gehe sogar davon aus, das schon "normales" G71-SLI besser darstehen wird als x1900xt-CF.

CF wird IMO ab dem r600, wenn es dann endlich im Chip selber implementiert ist, interessant....vorher wohl noch nicht so wirklich.

ShadowXX
2006-03-01, 10:59:01
Wen interessiert die Branchingperformance? Die wird zur Lebenszeit der Karten eh unwichtig bleiben.

Das war ja nur ein Punkt, den ich miterwähnen wollte.....davon abgesehen, könnte es durchaus sein, das der eine oder andere Entwickler vielleicht doch dynamsiche Branching auf den ATIs benutzt, wenn er sieht, das dies für das gewünschte Performant genug ist.

Dank SM3.0 kann man die Shader ja sehr flexibel halten (nV-Version + ATI-Version).

@Piffans Topic:
Momentan liegt es wohl tatsächlich an der Speicherbandbreite, das sich mehr als 16-24TMUs bzw. 16ROPs nicht lohnen.

Das könnte sich mit GDDR4 ändern......aber trotzdem läuft es wohl immer stärker auf Shaderleistung hinaus.

mapel110
2006-03-01, 10:59:26
Ja, in solchen Games sollte nV vorne liegen.

Nur wenn nV immer noch diese "riesigen" Performancedrops bei AA (+AF) hat, könnte Ihnen das nicht viel bringen.

Mich interessiert langsam sehr stark, warum die ATIs bei AA so viel weniger als die nVs einbrechen....wenn das nur ein Bug im nv40/G70 ist, der vielleicht beim G71 gefixt wurde, dann könnte das ganze Bild sich sowieso noch mal verschieben.
Wenns allerdings am "Gesamtdesign" liegt, dann wirds wohl erst beim G80 besser werden in dieser hinsicht.

IMHO liegt das bessere abschneiden der ATIs bei AA nämlich nicht (bzw. nur zum Teil) am neuen Memcontroller (den ich persönlich, wie auch andere hier, für etwas Overhypt halte).

Soweit ich das bisher verstanden habe, ist die Anbindung zum Speicher bei nvidia quasi 4fach unterteilt und bei ATI entweder 4fach oder 8fach, je nach Profil.
Und daher sollte es schon am Speicherkontroller liegen, dass nv so stark einbricht.

Spasstiger
2006-03-01, 11:03:21
Nur das die ATI-Shader nicht nur ein MADD können, sondern zusätzlich auch noch einen ADD (was zur Leistung noch dazugerechnet werden müsste) und bei ATI keine ALU stallt, wenn TexOps anliegen (diese müssten nämlich von der Rechenleistung der nVs noch mir abgezogen werden).
Tombman hat die MAD-Leistungsangabe ja nur von mir kopiert und auf die 7900 GTX angewandt. Und ich habe nur die MAD-Leistung genommen, weil das der Punkt ist, wo der G70/G71 noch am Stärksten ist. Wollte ja zeigen, dass das die 7800 GTX einer X1900 XTX in allen Punkten unterlegen ist. Und dazu nimmt man in Bezug auf die Shaderleistung nunmal das, was die 7800 GTX noch am Besten kann. ;)

ShadowXX
2006-03-01, 11:08:51
Soweit ich das bisher verstanden habe, ist die Anbindung zum Speicher bei nvidia quasi 4fach unterteilt und bei ATI entweder 4fach oder 8fach, je nach Profil.
Und daher sollte es schon am Speicherkontroller liegen, dass nv so stark einbricht.
Das war mir bekannt....aber vielleicht könnte sich ja mal ein Grafik-Guru dazu äussern, ob dieser Sachverhalt beim MSAA überhaupt was bringt.

Da bin ich mir nämlich nicht so sicher......

Ich sehe es auch eher andersherum...ich vermute, das nV eine Methode fürs AA benutzt, die entweder einen "Bug" hat oder von vornherein nicht so ideal ist (bzw. unoptimaler als die vonATI) (Sie benutzen ja F@S ... die meisten waren nun davon ausgegangen, das mit mehr Framebuffer deshalb nVs AA in höheren Auflösungen schneller werden sollte....die GTX/512 hat dieses aber wiederlegt. Es muss also noch an was anderem haken und IMHO liegt das nicht nur am Speicherkontroller, denn diesen Effekt konnte man ja schon beim der x8x0-Reihe vs. nv40 beobachten)

Anders gesagt: Bei ATI läuft das MSAA aus meiner sicht "normal", während es bei nV einfach irgendwo hakt.
Tombman hat die MAD-Leistungsangabe ja nur von mir kopiert und auf die 7900 GTX angewandt. Und ich habe nur die MAD-Leistung genommen, weil das der Punkt ist, wo der G70/G71 noch am Stärksten ist. Wollte ja zeigen, dass das die 7800 GTX einer X1900 XTX in allen Punkten unterlegen ist. Und dazu nimmt man in Bezug auf die Shaderleistung nunmal das, was die 7800 GTX noch am Besten kann. ;)
Das sollte auch keine Kritik an dir sein, sondern mehr eine Ergänzung.

svenw
2006-03-01, 11:45:44
Außerdem sind heutige games immer noch stark von Texturpower abhängig, und da sollte die NV stark besser sein -> könnte also durchaus sein, daß Nvidia bei vielen benchmarks besser dasteht.

Und dann gibts ja noch QUAD SLi -> also wird Nvidia weiterhin die performance Krone haben ;)
Aber die Shaderleistung wird immer wichtiger das heißt das eine Karte mit stärkerer Shaderleistung "zukunftssicherer" (was immer das in diesem schnelllebigen Markt heißt) ist.

Genau darum halte ich auch SLI und Crossfire für relativ sinnlos. Wieviele Leute können sich 2 1900XT oder 7800er leisten? Klar gibt es die, aber sie sind nicht die Mehrheit. Die Mehrheit würgt schon an den Preisen für eine dieser Karten und hat nicht das Geld sie alle 6 Monate zu erneuern. Für die geht es darum ihr Geld maximal einzusetzen und wenn bei alten Spielen ein paar Frames fehlen (wobei die heutigen Karten da immer noch reichlich Leistung haben) die Karte dafür aber 6 Monate länger nutzen können, dann ist es keine frage wonach sie greifen sollten. Meine 800XL war mit Shader 2 eigentlich auch ein Fehlkauf.

Ich möchte auch nicht wissen wieviele Leute sich SLI/Crossfire Boards kaufen (muß sein) aber nie mehr als eine Karte drin stecken haben, einfach weil sie es sich nicht leisten können.

Coda
2006-03-01, 11:59:52
Wenn man mal den nv3x-Ausrutscher weglässt, lagen nV und ATI schon immer recht nah beieinander (mal die ganz alten Karten rausgenommen).Lagen sie das zu Lebzeiten der FX nicht auch irgendwie?

tombman
2006-03-01, 12:13:35
Aber die Shaderleistung wird immer wichtiger das heißt das eine Karte mit stärkerer Shaderleistung "zukunftssicherer" (was immer das in diesem schenlllebigen Markt heißt) ist.

Genau darum halte ich auch SLI und Crossfire für relativ sinnlos. Wieviele Leute können sich 2 1900XT oder 7800er leisten? Klar gibt es die, aber sie sind nicht die Mehrheit. Die Mehrheit würgt schon an den Preisen für eine dieser AKrten und hat nicht das Geld sie alle 6 Monate zu erneuern. Für die geht es darum ihr Geld maximal einzusetzen und wenn bei alten Spielen ein paar Frames fehlen (wobei die heutigen AKrten da immer noch reichlich Leistung haben) die Karte dafür aber 6 Monate länger nutzen können, dann ist es keine frage wonach sie greifen sollten. Meine 800XL war mit Shader 2 eigentlich auch ein Fehlkauf.

Ich möchte auch nicht wissen wieviele Leute sich SLI/Crossfire Boards kaufen (muß sein) aber nie mehr als eine Karte drin stecken haben, eifach weil sie es sich nicht leisten können.

Die Mehrheit hat nicht mal eine Karte, da brauchen wir von SLI oder CF har ned reden. Aber das Argument der "Zukunftssicherheit" ist für die high-end Käuferschafft sowieso egal. Die wechseln alle 6 Monate doch sowieso ;)

reunion
2006-03-01, 12:36:08
Nur das die ATI-Shader nicht nur ein MADD können, sondern zusätzlich auch noch einen ADD (was zur Leistung noch dazugerechnet werden müsste) und bei ATI keine ALU stallt, wenn TexOps anliegen (diese müssten nämlich von der Rechenleistung der nVs noch mir abgezogen werden).

Dazu noch die wesentlich bessere Branchingleistung.

Für Spiele sollte die x1900-Reihe insgesamt die effizientere und leistungsfähigeren Gesamt-Shaderpower haben.


Außerdem sind die ATi-ALUs sozusagen parallel geschaltet, sie können also unabhängig voneinander an 48 verschiedenen Pixel arbeiten, ohne sich gegenseitig zu blockieren, und ohne aufeinander rücksicht nehmen zu müssen. Bei nV sind ja die 2 ALUs pro Pipeline in Serie geschaltet, wovon eben immer nur eine mit Texture-Operationen arbeiten kann. Dann hat man mit FP32 noch Registerprobleme, sodass 2 FP32-MADDs pro Pipeline eigentlich unrealistisch sind.

Außerdem sind heutige games immer noch stark von Texturpower abhängig, und da sollte die NV stark besser sein -> könnte also durchaus sein, daß Nvidia bei vielen benchmarks besser dasteht.


Nur sind das zu 99% nur relativ alte Spiele, in denen auch ein R580 mehr als genug Leistung liefert.

Wen interessiert die Branchingperformance? Die wird zur Lebenszeit der Karten eh unwichtig bleiben.

Naja, für Treiberoptimierungen könnte das durchaus von Vorteil sein.

reunion
2006-03-01, 12:57:31
Das war mir bekannt....aber vielleicht könnte sich ja mal ein Grafik-Guru dazu äussern, ob dieser Sachverhalt beim MSAA überhaupt was bringt

Da bin ich mir nämlich nicht so sicher......


Ich bin zwar kein Grafikguru, aber dass ein feiner unterteilter Speichercontroller die Granularität verbessert, und damit natürlich vorallem mit MSAA Vorteile bringt, sollte einleuten.

Eine Tatsache, die man dabei auch nicht vergessen sollte, ist das deutlich verbesserte Cachingsystem der R5xx-Architektur. Es gibt von ATi zahlreiche Diagramme mit verschiedensten Spielen, welchen deutlich aufzeigen, dass die "Cache-misses" im Vergleich zum R480 signifikat verringert wurden.

Ich glaube also nicht, dass bei nV irgendetwas hakt, sondern das ATi in dieser Hinsicht einfach sehr viel investiert hat.


Es muss also noch an was anderem haken und IMHO liegt das nicht nur am Speicherkontroller, denn diesen Effekt konnte man ja schon beim der x8x0-Reihe vs. nv40 beobachten)


Bei X800 vs. Nv40 lags AFAIK hauptsächlich am AF, welches beim R4X0 aufgrund der höheren Füllrate und der nebenläufigen TMUs eben deutlich weniger Leistung kostete. Dieser Umstand spielt im übrigen auch noch heute mit rein.

tombman
2006-03-01, 13:06:36
Nur sind das zu 99% nur relativ alte Spiele, in denen auch ein R580 mehr als genug Leistung liefert..
Stimmt ned unbedingt...

Raff
2006-03-01, 13:15:01
Bei X800 vs. Nv40 lags AFAIK hauptsächlich am AF, welches beim R4X0 aufgrund der höheren Füllrate und der nebenläufigen TMUs eben deutlich weniger Leistung kostete. Diesen Umstand spielt im übrigen auch noch heute mit rein.

Quality-AF (Augenkrebs ahoi) kostet auf einem NV40 weit weniger als HQ. Ati versteht es nur, die "Optimierungen" sehr gut zu verstecken. Das bringt's dann eben auch in den Benchmarks.

MfG,
Raff

svenw
2006-03-01, 13:27:51
Quality-AF (Augenkrebs ahoi) kostet auf einem NV40 weit weniger als HQ. Ati versteht es nur, die "Optimierungen" sehr gut zu verstecken. Das bringt's dann eben auch in den Benchmarks.
Gegen Optimierungen die man nicht sieht ist doch nichts zu sagen. Jede Computerfigur ist optimiert, die Frage ist doch wirklich: Sieht man es.

Und wenn bei einer Optimierung 99,9% aller Informationen ignoriert werden und man sieht es nicht, dann ist es doch gut. IMHO ist eine optimierung die man eben nicht sieht ein zeichen für gute Programmierung/Design, denn sie läßt mehr Leistung für anderes übrig. ein gutes Beispiel für sinnvolle optimierung ist doch MP3. Ohne Superanlage hört man die Unterschiede nicht, trotzdem wird die Datei wesentlich kleiner.

Piffan
2006-03-01, 13:48:39
Für die geht es darum ihr Geld maximal einzusetzen und wenn bei alten Spielen ein paar Frames fehlen (wobei die heutigen Karten da immer noch reichlich Leistung haben) die Karte dafür aber 6 Monate länger nutzen können, dann ist es keine frage wonach sie greifen sollten. Meine 800XL war mit Shader 2 eigentlich auch ein Fehlkauf.

Ich möchte auch nicht wissen wieviele Leute sich SLI/Crossfire Boards kaufen (muß sein) aber nie mehr als eine Karte drin stecken haben, einfach weil sie es sich nicht leisten können.

Zum ersten Punkt: Ja, habe ich auch schon gedacht. Andererseits habe ich die X800XT nun schon lange drin und mit ihr sehr viel gedaddelt und nicht den Eindruck, dass mir was fehlt. Gut, als NV plötzlich TSAA anbot, schmerzte es schon, dass bei mir weiterhin die Zäune in HL2 flimmerten. Aber nun erlebe ich so was wie nen zweiten Frühling, weil dank ATT und Atuner nun auch AAA auf meiner ollen Karten sehr gut funzt.

Nachdem ich HDR mit dem Coastlevel von HL2 "genossen" habe und auch Splinter Cell III mit allem Pipapo (HDR, Parallax- Bump) durchgepielt habe, bin ich fürs erste wieder nüchtern. Es gibt so viele gute Spiele, die ohne grafisch High- End zu sein, ne Menge Spaß machen....

Für die nächste Aufrüstungsrunde brauche ich schon ein Spiel wie Oblivion oder Gothic III, um so richtig motiviert zu werden.

Und damit der zweite Punkt: Bei mir sitzen dank heranwachsender Töchter die Kröten auch nicht mehr so locker. Könnte mir vorstellen, dass mir das Geld zu schade ist, um dem Hype noch weitere Jahre nachzurennen. Die Idee mit SLI, also erstmal Board und Sli- fähige Karte zu kaufen, halte ich auch für Schwachsinn. Wenn dann die Preise so weit gesunken sind, dass man die zweite High- End- Karte dazukaufen will, dann ist doch der Proz oder der Techlevel der Graka auch wieder Schnee von Gestern...

Zum topic: Selbst Leute mit guten Kenntnissen sind sich nicht so sicher..... :tongue:

reunion
2006-03-01, 13:58:55
Stimmt ned unbedingt...

Beispiele?

RLZ
2006-03-01, 14:23:11
Imo macht es kurzfristig keinen Sinn mehr die Anzahl der ALUs pro Pipe erhöhen.
Für die 3:1 Pipe gibt ATI schon ein ALU-/Textur-Instruction Verhältnis von mindestens 8:1 an um eine optimale Auslastung zu bekommen.

ShadowXX
2006-03-01, 16:18:04
Imo macht es kurzfristig keinen Sinn mehr die Anzahl der ALUs pro Pipe erhöhen.
Für die 3:1 Pipe gibt ATI schon ein ALU-/Textur-Instruction Verhältnis von mindestens 8:1 an um eine optimale Auslastung zu bekommen.

Ich glaube Piffans frage war wohl auch eher als:

Was ist sinnvoller: mehr TMUs/ROPs oder mehr Shadereinheiten?

Ich gebe dir aber Recht, das bei vorhandenen 16TMUs & ROPs bei 48ALUs wohl langsam die sinnvolle Grenze liegt.
Mehr TMUs & speziell mehr ROPs werden uns aber momentan von der Speicherbandbreite "quasi" verboten...

Warten wir auf GDDR4, welche Taktfrequenzen da wirklich kommen werden und sehen dann, obs dann auch für mehr TMUs & ROPs reichen wird.