Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation
Moralelastix
2006-11-16, 20:36:38
Wie wars denn damals?
Wer hatte ATI zum R300(9700pro) Start eine 256 Bit Speicherschnittstelle zugetraut?
deekey777
2006-11-16, 20:39:01
Wie wars denn damals?
Wer hatte ATI zum R300(9700pro) mit einer 256 Bit Speicherschnittstelle gerechnet?
Wirf mal die SuFu an, du findest geniale Threads. Lieblingsthema: R400.
Moralelastix
2006-11-16, 20:41:37
"R400"
Wie hieß der nich R300?
Wäre die X1800er ein paar Monate früher veröffentlicht worden, so wäre die X1800XT mit 500-550 MHz getaktet. Es gab irgendein Problem mit fremder IP, das den Takt auf höchstens 550 MHz begrenzte, womit die Fertigstellung des R520, aber auch des R580 verzögert wurde.
Wäre es nach Plan gelaufen - und das impliziert die frühere Vorstellung ja - wäre das nicht der Fall gewesen. Trotz Jura-Hintergrund solltest du nicht immer allen das Wort im Munde umdrehen - sie könnten es auch mit dir "tun". ;)
Der R580 liegt, mehrfachen Aussagen von Ati und dem allgemeinen Zeitrahmen zufolge, allerdings absolut im Plan.
AnarchX
2006-11-16, 21:15:25
Wie wars denn damals?
Wer hatte ATI zum R300(9700pro) Start eine 256 Bit Speicherschnittstelle zugetraut?
Wie oft den noch...:rolleyes:
Gib einfach mal in die SuFu "R300 256bit" ein, und schon kommt ganz schnell die Erkenntnis, dass schon vor R300 Consumer-GraKas mit 256bit SI auf dem Markt waren(z.B. Matrox Parhelia P512) und somit hier die 256bit keine wirkliche Überraschung waren.:wink:
256bit mit schnellen GDDR4 an einem Kontroller mit entsprechender Granulaität solten dem R600 locker ausreichen und sind auch wirtschaftlich.
256bit mit schnellen GDDR4 an einem Kontroller mit entsprechender Granulaität solten dem R600 locker ausreichen und sind auch wirtschaftlich.
hmm ausreichen sollte das sicherlich - jedoch wie sieht es mit AA oder AF aus? war es nicht so, dass mit großer speicherbandbreite aa bzw. af immer mehr "billiger" wird? -wenn ja, könnte sowas doch gut sein um bei benchmarks den G80 "besser" zu schlagen...
AnarchX
2006-11-16, 21:50:04
hmm ausreichen sollte das sicherlich - jedoch wie sieht es mit AA oder AF aus? war es nicht so, dass mit großer speicherbandbreite aa bzw. af immer mehr "billiger" wird? -wenn ja, könnte sowas doch gut sein um bei benchmarks den G80 "besser" zu schlagen...
Beim AF spielt die Bandbreite schon mal gar keine große Rolle, hier ist die Texelleistung um einges entscheidenter.
Im Falle der Kantenglättung ist Bandbreite natürlich ein entscheidenter Faktor, aber eben nicht nur es kommt halt auch ganz auf die Effizienz der Implementation an.
Nochmal in der Betrachtung:
G80 384bit(6*64bit)@900MHz = 86.4GB/s vs R600 256bit(8*32bit)@1400MHz = 89.6GB/s
So schlecht sieht es eben nicht für den R600 mit 256bit aus, wenn man nur noch etwas den Memorycontroller verbessert hat, der bei R5xx schon eine sehr gute Effizienz hatte, noch besser.:wink:
Hvoralek
2006-11-16, 21:51:59
Nochmal in der Betrachtung:
G80 384bit(6*64bit)@900MHz = 86.4GB/s vs R600 256bit(8*32bit)@1400MHz = 89.6GB/s
So schlecht sieht es eben nicht für den R600 mit 256bit aus, wenn man nur noch etwas den Memorycontroller verbessert hat, der bei R5xx schon eine sehr gute Effizienz hatte, noch besser.:wink:Allerdings könnte man beim R600 in dem Fall die Bandbreite schwerer weiter steigern. Wenn Nvidia mit GDDR4 ankommt, wäre das ein Problem.
AnarchX
2006-11-16, 21:55:27
Allerdings könnte man beim R600 in dem Fall die Bandbreite schwerer weiter steigern. Wenn Nvidia mit GDDR4 ankommt, wäre das ein Problem.
Ja, das ist durchaus ein ernsthaftes Problem.
Vielleicht erwartet uns beim R600, anders als erwartet, auch ein 384bit SI, als Mittelweg zwischen Leistung und Kosten bzw. ist der R600 vielleicht schon "384bit-ready".;)
Wir werden es wohl noch früh genug erfahren...
"R400"
Wie hieß der nich R300?
ja,ich warte seit dieser ,auf eine karte die mal wieder so rein haut.
Moralelastix
2006-11-16, 22:35:38
Ich weiß auch net wieso immer die 256 auftaucht.
Bestenfalls 512 oder halt irgend ein krummes Ding darunter wie beim G80 scheint mir viel wahrscheinlicher.
aylano
2006-11-16, 22:43:15
Also, wenn ich höre/lese, dass der R600 mit PCI-E 2.0 und Monster-Kühler für 250 Watt ausgelegt sein soll und nebenbei gibts viele Gerüchte bzw. Aussagen, die besagen, dass der R600 so viel bzw. kaum mehr Strom verbrauchen soll als der G80, dann würde ich glatt meinen/spekulieren, dass der R600 ein schönes Grafik-Bretterl wird, welches man ordentlich overlocken kann, der in oberen Overlocking-Bereich eben die heilige 512-bit Speicheranbindung braucht.
[Satz und Spekulation Ende]
http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/november/neue_geruechte_atis_r600-chip/
Ich halte diese News nicht umbedingt für verkehrt. ATI sagt selbst immer, das die neue Generation alles bisherige in den Schatten stellen wird.
Und wenn schon nvidia mit 384 bit SI protzt, dann kann es ATI auch und noch einen draufsetzen.
Der Speicherausbau von möglichen 1 oder 2 GB klingt schon sehr nett, ATI hat übrigens jetzt schon 1 GB Karten im Angebot, ich denke daher, das diese Variante ziemlich wahrscheinlich ist. 1 GB für den Consumer, 2 GB für den Profimarkt.
Was mir etwas aufstößt, neben dem 512 bit SI ist die Tatsache, das immer noch von GDDR3 geredet wird. Warum zur Hölle soll es Lieferschwierigkeiten geben? Die X1950 läuft doch schon eine ganze Weile damit und bei der neuen Generation braucht man doch vorerst keine riesigen Stückzahlen...
Irgendwie ist es auch quatsch, ein 512 bit SI zu verbauen und dann nen RAM mit max 700 bis 900 MHz draufzupacken. Wenn dann richtig mit 512 bit SI und GDDR @ 1,2 GHz.
Zocker_28
2006-11-16, 23:24:19
Ich denk auch das 1 GB für die Normal Karten bestimmt auch so kommen, die FireGL mit 1GB RAM ist schon ne ewigkeit auf dem Markt (seit x1800?) und das mit dem 512 bit denk ich schon das es so ist, warum sollten sie auch nei 256 Bit bleiben?
ATI weiss selber das sie jetzt was bringen muss um den G80 den Kampf anzusagen, und ich denk das wird ATI/AMD sehr gut gelingen.
Bis zu den nöchsten Grafikkarten wie das immer so ist;D
512bit würde sich lohnen,als erstes amd/ati produkt ein ding raus haun,was tierisch rein haut
warum sollten sie auch nei 256 Bit bleiben?
Zum x-hundertsten Mal: Weils teuer is wie sau?
Zocker_28
2006-11-17, 00:22:17
Was würde so eine Karte Kosten ?(ungefähr)
Ich mein mir ist egal was sie Kostet ich kauf so eine und wenn die 800 Kostet ;D
Es geht nicht darum, ob du sie kaufen würdest, sondern was die Mehrzahl der Leute dafür ausgeben möchte.
Überhaupt ist es dann auch ein Problem später die Preise zu senken, weil die Produktionskosten eben weitgehendst konstant bleiben.
Ein 512-Bit-SI ist nicht auszuschließen. Es ist praktisch auf jedenfall machbar (es gibt Cluster-Backplanes mit 40 Layern), aber GDDR4 und 512-Bit ist einfach unlogisch. Soviel Bandbreite braucht der Chip nicht.
[](-__-)[]
2006-11-17, 02:03:40
Nehmen mir mal an, das Topmodell X2000 Pro kommt mit 512 Bit Interface. Technisch machbar, aber kostenintensiv.
Aber ist das nicht im Enthusiast Bereich zweitranging? Und wenn die X2000 Pro um 50 Dollar teurer wird als die 8800 GTX, wen juckt das denn, wenn der Performanceunterschied dementsprechend ist?
Richtig! Niemanden.
Die Gforce 2 Ultra hat mal 1400 Mark gekostet, die der Nobelfirma ELSA waren nochmals deutlich teurer.
Und Kunden die sich eine 8800 GTX leisten können, würden bei z.B. 30& Mehrleistung gerne 50 Dollar mehr bezahlen, das sieht man ja hier im Forum.
Vielleicht ist es ja auch so. ATI (AMD) hat den moderneren Herstellungsprozess und kann so die Kosten, des 512 Bit Speicherintefaces, decken.
(-__-)[]']Und wenn die X2000 Pro um 50 Dollar teurer wird als die 8800 GTX, wen juckt das denn, wenn der Performanceunterschied dementsprechend ist?
Es geht hier nicht nur um 50€. 16 Speicherchips und so ein teures PCB würden die Karte >100€ teurer machen als eine G80 GTX. Und dann noch GDDR4...
Leute ihr könnt hoffen was ihr wollt, aber wundert euch bitte nicht, wenn wir am Ende einfach nur 256 Bit GDDR4 sehen.
Man muss auch überlegen, dass man das nicht mehr so einfach ändert im letzten Jahr eines Hardware-Designs. Falls ATi 512-Bit verbauen wird, dann war die Entscheidung schon ewig getroffen, und das hört sich wegen der GDDR4-Geschichte mit der ATi schon früh angefangen hat nicht sehr schlüssig an.
(-__-)[]']Vielleicht ist es ja auch so. ATI (AMD) hat den moderneren Herstellungsprozess und kann so die Kosten, des 512 Bit Speicherintefaces, decken.
Weder ATi noch nVIDIA stellen irgendwas selber her.
[](-__-)[]
2006-11-17, 02:48:59
Weder ATi noch nVIDIA stellen irgendwas selber her.
Das ist mir auch klar, bei ATI ist es TMC. Ich hätte mich deutlicher ausdrücken sollen. Ich meine natürlich den Herstellungsprozess in 80nm, statt 90nm wie bei nVidia.
Aber warscheinlich macht das weniger aus un ist nur bei größeren Stückzahlen relevant.
Zauberer
2006-11-17, 04:14:36
Leute denkt mal bitte richtig nach.
512 Bit SI = teure Produktion = schlecht.
256 Bit SI = billige Produktion = gut
Alles Blödsinn.
Man muss die Märkte auch berücksichtigen.
Die lansamen Versionen, kamen oft mit dem halben SI, so kann man auch 256 Bit Karten zu einem billigeren Preis anbieten.
Es geht darum, welches SI, der schnellste R600 hat, auch wenn die meisten hier nicht über 400€ für ne Karte ausgeben.
Nicht die Produktionskosten machen die Grafikkarten so extrem teuer, sondern die Forschungs- und Endwicklungsausgaben.
So einfach ist das.
Sonst könnten die Hersteller gar nicht die Preise nach 6 Monaten um 50% senken und immer noch Gewinne einfahren.
So einfach ist das.
Überlegt doch mal DVD-Brenner haben auch mal über 1000 DM gekostet.
Jetzt keine 50€ mehr.
Und der für 50€ ist Xmal besser als der für umgerechnet 500€.
Die Produktionskosten für DVD-Brenner ist nicht "viel" Teurer als die für CD-Brenner oder normale DVD-Laufwerke, auch damals nicht, nur die haben die hohen Preise verlangt, weil es damals High-Tech war.
So einfach ist das.
Lizenzen, nicht ausgelastete Produktion, geringe Konkurenz / Konkurrenzprodukte usw. waren immer Gründe für hohe Preise neuer IT-Produkte.
So einfach ist das.
Klar ist ein 256 Bit SI billiger als ein 512 Bit SI, aber ob die Produktion einer Grafikkarte nun (fiktive Preise) 50 € oder 80 € kostet, ist bei einem Preis von über 400€ auch nicht so wichtig, wenn die entsprechenden Mengen dafür verkauft werden.
Die Karte ist zwar 30€ teuer, aber dafür 30% schneller, darum verkaufen sich 1.000.000 Karten mehr.
Ich wisst hoffentlich was ich meine.
Nur für Karten unter 150€ spielen die Produktionskosten scheinbar eine große Rolle.
Da finden sich (fast) nur 128 Bit SI Karten.
Ab 200€ kommen die 256 Bit SI Karten.
Warum sollen später mal ab 300€ keine 512 Bit Karten kommen?
So einfach ist es NICHT, aber trozdem kann da was wahres dran sein. ;)
[](-__-)[]
2006-11-17, 04:28:23
@ Zauberer
Habe ich etwas anderes geschrieben?
Nur das Topmodell wird evtl. über 512 BIT SI verfügen, der Rest kann ein 256 BIT aus Kostengründen haben, das juckt nicht, solange das eigene Produkt schneller ist, als das der Konkurenz. Dann werden noch die Transistorn abgespeckt und rauf gehts mit den GPU- und VRAM Taktraten.
Aber das Wichtigste ist wohl eine effiziente Architektur, die eine hohe Leistung pro Taktzylus entfalten kann. Der R300 war ja so eine. Mit 325 mhz hat man die NV30, welche mit 500 Mhz werkelte, ordentlich verdroschen.
nagus
2006-11-17, 07:42:49
Zum x-hundertsten Mal: Weils teuer is wie sau?
na und? dann kostet die karte am anfang eben mehr. ist doch vollkommen WURSCHT! glaubst du die herstellung einer G80 ist BILLIG? :P
irgendwann wirds zeit für diesen Schritt. Wieso nicht mit der R600???? solche bescheuerten Kommentare von "ist zu teuer und blahblahblah... und "sinnfrei" HASSE ich! nur ATI/AMD weiß wirklich was sache ist. Ob the Inquirer oft viel shice schreibt oder nicht sei dahin gestellt aber diese obergscheiten kommentare von irgendwelchen selbsternannten möchtegern grafikkarten-experten kotzen mich dermaßen an... soviel kann ich gar nicht essen soviel ich kotzen möchte.
R600 -> 256 bit + GDDR4 mit hohem Takt
Wetten? ;)
aber diese obergscheiten kommentare von irgendwelchen selbsternannten möchtegern grafikkarten-experten kotzen mich dermaßen an... soviel kann ich gar nicht essen soviel ich kotzen möchte.Meinst du die Grafikexperten, die auch beim R520 von Anfang an von 4 Quads gesprochen haben, während Fuad und VR-Zone wilde 32 Pipeline Geschichten verbreitet haben? ;)
Gouvernator
2006-11-17, 09:08:44
R600 -> 256 bit + GDDR4 mit hohem Takt
Wetten? ;)
Lieber nicht, schlecht für Dich :wink:
Erstens, ATI brauch die Leistungskrone. Wie kann ich sie erreichen wenn momentan nur DDR4 @0.9ns verfügbar ist und der Konkurrent hat grösseres SI. Da bleibt nur der Umstieg auf grösseres SI und weil, wir SCHNELLER sein wollen wird 512bit verbaut. Ich frage mich was wohl teuerer wäre 512bit billiges DDR3/4 oder 1gb extrem teuerem DDR4 1.4ghz (2800mhz DDR)@256bit. Ich versuch gar nicht dran zu denken was NV fanboys für ein Basar veranstalten wenn sie sehen das "veraltetes" 256bit SI verbaut wird :tongue:
Hoch getakteter DDR4 würde auch die Leistungsaufnahme erhöhen. Glaube kaum, dass das so kommen wird...
AnarchX
2006-11-17, 09:19:24
Hoch getakteter DDR4 würde auch die Leistungsaufnahme erhöhen. Glaube kaum, dass das so kommen wird...
GDDR4 hat einen deutlich niedrigeren Verbrauch als GDDR3, also wäre 1.4GHz GDDR4 auf jeden Fall sparsamer als GDDR3 im Bereich von 0.8-1GHz...;)
Matthew
2006-11-17, 09:30:37
meine Quelle hat mir veraten 512Bit SI GDDR @ 1,2 GHz
...arbeitet bei Msi in der Entwicklung
Die Frage ist doch eigentlich: Wieviel Bandbreite kann der R600 sinnvoll nutzen? Aus der Antwort auf diese Frage bestimmt sich auch die Dimensionierung des Speicherinterfaces.
Bringen mehr als, sagen wir, 90 GByte nur noch im Nachkommastellen-Bereich Performancezuwächse, wird Ati sicherlich darauf verzichten.
Und ehrlich gesagt ist mir die Breite des Interfaces beinahe wurscht - die Bandbreite und wie sie genutzt wird: Das ist das Entscheidende.
Q
meine Quelle hat mir veraten 512Bit SI GDDR @ 1,2 GHz
...arbeitet bei Msi in der Entwicklung
GDDR = GDDR4? wegen 1,2GHz...
na und? dann kostet die karte am anfang eben mehr. ist doch vollkommen WURSCHT! glaubst du die herstellung einer G80 ist BILLIG? :P
Zumindest deutlich billiger als so was. Du must auch erstmal die Pins auf das Die bringen für ein 512-Bit-Si im Flip-Chip-Verfahren.
irgendwann wirds zeit für diesen Schritt. Wieso nicht mit der R600???? solche bescheuerten Kommentare von "ist zu teuer und blahblahblah... und "sinnfrei" HASSE ich! nur ATI/AMD weiß wirklich was sache ist. Ob the Inquirer oft viel shice schreibt oder nicht sei dahin gestellt aber diese obergscheiten kommentare von irgendwelchen selbsternannten möchtegern grafikkarten-experten kotzen mich dermaßen an... soviel kann ich gar nicht essen soviel ich kotzen möchte.
Toll, und die Fanboys die hier so tun als obs schon so wäre sind besser oder wie?
Die "selbsternannten möchtergern grafikkarten-experten" liegen nämlich meistens tatsächlich richtig, auch wenn ihr gern die Rosinen auspickt wo es mal nicht so war (siehe 16 Pipelines bei R520).
Gouvernator
2006-11-17, 10:23:40
Toll, und die Fanboys die hier so tun als obs schon so wäre sind besser oder wie?
Wenn man ein Jahr zurück denkt wo ATi von 512bit schon sprach dann erscheint das jetzt ein logischer Schritt zu sein. Viel mehr wundern mich die "Spezialisten" die stetig versuchen 512bit abzustreiten, die machen das soo ungewöhnlich stark das ich das Gefühl habe sie werdens immernoch tun wenn 512bit schon raus ist.
Wenn man ein Jahr zurück denkt wo ATi von 512bit schon sprach
Wo? Quelle? Offiziell bitte, nicht Inq.
dann erscheint das jetzt ein logischer Schritt zu sein. Viel mehr wundern mich die "Spezialisten" die stetig versuchen 512bit abzustreiten, die machen das soo ungewöhnlich stark das ich das Gefühl habe sie werdens immernoch tun wenn 512bit schon raus ist.
Warum hat wohl nVIDIA "nur" 384 Bit gewählt als sie grad eh darüber nachgedacht haben das Ding breiter zu machen? Dämmerts?
oMe20
2006-11-17, 12:47:02
Was hier abgeht erinnert mich an die alte Zug geschichte.
(wo die Züge ka 10km schnell fuhren und alle leute dachten, noch schneller wäre tödlich :rolleyes: )
nagus
2006-11-17, 12:57:23
fragen wir mal anders herum: was ist wahrscheinlicher? ein 256bit interface oder 512bit?
dazu kommt noch, dass JEDES gerücht das bis jetzt über die R600 "veröffentlicht" wurde immer von 512bit spricht. die einzigen die das leugnen sind irgendwelche heinis die sich das "nicht vorstellen" können oder sagen "ach.. das ist zu teuer" ... finde ich ziemlich beschränkt diese ansicht.
BlackBirdSR
2006-11-17, 13:04:43
fragen wir mal anders herum: was ist wahrscheinlicher? ein 256bit interface oder 512bit?
dazu kommt noch, dass JEDES gerücht das bis jetzt über die R600 "veröffentlicht" wurde immer von 512bit spricht. die einzigen die das leugnen sind irgendwelche heinis die sich das "nicht vorstellen" können oder sagen "ach.. das ist zu teuer" ... finde ich ziemlich beschränkt diese ansicht.
Letztes Mal, dass du deine Posts in dieser Art und Weise formulierst!
Und ja, das ist die einzige Verwarnung.
robbitop@work
2006-11-17, 13:11:02
fragen wir mal anders herum: was ist wahrscheinlicher? ein 256bit interface oder 512bit?
dazu kommt noch, dass JEDES gerücht das bis jetzt über die R600 "veröffentlicht" wurde immer von 512bit spricht. die einzigen die das leugnen sind irgendwelche heinis die sich das "nicht vorstellen" können oder sagen "ach.. das ist zu teuer" ... finde ich ziemlich beschränkt diese ansicht.
Schau dir mal die Gerüchte zum G80 an. Bis vor 'nem Monat hieß es noch, dass das Teil 32 Pixelpipes und 16 Vertexpipes besitzen würde und 256 Bit GDDR4. Oder darf ich an die 8x extremen Pipelines beim R420 erinnern?
Gerüchte sind in der heutigen Zeit, in der IHVs Fehlinfos streuen, wertlos.
Erst kurz vor dem Launch leaken immer die richtigen Infos durch. Beim R600 ist man noch nichtmal beim A2 Silizium angekommen, dass in Masse produziert wird. Der Launch ist noch etwas hin.
Warum gehen eig alle immer nur von 256bit oder 512bit aus?
Wäre es nicht möglich, dass ATi auch etwas dazwischen macht wie nVidia mit dem G80?
Warum gehen eig alle immer nur von 256bit oder 512bit aus?
Wäre es nicht möglich, dass ATi auch etwas dazwischen macht wie nVidia mit dem G80?
Natürlich - wieso nicht? Ati wird das machen, was ihnen den besten Kompromiß aus Leistung, Verfügbarkeit und Kosten beschert. Was dann am Ende dabei rauskommt ist egal - was zählt ist Spieleleistung (und da Leistung gleich Arbeit pro Zeit ist, zählt unter Arbeit auch die Bildqualität mit).
Q
[MK2]Mythos
2006-11-17, 14:08:35
Ich frag mich ja wieso das Boardlayout vom R600 im Moment noch länger sein soll als die 8800 GTX wenn das Speichrinterface "nur" 256 Bit breit ist und die GPU an sich auch kleiner wird. Klingt für mich ganz schön unlogisch. Und jetzt kommt mir nicht mit "schnell zusammen geschusterte Engineering Samples", das ist keine Begründung.
robbitop@work
2006-11-17, 14:15:49
Mythos']Ich frag mich ja wieso das Boardlayout vom R600 im Moment noch länger sein soll als die 8800 GTX wenn das Speichrinterface "nur" 256 Bit breit ist und die GPU an sich auch kleiner wird. Klingt für mich ganz schön unlogisch. Und jetzt kommt mir nicht mit "schnell zusammen geschustertet Engineering Samples", das ist keine Begründung.
1. VRAM Menge
2. Spannungswandlung (wenn die Leistungsaufnahme wirklich so hoch ist)
3. hohe Speichertaktraten
Das SI hat wenig Einfluss auf die Länge des PCBs, eher auf dessen Dicke. Die 9700 war damals kürzer als die FX wegen der Leistungsaufnahme und den Speichertaktraten.
Gaestle
2006-11-17, 14:16:25
Ich denke aber auch, dass sie mit mehr als 256bit ankommen werden. Ob 320, 384 oder 512bit? => Keine Ahnung, aber vielleicht gehen sie den gleichen Zwischenschritt wie NV.
[edit:] Zu spät ...
Auf längere Sicht eröffnet ein SI, das breiter als 256bit ist, einfach mehr Möglichkeiten für die Zukunft, weil man nicht so sehr am RAM-Takt hängt.
Selbst wenn es bei der ersten "Edition" vom R600 noch ein 256bit SI mit extrem hohem RAM-Takt sein sollte (was ja auch möglich ist), werden wir mit dem R600-Refresh bestimmt eine breiteres SI sehen (wie bei NV von der 5800FX zur 5900FX), schon damit man das Gleiche wie die Konkurrenz bietet.
Vorstellbar ist für mich persönlich auch, dass die angeblich von MSI stammenden 512bit / 1,2GHz "stimmen", dass sich bei dem Takt aber nur um "DDR-Marketing-Takt" handelt und um "echte" 600MHz. Damit kann bei den Kosten für den Speicher gespart werden und die Bandbreite ist trotzdem auf 8800GTX-Niveau. Ich habe aber keine Ahnung ob die (durch geringe Speichertakte) erzielbaren finanziellen Einsparungen groß genug wären, um ein bei 512bit notwendig fetteres PCB zumindest teilweise zu refinanzieren.
Vieles scheint möglich.
[](-__-)[]
2006-11-17, 14:51:09
Außerdem, irgendwann muss man sowieso einmal auf 512 BIT SI setzen.
Und was das bringt, haben wir ja alle gesehen, siehe 9500 Pro (128 Bit) vs. 9700 Pro. (256 Bit)
Bei hohen Auflösungen entstehen da gewaltige Peformanceunterschiede.
Aber das die R600 200 Watt verbraten soll, das kann ich mir nicht vorstellen.
Wie ist die Meldung zu werten, daß der R600 64 Vec4 hat? Sollte doch schneller als 128 Skalare sein, oder?
Das kommt drauf an, was die so alles können. Ich würde eher auf 96 Shader-ALUs im R580-Stil, also 32 "Pipelines" schätzen.
Q
dargo
2006-11-17, 15:14:17
GDDR4 hat einen deutlich niedrigeren Verbrauch als GDDR3, also wäre 1.4GHz GDDR4 auf jeden Fall sparsamer als GDDR3 im Bereich von 0.8-1GHz...;)
Wetten wir, dass es nicht so ist? ;)
Ich denke aber auch, dass sie mit mehr als 256bit ankommen werden. Ob 320, 384 oder 512bit? => Keine Ahnung, aber vielleicht gehen sie den gleichen Zwischenschritt wie NV.
Das würde mich auch mal interessieren. Was spricht beim R600 gegen ein 320Bit SI (640MB, 10 Speicherchips) oder 384Bit (768MB 12 Speicherchips) oder sogar 448Bit (896MB 14 Speicherchips)?
Eventuell wäre es möglich 14 Chips um die GPU unterzubringen (ich weiß, das wird schon verdammt eng).
Auf der anderen Seite würde mich mal interessieren was wohl günstiger wäre - 256Bit 1GB Vram (16Chips) 1,4Ghz GDDR4 oder 512Bit 1GB Vram (16 Chips) 700Mhz GDDR3?
Moralelastix
2006-11-17, 15:37:43
Big GPUs are set to die
http://uk.theinquirer.net/?article=35818
Wetten wir, dass es nicht so ist? ;)
Doch, da hat er recht. Die Spannung ist deutlich niedriger und die Verlustleistung ist davon quadratisch abhängig wie wir alle wissen.
Big GPUs are set to die
http://uk.theinquirer.net/?article=35818
Was ein Schwachsinn.
dargo
2006-11-17, 15:43:20
Doch, da hat er recht. Die Spannung ist deutlich niedriger und die Verlustleistung ist davon quadratisch abhängig wie wir alle wissen.
Hmm, das erkläre mir bitte wieso eine X1950XTX mehr Strom verbraucht als eine X1900XTX?
X1900XTX = 775Mhz GDDR3
X1950XTX = 1000Mhz GDDR4
Für 1400Mhz GDDR4 müsste man höchstwahrscheinlich die Spannung im Vergleich zu 1000Mhz GDDR4 sogar noch leicht erhöhen.
Hmm, das erkläre mir bitte wieso eine X1950XTX mehr Strom verbraucht als eine X1900XTX?
Andere Chiprevision, andere Spannungswandler & das Speicherinterface selber läuft auf höherem Takt.
Der Speicher wirds nicht sein.
Gouvernator
2006-11-17, 15:48:26
Wo? Quelle? Offiziell bitte, nicht Inq.
Warum hat wohl nVIDIA "nur" 384 Bit gewählt als sie grad eh darüber nachgedacht haben das Ding breiter zu machen? Dämmerts?
Nee :wink: Das war Golem.de mit einem Interview
Lass mich raten: Golem hat gefragt, was sie von einem 512-Bit-SI halten und der ATi-Mensch hat mit "wir können nix ausschießen und denken darüber nach es evtl. beim richtigen Zeitpunkt zu bringen" geantwortet?
Wie unvorhersehbar... Falls R600 nur 256 Bit haben sollte wird er das sicher nicht in einem popligen Golem-Interview in die Welt posaunen wollen.
dargo
2006-11-17, 15:54:12
Andere Chiprevision, andere Spannungswandler & das Speicherinterface selber läuft auf höherem Takt.
Der Speicher wirds nicht sein.
Ähm, ich dachte immer der Fertigungsprozess würde sich mit der Zeit verbessern und nicht verschlechtern. :|
Die X1950XTX ist doch später erschienen.
Inwiefern andere Spannungswandler? Ich glaube kaum, dass ATI bei einer später erschienenen High-End Grafikkarte weniger effiziente Stromversorgung verbaut.
Und das mit dem höheren Takt vom SI verstehe ich nicht ganz als Vergleich.
Lass mich raten: Golem hat gefragt, was sie von einem 512-Bit-SI halten und der ATi-Mensch hat mit "wir können nix ausschießen und denken darüber nach es evtl. beim richtigen Zeitpunkt zu bringen" geantwortet?
Öhm, wie war das nochmal mit NV? Wir werden eine "USA" verwenden wenn der richtige Zeitpunkt da ist. ;D
Hmm, das erkläre mir bitte wieso eine X1950XTX mehr Strom verbraucht als eine X1900XTX?
X1900XTX = 775Mhz GDDR3
X1950XTX = 1000Mhz GDDR4
Für 1400Mhz GDDR4 müsste man höchstwahrscheinlich die Spannung im Vergleich zu 1000Mhz GDDR4 sogar noch leicht erhöhen.
ComputerBase, Stromverbrauchstest IDLE/LAST:
X1900XTX: 166/281
X1950XTX: 168/277
Ich mein Idle, pffft..., aber bei Last seh' ich das nicht so wirklich mit "höherem Verbrauch".
Ähm, ich dachte immer der Fertigungsprozess würde sich mit der Zeit verbessern und nicht verschlechtern.
Die X1950XTX ist doch später erschienen.
Ich weiß ja nicht was genau am Chip geändert wurde um GDDR4 zu unterstützen.
Und das mit dem höheren Takt vom SI verstehe ich nicht ganz als Vergleich.
Erstmal: Vergleichst du hier nicht die 256MiB und 512MiB Versionen?
Dann läuft der Chipteil der den Speicher anspricht mit dem gleichen Takt wie der Speicher selbst, hat also auch mehr Verlustleistung.
Öhm, wie war das nochmal mit NV? Wir werden eine "USA" verwenden wenn der richtige Zeitpunkt da ist. ;D
Eben. Solche Interviews sind geprägt durch Nicht-Aussagen und sind total marketingverseucht. Kein Mensch wird da konkrete Aussage zu zukünftigen Produkten machen solangs noch ne NDA gibt. Höchstens FUD verbreiten.
dargo
2006-11-17, 16:00:31
ComputerBase, Stromverbrauchstest IDLE/LAST:
X1900XTX: 166/281
X1950XTX: 168/277
Ich mein Idle, pffft..., aber bei Last seh' ich das nicht so wirklich mit "höherem Verbrauch".
Naja, xbitlabs meint:
X1900XTX = 120,x Watt
X1950XTX = 124,x Watt
Wem glaube ich jetzt wohl mehr? :rolleyes:
PS: Computerbase misst den Gesamtverbrauch und dann noch mit einem Energy Monitor 3000. Xbitlabs hat da wohl etwas besseres Mess-Equipment. X-D
Erstmal: Vergleichst du hier nicht die 256MiB und 512MiB Versionen?
Natürlich beide mit 512MB Vram. Alles andere wäre doch Unsinn. Außerdem gibt es keine X1900XTX mit 256MB Vram.
Dann läuft der Chipteil der den Speicher anspricht mit dem gleichen Takt wie der Speicher selbst, hat also auch mehr Verlustleistung.
Das ist klar. Es ging aber konkret um den Vergleich zwischen 800Mhz GDDR3 und 1400Mhz GDDR4.
Dann würde (wie du gesagt hast) der Chipteil, der den Speicher anpricht ebenfalls mit 800Mhz laufen und im zweiten Fall (GDDR4) mit 1400Mhz.
Also, ein weiterer Nachteil für die GDDR4 Grafikkarte, was den Stromverbrauch angeht.
Moralelastix
2006-11-17, 16:06:41
@dargo
Und was interpretierst Du in diese Verbrauchsache jetzt hinein?
Das der R600 keinen Vorteil beim Stromverbrauch durch die Nutzung von GDDR4 hätte?
Also, ein weiterer Nachteil für die GDDR4 Grafikkarte, was den Stromverbrauch angeht.
16 GDDR3-Chips verbrauchen trotzdem mehr als 8 GDDR4 ;)
dargo
2006-11-17, 16:16:01
Und was interpretierst Du in diese Verbrauchsache jetzt hinein?
Das der R600 keinen Vorteil beim Stromverbrauch durch die Nutzung von GDDR4 hätte?
Richtig, ab einer bestimmten Taktrate sehe ich keinen Vorteil für GDDR4.
16 GDDR3-Chips verbrauchen trotzdem mehr als 8 GDDR4 ;)
Erzähle mir mehr. Ich vergleiche zumindest in beiden Fällen 16 Chips. Oder gibts schon 128MB GDDR4 Chips (die ja für 1GB Vram nötig wären)?
Ich weiß ja nicht was genau am Chip geändert wurde um GDDR4 zu unterstützen.
Ein Bug im Speichercontroller wurde gefixt, der verhinderte, dass hohe Taktraten von deutlich mehr als 900 MHz verläßlich möglich wurden.
seahawk
2006-11-17, 16:34:56
Gesichert ist für mich nur, dass der R600 GDDR4 haben wird.
Davon uasgehend stellt sich für mich die Frage, was logischer ist um eine Bandbreite auf G80 Niveau zu erzeugen.
256Bit und hoher Speichertakt
oder
512Bit und niedrigerer Speichertakt
oder
512Bit und hoher Takt
c) liefert ne extreme Bandbreite - was will man damit machen ?
b) bringt einen auf eine G80 artige Bandbreite, nur warum GDDR4, der teurer ist und schlechtere Latenzen hat
a) bringt auch ungefähr GDDR4 Niveau
dargo
2006-11-17, 16:43:10
Gesichert ist für mich nur, dass der R600 GDDR4 haben wird.
Bist du dir da sicher? Ich hatte auch was vom GDDR3 gelesen.
Davon uasgehend stellt sich für mich die Frage, was logischer ist um eine Bandbreite auf G80 Niveau zu erzeugen.
256Bit und hoher Speichertakt
oder
512Bit und niedrigerer Speichertakt
oder
512Bit und hoher Takt
b) bringt einen auf eine G80 artige Bandbreite, nur warum GDDR4, der teurer ist und schlechtere Latenzen hat
Tja, hier wäre wieder die Frage wie teuer ein GDDR4@675Mhz ist (gibts sowas überhaupt, oder fängt der erst bei 1000Mhz an?). Denn 675Mhz@512Bit SI ergeben 86,4GB/s des G80.
Da wär schnellerer Speicher auf jede Fall günstiger als das teure PCB.
Gouvernator
2006-11-17, 17:00:37
Da wär schnellerer Speicher auf jede Fall günstiger als das teure PCB.
Erstens es kommt beides aufeinmal. Zweitens ich kann mir das bei bestem Willen nicht vorstellen das 2m Kupferleitungen und einbisschen Plastik teuerer sein sollen als 1gb extraHighend Speicher.
Erstens es kommt beides aufeinmal..
Jaja is gut.
Zweitens ich kann mir das bei bestem Willen nicht vorstellen das 2m Kupferleitungen und einbisschen Plastik teuerer sein sollen als 1gb extraHighend Speicher.
Dann hast du eben keine Ahnung.
dargo
2006-11-17, 17:05:58
Da wär schnellerer Speicher auf jede Fall günstiger als das teure PCB.
Auch auf längere Sicht? Damit meine ich den Refreshchip vom R600. Und vielleicht sogar den R700.
seahawk,
Ich bin der Meinung, dass Ati aus Marketing-Gründen nicht zurück zu GDDR3 kann, nachdem sie GDDR4 mit der X1950 XTX so gepushed haben.
Möglich wäre ja auch mäßiger GDDR4-Takt (also 1 GHz, nicht 1,4) und breites Interface.
Q
Btw. wenns so billig wäre, dann hätten die Mainstream-Karten kein 128-Bit-SI.
Gouvernator
2006-11-17, 17:15:52
Dann hast du eben keine Ahnung.
Natürlich. Nur die Argumentation etwas wie PCB wäre hinderlich wegen dem Preis und sowas .... gilt in Verbindung mit highend Grafikkarten insbesondere (!) ATis Grafikkarten als absurd. Wenn man solchen Argumentation folgt, dann hätte Ati den Chip der ja am meisten kostet und am meisten verbraucht gar nicht sooo gross machen sollen am liebsten ein Stück kleiner als ein R520 haupsache der Preis stimmt ;D
Du bist echt ein lustiges Kerlchen. Was glaubst du warum ein G80 GTX mit dem äußerst komplexen PCB >600€ kostet (kann mich nicht entsinnen dass das bei der 7800 GTX oder 7900 GTX so war).
ATi kann natürlich ne Karte für 800€ anbieten, aber wer will die bitte noch (außer euch Marktschreiern)? Und dann hätten wir immer noch das Problem dass der Chip erstmal genügend Fläche haben muss um soviel Pins nach außen zu führen.
Bei Flip-Chip werden die Pads nämlich tatsächlich direkt auf den Chip gelötet.
Nochmal: Wenn das alles so billig wäre, hätten die Mainstream-Chips auch schon lange ein breiteres SI. Ich vermute aber dass man da auch Probleme mit den kleineren Chips hat.
incurable_nli
2006-11-17, 17:20:09
Big GPUs are set to die
http://uk.theinquirer.net/?article=35818
Ob Charlie eigentlich körperliche Schmerzen empfindet, wenn er wie hier versucht uns VSA-100 Redux als eine tolle neue Idee zu verkaufen? Ich finde, das wäre nur gerecht.
Big GPUs are set to die
http://uk.theinquirer.net/?article=35818Da hat der gute Autor wohl was in den falschen Hals bekommen. Von wem auch immer der diese Aussage hat, sie war mit sehr hoher Wahrscheinlichkeit nicht so gemeint wie er sie interpretiert hat.
dargo
2006-11-17, 17:26:42
Btw. wenns so billig wäre, dann hätten die Mainstream-Karten kein 128-Bit-SI.
Ein R600 ist aber kein Mainstream. :rolleyes:
Ein R600 ist aber kein Mainstream. :rolleyes:
Ja und? 800€ sollte er trotzdem nicht kosten. Mal ganz abgesehen davon ob ein 20-Layer-PCB überhaupt in diesen Massen fertigbar ist. Das sind nämlich normal Kleinserien.
Und nein 16 Chips auf eine Seite der Karte geht kaum, da must du auf beiden Seiten bestücken und dann liegen die Leiterbahnen von jeweils 2x32 Bit notgedrungen immer an der selben Stelle. Ach und natürlich müssen sie bei dem hohen GDDR4-Takt auch wirklich verdammt genau gleich lang sein.
dargo
2006-11-17, 17:31:15
Du bist echt ein lustiges Kerlchen. Was glaubst du warum ein G80 GTX mit dem äußerst komplexen PCB >600€ kostet (kann mich nicht entsinnen dass das bei der 7800 GTX oder 7900 GTX so war).
Du vergisst hier aber etwas. Beim G80 gibt es momentan keine Konkurenz.
Wozu sollte also NV eine G8800GTX für 450-500$ anbieten?
Außerdem sieht man an der G8800GTS (450$), dass es auch günstiger geht obwohl ein größeres SI als 256Bit.
Du vergisst hier aber etwas. Beim G80 gibt es momentan keine Konkurenz.
Gabs bei der 7800 GTX auch nicht.
Außerdem sieht man an der G8800GTS (450$), dass es auch günstiger geht obwohl ein größeres SI als 256Bit.
Abfallchips mit so geringer Leistung muss man eben billig verkaufen.
Gouvernator
2006-11-17, 17:38:20
Letztes Jahr waren 1900 Karten fast 700€ teuer. Und G80 jetzt nur knapp 600€ . Das heisst für mich das NV diese Dinger sehr billig produzieren kann und sehr bald , sehr starke Preissenkungen anstehen. NV kontert teuren R600 über den Preis.
dargo
2006-11-17, 17:38:30
Abfallchips mit so geringer Leistung muss man eben billig verkaufen.
Aha, Abfallchips?
Wer sagt denn, dass bei einer G8800GTS Grafikkarte keine vollwertige GPU einer GTX drin steckt?
Oder bist du so gut über die Ausbeute beim G80 informiert?
Gabs bei der 7800 GTX auch nicht.
Aber bei der G7900GTX. Mit dem R520 hatte ATI halt etwas Pech gehabt.
Abfallchips mit so geringer Leistung muss man eben billig verkaufen.Zerstöre bitte diesen Thread nicht durch nervige Flames.
Du vergisst hier aber etwas. Beim G80 gibt es momentan keine Konkurenz.
Wozu sollte also NV eine G8800GTX für 450-500$ anbieten?
Außerdem sieht man an der G8800GTS (450$), dass es auch günstiger geht obwohl ein größeres SI als 256Bit.
Richtig, man will auch noch Geld mit der 7900 Karten machen, deswegen wäre es dumm die 8800 für unter 600euro zuverkaufen.
Moralelastix
2006-11-17, 17:53:40
Vielleicht ist sogar der GTX ein "Abfallchip".:biggrin:
NV hat der Ausbeute wegen mehr Einheiten ins Silizium gebrannt als öffentlich angegeben.
(Tombman wird mich für den Satz umbringen wollen. Der kauft sonst ja nur "unverstümmelte" Hardware. *grööl*)
dargo
2006-11-17, 17:57:26
Richtig, man will auch noch Geld mit der 7900 Karten machen, deswegen wäre es dumm die 8800 für unter 600euro zuverkaufen.
Eben, erst wenn die G7x Lager leer sind und/oder die Konkurenz entsprechende Produkte für den G80 liefert wird NV den Preis senken. Alles andere wäre Unsinn. Und erst dann werden wir sehen ob das 384Bit SI der G8800GTX wirklich so teuer war, dass NV nicht fähig ist den Preis auf ~400-450$ zu drücken.
Letztes Jahr waren 1900 Karten fast 700€ teuer. Und G80 jetzt nur knapp 600€ . Das heisst für mich das NV diese Dinger sehr billig produzieren kann und sehr bald , sehr starke Preissenkungen anstehen. NV kontert teuren R600 über den Preis.
Lies dich einfach mal schlau, wie groß die Chips sind im Vergleich zur letzten Generation. Dann kommst du auch drauf, dass da nicht mehr sehr viel Luft nach unten ist, bevor der Shrink auf 80, eher 65nm folgt.
Q
Moralelastix
2006-11-17, 18:21:09
Kam doch eindeutig in der NV Bilanz rüber das die sich dumm und dämlich verdient haben.
Mit den ersten G80 wird NV halt ne Mischkalkulation fahren und kaum an der Karte verdienen.
reunion
2006-11-17, 18:37:23
Tja, hier wäre wieder die Frage wie teuer ein GDDR4@675Mhz ist (gibts sowas überhaupt, oder fängt der erst bei 1000Mhz an?).
Der fängt sogar erst bei 1.1Ghz an.
Kam doch eindeutig in der NV Bilanz rüber das die sich dumm und dämlich verdient haben.
Aber nicht am High-End.
dargo
2006-11-17, 18:44:36
Der fängt sogar erst bei 1.1Ghz an.
Hö? Dann untertaktet ATI bewusst die X1950XTX beim Speicher?
AnarchX
2006-11-17, 18:53:33
Hö? Dann untertaktet ATI bewusst die X1950XTX beim Speicher?
Ja das tun sie, 0.9ns ist der kleinste verfügbare GDDR4, sie werden sich wohl für die 1000MHz entschieden, weil vielleicht mehr Probleme macht mit dem aktuellen PCB.
reunion
2006-11-17, 18:54:48
Der SI-Wahn ist IMO völlig Fehl am Platz. Ich möchte daran erinnern, dass eine X1950XTX kaum von ihrer höheren Speicherbandbreite profitiert. Natürlich ist es jetzt angesichts des um 50% verbreiterten SI des G80 "in", über R600 ähnliche Gerüchte zu streuen, allerdings sollte man dabei nicht völlig abheben. Ich würde jede Wette abschließen, dass R600 mit einem 256-bit SI plus hohen GDDR4-Takraten daherkommt - und ja, auch damit kann man die Speicherbandbreite des G80 überbieten.
dargo
2006-11-17, 18:59:36
Ich möchte daran erinnern, dass eine X1950XTX kaum von ihrer höheren Speicherbandbreite profitiert.
Öhm, die "Grundperformance" steigt aber bei einer neuen Generation in der Regel stark an. Ich glaube kaum, dass 64GB/s der X1950XTX einem R600 reichen würden.
reunion
2006-11-17, 19:06:00
Öhm, die "Grundperformance" steigt aber bei einer neuen Generation in der Regel stark an. Ich glaube kaum, dass 64GB/s der X1950XTX einem R600 reichen würden.
Von R300 bis R580 gab es geradeeinmal etwas mehr als eine Verdoppelung, was die Speicherbandbreite betrifft. Jetzt, wo endlich GDDR4-Speicher verfügbar ist, welcher mal eben schon aktuell über 50% höhere Taktraten erlaubt, soll man auf einmal das SI verbreitern?
Auch der Schritt von nV leuchtet mir nicht ein. Man hätte diese Bandbreite auch wesentlich billiger haben können (weniger Transistoren, weit weniger komplexes PCB, niedrigerer Stromverbrauch), aber vermutlich war man sich etwas zu unsicher, was die Lieferbarkeit von GDDR4-RAM angeht.
dargo
2006-11-17, 19:22:07
Von R300 bis R580 gab es geradeeinmal etwas mehr als eine Verdoppelung, was die Speicherbandbreite betrifft. Jetzt, wo endlich GDDR4-Speicher verfügbar ist, welcher mal eben schon aktuell über 50% höhere Taktraten erlaubt, soll man auf einmal das SI verbreitern?
Und was soll das jetzt aussagen? :)
R300 (R9700pro) = 19,84GB/s
R580 (X1900XTX) = 49,6GB/s
R580+ (X1950XTX) = 64GB/s
Bei NV sah es auch nicht anders aus. Von der FX 5900 (27,2GB/s) bis G7900GTX (51,2GB/s).
Und was lässt dich daraus jetzt schliessen, dass ein R600 keine ~100GB/s bieten kann?
Ailuros
2006-11-17, 19:22:44
Der SI-Wahn ist IMO völlig Fehl am Platz. Ich möchte daran erinnern, dass eine X1950XTX kaum von ihrer höheren Speicherbandbreite profitiert. Natürlich ist es jetzt angesichts des um 50% verbreiterten SI des G80 "in", über R600 ähnliche Gerüchte zu streuen, allerdings sollte man dabei nicht völlig abheben. Ich würde jede Wette abschließen, dass R600 mit einem 256-bit SI plus hohen GDDR4-Takraten daherkommt - und ja, auch damit kann man die Speicherbandbreite des G80 überbieten.
Ueberbieten kann man etwas immer, nur kommt es eben nicht umsonst; sprich natuerlich koennte R600 >1.35GHz GDDR4 haben aber desto teurer und seltener wird der Speicher sein, stets im Vergleich zu 1.1ns GDDR3.
Noch schlimmer wenn man alles auf einmal ausnutzt bleibt wieviel Luftraum fuer Refreshes dann uebrig? Bleibt R600 auf 256bit heisst dass fuer NV stets 50% mehr Bandbreite pro MHz.
Es handelt sich hier nicht um einen Aspekt der die Effizienz einer Architektur entscheiden sollte, denn wie man jegliche Bandbreite gebraucht ist um einiges wichtiger als sture Zahlen; der Punkt hier ist eher die Skalierbarkeit in der vorhersehbaren Zukunft, der mainstream Markt mitinbegriffen.
Von R300 bis R580 gab es geradeeinmal etwas mehr als eine Verdoppelung, was die Speicherbandbreite betrifft. Jetzt, wo endlich GDDR4-Speicher verfügbar ist, welcher mal eben schon aktuell über 50% höhere Taktraten erlaubt, soll man auf einmal das SI verbreitern?
Vielleicht ja einfach deshalb weil der G80 nach der ursprünglichen Planung von Nvidia eigentlich schon im Frühjahr kommen sollte.
reunion
2006-11-17, 19:33:58
Und was soll das jetzt aussagen? :)
R300 (R9700pro) = 19,84GB/s
R580 (X1900XTX) = 49,6GB/s
R580+ (X1950XTX) = 64GB/s
Bei NV sah es auch nicht anders aus. Von der FX 5900 (27,2GB/s) bis G7900GTX (51,2GB/s).
Und was lässt dich daraus jetzt schliessen, dass ein R600 keine ~100GB/s bieten kann?
Ich schließe daraus nicht, dass R600 keine 100GB/s bieten kann. Ich schieße daraus nur, dass dies wenig sinnvoll ist. ATi hat erst mit R520 die Effizienz des Speichercontrollers deutlich gesteigert, jetzt noch GDDR4-Speicher, und man kann auch die theoretische Bandbreite deutlich steigern.
Gouvernator
2006-11-17, 19:34:08
ATi muss auch Leute beeindrucken damit sie neue Chips kaufen. Ich zum Beispiel sehe überhaupt keinen Grund auf etwas anderes umzusteigen, es muss schon gewaltige Performance kommen. Und das bieten 512bit+DDR4 gleichzeitig. Bei NV ist das normal das man mit ihren single-Chips bei neueren Games in 1600x1200+AA Probleme überhaupt flüssig zu spielen hat, deshalb kommt jede neue Generation so gut an.
dargo
2006-11-17, 19:39:23
Ich schließe daraus nicht, dass R600 keine 100GB/s bieten kann. Ich schieße daraus nur, dass dies wenig sinnvoll ist. ATi hat erst mit R520 die Effizienz des Speichercontrollers deutlich gesteigert, jetzt noch GDDR4-Speicher, und man kann auch die theoretische Bandbreite deutlich steigern.
Dazu gleich eine Frage von mir - die D3D10 Chips müssen ja HDR+AA darstellen können. Geht HDR auf die Speicherbandbreite oder die Füllrate (kann es mir nie merken :redface:)?
reunion
2006-11-17, 19:39:40
Ueberbieten kann man etwas immer, nur kommt es eben nicht umsonst; sprich natuerlich koennte R600 >1.35GHz GDDR4 haben aber desto teurer und seltener wird der Speicher sein, stets im Vergleich zu 1.1ns GDDR3.
Noch schlimmer wenn man alles auf einmal ausnutzt bleibt wieviel Luftraum fuer Refreshes dann uebrig? Bleibt R600 auf 256bit heisst dass fuer NV stets 50% mehr Bandbreite pro MHz.
Es war eigentlich in der Vergangenheit fast immer so, dass ein neuer High-End-Chip den schnellsten verfügbaren Speicher bekam, ich sehe darin kein Problem. Und natürlich ist hochgetakteter GDDR4 nicht billig, aber erstens ist R600 auch kein Billigchip, und zweitens ist ein breiteres SI eben auch nicht billig.
Es handelt sich hier nicht um einen Aspekt der die Effizienz einer Architektur entscheiden sollte, denn wie man jegliche Bandbreite gebraucht ist um einiges wichtiger als sture Zahlen;
Genau das ist der Punkt.
der Punkt hier ist eher die Skalierbarkeit in der vorhersehbaren Zukunft, der mainstream Markt mitinbegriffen.
Auch im Mainstreammarkt wird man von GDDR4 profitieren.
reunion
2006-11-17, 19:43:04
ATi muss auch Leute beeindrucken damit sie neue Chips kaufen. Ich zum Beispiel sehe überhaupt keinen Grund auf etwas anderes umzusteigen, es muss schon gewaltige Performance kommen. Und das bieten 512bit+DDR4 gleichzeitig. Bei NV ist das normal das man mit ihren single-Chips bei neueren Games in 1600x1200+AA Probleme überhaupt flüssig zu spielen hat, deshalb kommt jede neue Generation so gut an.
Wie AiL schon sagte, Zahlen sind wertlos, was zählt, ist die Effizienz. Es gibt dazu genügend Beispiele in der Vergangenheit, die trotz toller "Zahlen" in der Praxis floppten.
Dazu gleich eine Frage von mir - die D3D10 Chips müssen ja HDR+AA darstellen können. Geht HDR auf die Speicherbandbreite oder die Füllrate (kann es mir nie merken :redface:)?
Hauptsächlich auf die Bandbreite.
dargo
2006-11-17, 19:49:08
Hauptsächlich auf die Bandbreite.
Aha. :idea:
Also gibt es doch einen wichtigen Grund für verhältnismäßig hohe Bandbreite bei D3D10 Chips.
Gouvernator
2006-11-17, 19:49:16
Wie AiL schon sagte, Zahlen sind wertlos, was zählt, ist die Effizienz. Es gibt dazu genügend Beispiele in der Vergangenheit, die trotz toller "Zahlen" in der Praxis floppten.
Ich gehe mal davon aus das die jetzige mindestens genau soo bleibt, damit bin ich seit 9800pro ganz gut gefahren. Ist schon erschreckend was NV Kunden alles von einer neuen Karte so erwarten ;D
reunion
2006-11-17, 19:56:43
Aha. :idea:
Also gibt es doch einen wichtigen Grund für verhältnismäßig hohe Bandbreite bei D3D10 Chips.
Auch R520/R580 kann schon HDR+AA, wie du sicher weißt.
Ich gehe mal davon aus das die jetzige mindestens genau soo bleibt, damit bin ich seit 9800pro ganz gut gefahren.
Sie soll vorallem besser werden. Und so etwas kann man eben nicht in Zahlen beschreiben. Im übrigen ist die Speicherbandbreite nur ein Faktor von vielen, welcher etwas über die Performance aussagt. Man sollte das nicht überschätzen.
dargo
2006-11-17, 20:02:33
Auch R520/R580 kann schon HDR+AA, wie du sicher weißt.
Natürlich, ich meinte aber eher vom Marketing her. Für DX9 Chips war HDR+AA kein muss. Dementprechend gabs auch nicht allzuviele Games die das unterstützt haben. Mit D3D10 Hardware von NV sollte sich das jetzt nun ändern (hoffe ich zumindest).
[QUOTE=reunion]Auch R520/R580 kann schon HDR+AA, wie du sicher weißt.
QUOTE]
Können ja, aber mit welcher Geschwindigkeit?
dargo
2006-11-17, 20:37:27
Können ja, aber mit welcher Geschwindigkeit?
Wieso? Call of Juarez konnte ich ohne Probleme flüssig in 1280x1024 4xAA/16xAF (beste Qualität im Spiel an) mit meiner X1900XT spielen.
Gouvernator
2006-11-17, 20:42:01
[QUOTE=reunion]Auch R520/R580 kann schon HDR+AA, wie du sicher weißt.
QUOTE]
Können ja, aber mit welcher Geschwindigkeit?
ich hab irgendwo Oblivion Screens in 2560x1920 +HDR+AA mit Fraps Anzeige...
themk
2006-11-17, 20:47:36
Ich denke, die Gerüchte um ein langes PCB sprechen für >256Bit.
Gleichzeitig glaube ich aber an GDDR4, einfach weil ATI den bereits bei ihren X1950XTX einsetzt.
Ein "Kompromis" wäre 384Bit SI oder dergleichen + GDDR4.
Zu den Spannungswandlern: Was sind denn die auf den X1950pro für welche? Sind das die Selben, wie die Anderen, von denen die Rede war?
Zu dem INQ Link über den R700 und dessen Teilung in einzelne Chips:
Ich denke, dass es schon irgendwann in diese Richtung gehen könnte, vor allem wenn es möglich ist, mehrere solcher Chip mit annähernd der selben Performance im Vergleich zu einem Äquivalent in Single-Chip Form, da man damit einen höheren Yield erhällt. Wobei beim G80 ja schon mehr Units als nötig verbaut wurden, um diesem Problem entgegenzugehen. (das schafft dann allerdings wieder neue Probleme)
Der SI-Wahn ist IMO völlig Fehl am Platz. Ich möchte daran erinnern, dass eine X1950XTX kaum von ihrer höheren Speicherbandbreite profitiert. Natürlich ist es jetzt angesichts des um 50% verbreiterten SI des G80 "in", über R600 ähnliche Gerüchte zu streuen, allerdings sollte man dabei nicht völlig abheben. Ich würde jede Wette abschließen, dass R600 mit einem 256-bit SI plus hohen GDDR4-Takraten daherkommt - und ja, auch damit kann man die Speicherbandbreite des G80 überbieten.
Naja, das ist nun wirklich nicht zu vergleichen. Wenn die Rohleistung steigt, wird auch meist der Bedarf in anderen Bereichen steigen.
Stell dir mal GPU wie dem G80 mit 80 MB VRAM vor... wäre lächerlich, genau wie eine CPU vom Stand eines Core 2 mit 256 KB L2 Cache. Das wird nichts.
Die neue Generation ist geradezu dafür prädestiniert, höhere Auflösung und/oder höhere AA Modi zu fahren. Bei 2560x1600 und 6xAA geht einem sehr schnell der Saft aus...
So teuer kann ein ein breites Speicherinterface gar nicht sein. Schaut mal die aktuellen Preise an. nvidia kann die GTS mit 320 bit SI, ohne Konkurrenz trotzdem für gerade mal um die 430 Euro anbieten - da waren vor kurzem Karten der X1900 Serie noch teurer nach dem Launch!
Ich bin mir sicher, das nvidia nicht so doof ist und diese Karten unter Herstellungspreis verkauft, macht ja auch keinen Sinn, gibt keine Konkurrenz! Also da ist sicherlich noch viel Spielraum, wieviel genau, werden wir dann sehen, wenn der Preiskampf losgeht.
Würde mich nicht wundern, wenn die selbst bei 280 € noch Geld scheffeln.
Man muss auch sehen, das technologie mit der Zeit billiger werden kann, egal was hier behauptet wird. Massenproduktion ist schonmal ein Punkt, dann kommt der andere: Neuere Maschinen oder Technologien. Die Entwicklung geht immer weiter und diese "es wird keine 512 bit Karten geben" Fanatiker sollten langsam mal aufwachen, in den nächsten 2 Jahren, vielleicht sogar 6 Monaten wird es sie geben.
Klar wird die Entwicklung immer aufwendiger, aber war das jemals anders? Nö!
Man braucht nur mal über den Teich sehen... was haben Firmen wie Intel, nVidia etc. vor 10-15 Jahren produziert und was heute? Sie geben viel mehr Geld für Technologie aus, scheffeln trotzdem noch riesige Gewinne... ganz verkehrt kann es also nicht sein.
Die letzten 2 Pcs von mir hatten nur ATIs drin, die nächste Graka wird wieder ein Mainstreamding.
Wenn ATI mich überzeugt wirds wieder eine ATI. Falls ATI aber wieder kein richtiges Mainstreamangebot hat...dann wohl nicht...
Für mich ist das SI vollkommen egal, Bandbreite kann sehr unterschiedlich geschaffen werden. NV ging imho den Mittelweg, was nicht wirklich gut sein muss. Es ist nicht das billigste aber auch nicht das teuerste.
Der R600 wird nur ein 256 SI haben. Nicht umsonst haben einige Leute, die anscheinend Infos haben, sich dagegen geäußert...^^
Ich wette der R600 profitiert nicht übermässig mit 140Gb/s Bandbreite.
Es sieht eher danach aus, das erst die Füllrate limitiert.
Gouvernator
2006-11-17, 21:01:14
Mainstream interessiert nicht. Da bezahlst du doppelt für die Hälfte der Leistung.
So teuer kann ein ein breites Speicherinterface gar nicht sein. Schaut mal die aktuellen Preise an. nvidia kann die GTS mit 320 bit SI, ohne Konkurrenz trotzdem für gerade mal um die 430 Euro anbieten - da waren vor kurzem Karten der X1900 Serie noch teurer nach dem Launch!
Nochmal: Das sind "Abfallchips" die man so noch verkauft anstatt sie wegzuwerfen.
Mainstream interessiert nicht. Da bezahlst du doppelt für die Hälfte der Leistung.
Schonmal irgendwelche Preis/Leistung-Charts angesehen? Du liegst falsch.
Bei NV ist das normal das man mit ihren single-Chips bei neueren Games in 1600x1200+AA Probleme überhaupt flüssig zu spielen hat, deshalb kommt jede neue Generation so gut an.
Welche wären das genau bei der 8800 GTX? Man laberst du Scheiße...
Gouvernator
2006-11-17, 21:30:11
Welche wären das genau bei der 8800 GTX? Man laberst du Scheiße...
Ähm, 8800 ist ja neu. Ich habe "alte" Generation gemeint etwa die 7900GTX und mir fällt grad auch was ein =) Oblivion
Schonmal irgendwelche Preis/Leistung-Charts angesehen? Du liegst falsch
Für die Einstellungen die ich fahre bricht jedes quad-cf-sli aus mainstream Grafikkarten zusammen, weil sie dafür gar nicht gebaut wurden.
Und was erzeugt bei dir den Eindruck einer architektonischen Schwäche bei G80? Oder willst du hauptsache Mal Dünnpfiff ablassen?
Ich sehe eine vollständig entkoppelte Architektur, deren Einheiten sich kaum besser auslasten lassen dürften. Solche extremen Situationen wirst du nicht mehr sehen gegen R600. Aber lass dich überraschen, gegen den Sturkopf (Blödkopf?) ist eh kein Kraut gewachsen.
Für die Einstellungen die ich fahre bricht jedes quad-cf-sli aus mainstream Grafikkarten zusammen, weil sie dafür gar nicht gebaut wurden.
Ach und das macht jeder?
Gouvernator
2006-11-17, 21:38:24
Ui, das wird sich noch rächen :) G80 ist erster DX10 grafikchip...
Und R600 bei ATi auch. Die Designs sind schon lange fertig wie du sicher weißt.
seahawk
2006-11-17, 21:47:27
seahawk,
Ich bin der Meinung, dass Ati aus Marketing-Gründen nicht zurück zu GDDR3 kann, nachdem sie GDDR4 mit der X1950 XTX so gepushed haben.
Möglich wäre ja auch mäßiger GDDR4-Takt (also 1 GHz, nicht 1,4) und breites Interface.
Q
Möglich, nur was bringt dene 1,0GHZ GDDR4 bei einem 512Bit Bus. Die rechenrische Bandbreite ist pervers hoch.
Hvoralek
2006-11-17, 21:51:36
ich hab irgendwo Oblivion Screens in 2560x1920 +HDR+AA mit Fraps Anzeige...Bei 4xAA braucht dann allein schon der Framebuffer 750 MiB, dazu noch Texturen - Das wirdbei 512 MiB übel aussehen. Aber allein die Aussage, dass solche Einstellungen nicht spielbar sind, bedeutet nicht, dass drastisch mehr Bandbreite das Allheilmittel ist.
Probier mal Einstellungen aus, die in den RAM passen und prüfe dann mal, ob es eher an Bandbreite mangelt oder an Rohleistung.
Ähm, 8800 ist ja neu. Ich habe "alte" Generation gemeint etwa die 7900GTX und mir fällt grad auch was ein =) Oblivion
In Oblivion- Außengebieten liegt bei der X1/7- Generation Nvidia hinten. Völlig richtig. Und? Was hat das jetzt damit zu tun, dass angeblich Nvidia- Karten in höheren Auflösungen pauschal unbrauchbar sind? Und was mit R600 oder G80?
seahawk
2006-11-17, 21:52:15
Letztes Jahr waren 1900 Karten fast 700€ teuer. Und G80 jetzt nur knapp 600€ . Das heisst für mich das NV diese Dinger sehr billig produzieren kann und sehr bald , sehr starke Preissenkungen anstehen. NV kontert teuren R600 über den Preis.
Nö, dass bedeutet, dass sie ne gute Ausbeute haben, billigen und leicht verfügbaren Speicher verwenden und ein nur geringfügig komplizierteres PCB benutzen. (alle Speicherchip auf einer Seite)
Ich schließe daraus nicht, dass R600 keine 100GB/s bieten kann. Ich schieße daraus nur, dass dies wenig sinnvoll ist. ATi hat erst mit R520 die Effizienz des Speichercontrollers deutlich gesteigert, jetzt noch GDDR4-Speicher, und man kann auch die theoretische Bandbreite deutlich steigern.
Was nennst du eine deutliche Steigerung der Effizienz? Bist du sicher, dass die 1:1-Performance-Gewinne nicht eher durch massiv vergrößerte interne Caches zustande kamen und man den eigentlich eher abgespeckten Speichercontroller nun als "Ringbus" verkaufen musste?
Q
ATi muss auch Leute beeindrucken damit sie neue Chips kaufen. Ich zum Beispiel sehe überhaupt keinen Grund auf etwas anderes umzusteigen, es muss schon gewaltige Performance kommen. Und das bieten 512bit+DDR4 gleichzeitig. Bei NV ist das normal das man mit ihren single-Chips bei neueren Games in 1600x1200+AA Probleme überhaupt flüssig zu spielen hat, deshalb kommt jede neue Generation so gut an.
Müssen solche sinnlos anstachelnden Flames sein?
Q
Nochmal: Das sind "Abfallchips" die man so noch verkauft anstatt sie wegzuwerfen.
Unrelevant. Mit diesem "Abfall" machen sie garantiert noch Gewinn, was noch mehr darauf deutet, das die GTX sogar noch billiger als die GTS angeboten werden könnte, ohne Verluste zu schreiben.
Möglich, nur was bringt dene 1,0GHZ GDDR4 bei einem 512Bit Bus. Die rechenrische Bandbreite ist pervers hoch.
Sie könnten dann zum Beispiel 12xMSAA recht "kostengünstig" fahren (drei Loops à vier Samples). Außerdem muss breit ja nicht gleich 512 Bit heißen - vielleicht haben sie sich auch für den Weg von Nvidia entschieden und bieten erstmal Zwischenstufen an?
Q
Gouvernator
2006-11-17, 22:18:26
drastisch mehr Bandbreite das Allheilmittel ist
Das und 1gig Speicher dazu.
Was hat das jetzt damit zu tun, dass angeblich Nvidia- Karten in höheren Auflösungen pauschal unbrauchbar sind?
Jep. Single Karten. Sonst hätte ich Nvidia die ganze Zeit.
Müssen solche sinnlos anstachelnden Flames sein?
Nee, ist nun mal die Wahrheit. Ich glaube niemand würde sich mit seiner 7900GTX mit mir anlegen. Villeicht schafft die noch in 16x12 spielbare framerates aber das ist auch alles für die.
Nee, ...
Gut, dann lass' es bitte bleiben. Wir wissen alle, dass du der tollste bist, der die Maske seines CRT gnadenlos bis in den Ultra-Matsch überfährt und Tiefen, Mitten und Höhen absenkt, um dann die Lautstärke aufzudrehen - ok?
Q
Gouvernator
2006-11-17, 22:32:06
Gut, dann lass' es bitte bleiben. Wir wissen alle, dass du der tollste bist, der die Maske seines CRT gnadenlos bis in den Ultra-Matsch überfährt und Tiefen, Mitten und Höhen absenkt, um dann die Lautstärke aufzudrehen - ok?
Q
Ich probiere gerne Dinge aus, die ihr für nicht möglich und nutzlos haltet, nun ich der das ausprobiert und gesehen hab weiss dazu was zu sagen :biggrin: Ihr seid krasses gegenteil,dazu.
deekey777
2006-11-17, 22:32:37
Gouvernator, es reicht so langsam. In diesem Thread geht es nicht um deine Kaufabsichten, auch nicht darum, was eine 7900irgendwas schafft oder nicht, hier geht es nur um den R600. Beiträge, die irgendwelchen Wunschvorstellungen gleichen, sind hier auch nicht erwünscht.
[](-__-)[]
2006-11-17, 23:03:14
nVidia hat ja gezielt Gerüchte, über den R600, in die Welt gesetzt. Vielleicht ist es ja auch so, dass alles nur ein Pokerspielchen war.
Könnte dann so aussehen:
- 512 BIT SI
- 550 Mhz GPU Takt
- 1 Millonen Transistoren
- GDDR4 1024 MB (1200 Mhz)
- 650 Euro
;D
Falls du 1 Milliarde Transistoren meinst, dann würde ich das nicht in 80nm jetzt bei TSMC fertigen wollen. Und nein 550Mhz sind definitiv zu wenig, soviel kann ich dir zu R600 sagen ;)
Hvoralek
2006-11-17, 23:17:12
(Ich beschränke mich auf das zum R600 Relevante)
Das und 1gig Speicher dazu.Und Du meinst nicht, dass für solche Auflösungen auch die Rohleistung ein gewisses Niveau erreichen sollte? AA geht etwa in gleichem Maße auf Bandbreite und Pixel- sowie z/Stencil- Füllrate, eine hohe Auflösung zusätzlich auch noch auf die Texel-.
Es war eigentlich in der Vergangenheit fast immer so, dass ein neuer High-End-Chip den schnellsten verfügbaren Speicher bekam, ich sehe darin kein Problem.Naja, die 7800GTX/256 kam mit recht konservativem 1,6ns-GDDR3. Das lag aber wohl daran, dass weit und breit keine Konkurrenz da war. Sobald R520 dann kam, haben sie ja auch die GTX/512 mit dem schnellsten, was verfügbar war, rausgehauen.
Gouvernator
2006-11-17, 23:33:07
(Ich beschränke mich auf das zum R600 Relevante)
Und Du meinst nicht, dass für solche Auflösungen auch die Rohleistung ein gewisses Niveau erreichen sollte? AA geht etwa in gleichem Maße auf Bandbreite und Pixel- sowie z/Stencil- Füllrate, eine hohe Auflösung zusätzlich auch noch auf die Texel-.
Wird halt übertaktet... wie immer. Aber für ältere Spiele wird gar nicht so verkehrt sein. Ganz alte Spiele laufen jetzt schon sehr passabel aber ich will eine Stufe höher etwa FEAR in 25x19. Neustes Kram interessiert mich eher wenig da ich schon bei der Xbox neuste Sachen spiele.
nagus
2006-11-17, 23:52:59
(-__-)[]']nVidia hat ja gezielt Gerüchte, über den R600, in die Welt gesetzt. Vielleicht ist es ja auch so, dass alles nur ein Pokerspielchen war.
Könnte dann so aussehen:
- 512 BIT SI
- 550 Mhz GPU Takt
- 1 Millonen Transistoren
- GDDR4 1024 MB (1200 Mhz)
- 650 Euro
;D
550Mhz und 1 Millonen Transistoren ist aber a bissi wenig ;) du meinst 1 mrd. Transistoren ;)
Hvoralek
2006-11-17, 23:53:37
Wird halt übertaktet... wie immer. Aber für ältere Spiele wird gar nicht so verkehrt sein. Ganz alte Spiele laufen jetzt schon sehr passabel aber ich will eine Stufe höher etwa FEAR in 25x19. Neustes Kram interessiert mich eher wenig da ich schon bei der Xbox neuste Sachen spiele.Ich glaube, wir reden hier ziemlich aneinander vorbei. Ich beziehe mich prinzipiell auf Karten innerhalb der Spezifikationen. Und selbst Du übertaktest doch nicht nur die GPU, sondern auch den Speicher, oder? :wink:
Wenn Du wirklich ernsthaft behaupten möchtest, dass Bandbreite allein alles wäre, schau Dir mal den Vorsprung einer X1950XTX vor einer X1900XTX an und vergleiche ihn mit dem einer 8800GTX vor der 1950XTX.
[](-__-)[]
2006-11-18, 00:00:24
Ja ich meinte eine Milliarde, der G80 hat ja 781 Millionen Tranistoren, oder so.
Ne, war auch net ganz so realistisch.
Aber keiner weiß doch, wie es um die Effizienz (Leistung pro Takt) des R600 bestellt ist.
Hvoralek
2006-11-18, 00:05:46
(-__-)[]']Ja ich meinte eine Milliarde, der G80 hat ja 781 Millionen Tranistoren, oder so.681 :wink:
Aber keiner weiß doch, wie es um die Effizienz (Leistung pro Takt) des R600 bestellt ist.Es gibt bisher weder belastbare Angaben, was R600 pro Takt theoretisch schafft, noch wie hoch er taktet - von der Effizienz ganz zu schweigen.
sulak
2006-11-18, 00:10:12
(-__-)[]']Ja ich meinte eine Milliarde, der G80 hat ja 781 Millionen Tranistoren, oder so.
Ne, war auch net ganz so realistisch.
Aber keiner weiß doch, wie es um die Effizienz (Leistung pro Takt) des R600 bestellt ist.
G80 = 681 Mio. Transistoren
R600 = weniger, darauf deuten mehrere Personen hin
512Bit Speicherinterface = Unwahrscheinlich da kostpieliges PCB, will keiner der Partner selbst ein PCB designen. Und Geld soll die Karte ja auch bringen, daher 256 oder 384 SI und massiv hohe Taktrate beim GDDR4. 20k-50k Karten zum Release langen ja sicher um das "Highend" erstmal zu bedienen.
Siehe Speicherbandbreite bei der XTX = GTS, man hat sicher im SI die Effizienz erhöht.
deekey777
2006-11-18, 00:17:34
Und wenn man dazu bedenkt, dass der R600 vor mehreren Monaten sein Tapeout hatte, kann man davon ausgehen, dass ATi nichts an dem SI machen kann/wird, nur weil der G80 ein 384 bit breites SI hat. Der R600 wird nur das SI haben, was die Entwickler schon längst festgelegt haben.
Weiterhin ist zu berücksichtigen, dass Speicherpreise fallen, die Kosten für ein unnötig breites SI dagegen nicht.
Und wenn man dazu bedenkt, dass der R600 vor mehreren Monaten sein Tapeout hatte.
Das finale nicht.
Der R600 wird nur das SI haben, was die Entwickler schon längst festgelegt haben.
Klar. Das steht schon lange fest.
deekey777
2006-11-18, 01:07:30
Das kommt drauf an, was die so alles können. Ich würde eher auf 96 Shader-ALUs im R580-Stil, also 32 "Pipelines" schätzen.
Q
96/32=4. :biggrin:
Wenn es die R580-ALUs verwendet werden soll, dann werden diese hoffentlich etwas flexibler sein (3+1 und 2+2).
Wie wär's damit: http://www.hexus.net/content/item.php?item=7177&page=2
1-5 bleibt in etwa gleich. Nr. 6 ist entspricht einem R580-Pixel-Block mit einem Dispatcher (7), 4 TMUs (12), 3 Vec4-Quads (8) und 4 ROPs (13)?
PS: http://www.beyond3d.com/forum/showpost.php?p=633078&postcount=90
Ailuros
2006-11-18, 10:20:23
Bei 4xAA braucht dann allein schon der Framebuffer 750 MiB, dazu noch Texturen - Das wirdbei 512 MiB übel aussehen. Aber allein die Aussage, dass solche Einstellungen nicht spielbar sind, bedeutet nicht, dass drastisch mehr Bandbreite das Allheilmittel ist.
Probier mal Einstellungen aus, die in den RAM passen und prüfe dann mal, ob es eher an Bandbreite mangelt oder an Rohleistung.
Ich hab Oblivion noch nicht ausprobiert auf der G80 mit Vidmemtester, aber ich hab das Gefuehl dass SS2 durch das intensivere Texturing schlimmer sein koennte. Bei 2048*1536, HDR, 16xQ+ 16xHQ AF ist dann mein Framebuffer lehr. Aber welcher Depp erwartet den ueberhaupt spielbare Leistung mit solchen settings in der Aufloesung?
Wenn es die R580-ALUs verwendet werden soll, dann werden diese hoffentlich etwas flexibler sein (3+1 und 2+2).
Wie wär's damit: http://www.hexus.net/content/item.php?item=7177&page=2
1-5 bleibt in etwa gleich. Nr. 6 ist entspricht einem R580-Pixel-Block mit einem Dispatcher (7), 4 TMUs (12), 3 Vec4-Quads (8) und 4 ROPs (13)?
PS: http://www.beyond3d.com/forum/showpost.php?p=633078&postcount=90
Auf ersteres würde ich zwar nicht unbedingt wetten, aber ein wenig hoffen - vielleicht doch sogar Skalare? Zweiteres halte ich nicht für unwahrscheinlich, ich glaube auch nicht, dass sie die Architektur vom Xenos 1:1 zu übernehmen gewagt haben. Bleibt nur die Frage, wieviele von den Einheiten. Eine Verdopplung abzüglich 2D und I/O (komisch, was ein Zufall, dass das bei Nv gerade ausgelagert wurde...) und wir sind bei einem ähnlichen Transistorbudget wie beim G80 ausgehend vom R580 (ich rechne jetzt mal 64 Mio. für 2D und I/O).
P.S.: :)
Q
Bei etwa 550Mill Transis. Der G80 hat die Transistoren nur so verschwendet.
deekey777
2006-11-18, 11:47:25
Bei etwa 550Mill Transis. Der G80 hat die Transistoren nur so verschwendet.
Wieso das denn? Da ist so viel Logik und Caches, das passt schon.
Bei etwa 550Mill Transis. Der G80 hat die Transistoren nur so verschwendet.
Ja sicher. Nvidia hat sich gedacht, nach den fetten Quartalen schieben wir jetzt absichtlich mal ein mageres Jahr ein, um die Aktionäre zu vergrätzen und uns von Intel übernehmen zu lassen. Hat analog bei Ati ja auch funktioniert. ;)
Q
Ja sicher. Nvidia hat sich gedacht, nach den fetten Quartalen schieben wir jetzt absichtlich mal ein mageres Jahr ein, um die Aktionäre zu vergrätzen und uns von Intel übernehmen zu lassen. Hat analog bei Ati ja auch funktioniert. ;)
Q
681Mill Transis bei 90Nm ist das Maximum. Hauptsache man bringt eine Graka die sehr schnell wird und das noch früh genug.
Wieso das denn? Da ist so viel Logik und Caches, das passt schon.
Das hätte man auch sparsamer machen können, sicherlich mit etwas Performanceverlust.
Falls der R600 schneller ist, kommt der Nv mit einem Minirefresh.
DrumDub
2006-11-18, 12:15:12
Ja sicher. Nvidia hat sich gedacht, nach den fetten Quartalen schieben wir jetzt absichtlich mal ein mageres Jahr ein, um die Aktionäre zu vergrätzen und uns von Intel übernehmen zu lassen. Hat analog bei Ati ja auch funktioniert. ;)
Q hehe... bin mal wirklich gespannt auf den r600, aber ich könnte wetten, dass das konzept vom g80 besser zu der stratgeie von amd gepasst hätte...
deekey777
2006-11-18, 12:19:23
681Mill Transis bei 90Nm ist das Maximum. Hauptsache man bringt eine Graka die sehr schnell wird und das noch früh genug.
Das hätte man auch sparsamer machen können, sicherlich mit etwas Performanceverlust.
Falls der R600 schneller ist, kommt der Nv mit einem Minirefresh.
Ich kann dir nicht folgen. Schaue mal auf Qs Antwort: Schon der R520 hat 321 Mio Transistoren, da ist einfach konsequent, dass der G80 so viele Transistoren hat. Der R600 wird ähnlich groß sein, aber schon in 80 nm.
Ailuros
2006-11-18, 13:44:55
Ich kann dir nicht folgen. Schaue mal auf Qs Antwort: Schon der R520 hat 321 Mio Transistoren, da ist einfach konsequent, dass der G80 so viele Transistoren hat. Der R600 wird ähnlich groß sein, aber schon in 80 nm.
Wieso willst Du ihm ueberhaupt folgen? ;)
deekey777
2006-11-18, 14:05:57
Wieso willst Du ihm ueberhaupt folgen? ;)
Bin nur höflich. :biggrin:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4739051#post4739051
Hörst du was neues? Zumindest die 16 ROPs stehen im Einklang mit den Angaben des Inquirer (was aber nicht bedeutet, dass sie richtiger werden).
Ailuros
2006-11-18, 14:32:12
Bin nur höflich. :biggrin:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4739051#post4739051
Hörst du was neues? Zumindest die 16 ROPs stehen im Einklang mit den Angaben des Inquirer (was aber nicht bedeutet, dass sie richtiger werden).
Es hilft mir nichts mit sinnlosen Zahlen herumzuraten wenn ich nicht weiss was jede Einheit genau kann. Beim G80 sagte natuerlich kein Schwein dass es sich um SPs oder einen USC handelt, noch schlimmer eine 1.35GHz Shader-Frequenz. Ich wusste nur dass ich etwas ueber 500GFLOPs erwarten sollte, dass die TEX OPs entkoppelt sind, dass die ROPs orthogonal sind und dass winkelunabhaengigeres AF in dem Ding liegt. Wenn man bedenkt dass das letztere ueber ein Jahr alt ist, hat man mich damals eigentlich sehr gut informiert; alles andere war pure Spekulation und vieles lag verdammt daneben.
Erst im Oktober kamen so langsam die ersten Dokumente in meine Hand und ich dachte ich falle in Ohnmacht.
Was ich fuer R600 bis jetzt gehoert habe, hab ich in der Mehrzahl schon angedeutet; jetzt lese nochmal den G80 relevanten Absatz durch und denke nach bis zu welchem Grad man korrekt oder falsch liegen kann mit so wenig Infos. Dass er eine hoehere Taktrate brauchen wird, bin ich mir schon fast sicher; leicht hoeheren Stromverbrauch: check; kleinere AA sample Anzahl: check ;)
w0mbat
2006-11-18, 14:35:20
Wie kann man eigentlich die Speicherbandbreite ausrechnen?
deekey777
2006-11-18, 14:40:43
Wie kann man eigentlich die Speicherbandbreite ausrechnen?
Breite des Speicherinterfaces multipliziert mit Speichertakt.
dargo
2006-11-18, 14:41:52
Wie kann man eigentlich die Speicherbandbreite ausrechnen?
Speichertakt*2*SI/8
w0mbat
2006-11-18, 14:48:59
Vielen Dank.
robbitop
2006-11-18, 14:55:15
(ich rechne jetzt mal 64 Mio. für 2D und I/O).
Nicht dein Ernst oder? ;)
Was können eigentlich die ROPs beim R500 so?
Wäre sehr verbunden wenn das mal jemand erörtern könnte.
robbitop
2006-11-18, 18:44:06
Was können eigentlich die ROPs beim R500 so?
Wäre sehr verbunden wenn das mal jemand erörtern könnte.
Vermutlich ähnliche Fähigkeiten wie die Xenos ROPs (einen R500 gab's ja nie).
Lies dir mal das (http://www.beyond3d.com/articles/xenos/) durch.
Despite references to 192 processing elements in to the ROP's within the eDRAM we can actually resolve that to equating to 8 pixels writes per cycle, as well as having the capability to double the Z rate when there are no colour operations. However, as the ROP's have been targeted to provide 4x Multi-Sampling FSAA at no penalty this equates to a total capability of 32 colour samples or 64 Z and stencil operations per cycle.
Vermutlich ähnliche Fähigkeiten wie die Xenos ROPs (einen R500 gab's ja nie).
Lies dir mal das (http://www.beyond3d.com/articles/xenos/) durch.
Mhh das ist ja nicht schlecht. Dann könnten noch weiter verbesserte ROPs beim R600 verwendet werden.
robbitop
2006-11-18, 23:08:21
Mhh das ist ja nicht schlecht. Dann könnten noch weiter verbesserte ROPs beim R600 verwendet werden.
Ich weiß ja nicht wie lang noch auf dem Thema "ROPs" herumgeritten werden muss. Aber es gibt einen Thread im Techforum dazu. Die Dinger stellen nirgends relevante Flaschenhälse dar (was auch logisch ist). Seit im B3D Forum ständig gebrabbelt wird, tun einige Leute so als wäre das plötzlich ein bottleneck geworden. Eine Einheit, die etwas in einem Takt erledigt, sollte nicht limitieren, wenn andere Einheiten in zwei oder dreistelligen Taktbereichen liegen.
Nicht dein Ernst oder? ;)
Begründe mir plausibel eine andere Zahl. Für gute Argumente bin ich offen. Aber denke, was da mittlerweile alles drinsteckt.
Q
robbitop
2006-11-19, 13:31:21
Begründe mir plausibel eine andere Zahl. Für gute Argumente bin ich offen. Aber denke, was da mittlerweile alles drinsteckt.
Q
Was steckt denn so alles in 2D und I/O? ;)
Was kann eine G80 in diesen Belangen mehr als b.s.w. ein Chrome20?
Richtig: nicht viel mehr. Und das Teil besteht komplett aus unter 80 Mio Transistoren.
horn 12
2006-11-19, 13:38:48
Der R600 wird kontern und dem nicht zu klein, man kann davon ausgehen dass er
a) schneller als der G80 ist.
b) bei Start sofort verfügbar ist
c) der Preis unter 500 Euro liegt
d) NV einen Vorsprung von gerade 2 Monaten haben wird, jedoch zum Vorteil von NV zur Vorweihnachtszeit
e) Diese beiden graka bis April/ Mai recht wenig bringen werden, zwecks neuer D10 Effekte.
f) Ati die Preise im Dezember massiv senken wird (X1950 XTX) um die 300-320 Euro.
Der R600 wird kontern und dem nicht zu klein, man kann davon ausgehen dass er
a) schneller als der G80 ist.
b) bei Start sofort verfügbar ist
c) der Preis unter 500 Euro liegt
e) Diese beiden graka bis April/ Mai recht wenig bringen werden, zwecks neuer D10 Effekte.Hmm, warum meinst du, dass man davon ausgehen kann? Wenn du spekulierst, kennzeichne das bitte auch so.
Auch sollte man beim Spekulieren auf dem Boden der Tatsachen bleiben. Warum sollte ATI die R600-High-End-Varianten für unter 500€ raushauen, wenn sie doch schneller als G80 sind?
Leistungmäßig wird der R600 schneller sein, aber vll nicht viel.
Preislich wird er dann natürlich etwas drüber liegen.
Auch sollte man beim Spekulieren auf dem Boden der Tatsachen bleiben. Warum sollte ATI die R600-High-End-Varianten für unter 500 € raushauen, wenn sie doch schneller als G80 sind?
Der Preis spielt in dem Segment so gut wie keine Rolle. Wenn der R600 schneller und besser als G80 ist, könnens den für 850 € verkloppen. Die High End User sind bereit fast jeden Preis zu zahlen um das momentan bestmögliche zu bekommen, und die Preisschmerzgrenze ist bis jetzt lange noch nicht erreicht.
boxleitnerb
2006-11-19, 14:27:27
horn 12 spekuliert halt gerne, auch wenn es keine Hand und keinen Fuss hat. Lasst ihm halt seinen Spass.
Ich erwarte nicht, den R600 für weniger als 600 EUR zu sehen, besonders nicht direkt beim Launch.
horn 12
2006-11-19, 14:40:51
ATI hatte schon immer das bessere Handling beim Preis, dies darf keiner leugnen.
Bis Ende Jänner wird auch die 8800 GTX bei ca. 500 Euro angelangt sein, und der Leistungssprung des R600 wird sicherlich nicht recht gross sein, und dies wird ATI beim Preis wieder gutmachen, mit dem einem oder anderen I-Punktchen obendrauf.
Noch NIE war eine ATI teuerer :cool: als eine NV, da lag die Nvidia Karten schon oft gut 100-150 Euro über den Ati Kärtchen. Nicht wahr!:biggrin:
ATI hatte schon immer das bessere Handling beim Preis, dies darf keiner leugnen.Ja, klar. ATI ist sowieso die bessere Firma und die Idioten bei NV haben keinen Plan was sie da überhaupt tun. Oh Mann...
Telema
2006-11-19, 14:52:24
Der R600 wird kontern und dem nicht zu klein, man kann davon ausgehen dass er
a) schneller als der G80 ist.
b) bei Start sofort verfügbar ist
c) der Preis unter 500 Euro liegt
d) NV einen Vorsprung von gerade 2 Monaten haben wird, jedoch zum Vorteil von NV zur Vorweihnachtszeit
e) Diese beiden graka bis April/ Mai recht wenig bringen werden, zwecks neuer D10 Effekte.
f) Ati die Preise im Dezember massiv senken wird (X1950 XTX) um die 300-320 Euro.
a. Is bis jetzt net unbedingt abzusehn. Vielleicht bei DX10
b. möglich, würde aber nicht davon ausgehn.
c. Mit der HighEnd Karte mit Sicherheit nicht. Warum sollte sie das tun. Die Freaks zahlen auch gern deutlich mehr und die bezahlen mit Sicherheit über 500,-
e. DX10 wird noch viel länger auf sich warten lassen. Es wird bis dort hin nur einen DX10 Pfad geben, aber ob das grafisch sich auswirkt glaub ich noch nicht so daran
f. ist Käse...eher laufen die Karten aus bevor sie sie herschenken. Vorallem deine genannte Karte wird vorerst hochpreisig bleiben
sulak
2006-11-19, 15:11:05
DX10 is nur Marketing Gefasel im Moment, R600 und G80 haben/werden genug Leistung bieten um aktuelle Spiele in höchstem Detail und Bildqualität darzustellen. Man kann nur hoffen das der R600 mehr als 6xAA bietet oder etwas das eben mit der gebotenen Bildqualität des G80 gleichzieht oder mehr bietet. Wenn nicht isser uninteressant, da 4xAA selbst in extrem hohen Auflösungen noch spielbar sind auf einem G80.
Schneller ist relativ, bei nur 6xAA in 20" TFT Auflösung (1680*1050) ... da schalte ich 16xQ an und bin immer noch in spielbaren FPS. Da muss der R600 ansetzen, und das Top Model wird sicher nicht billiger sein als eine 8800GTX. Schon gar nicht wenn er das Wahnwitzige 512Bit SI inne hat was einige ihm Andichten, oder 1GB GDDR4 Ram höchster Taktrate....
Was steckt denn so alles in 2D und I/O? ;)
Was kann eine G80 in diesen Belangen mehr als b.s.w. ein Chrome20?
Richtig: nicht viel mehr. Und das Teil besteht komplett aus unter 80 Mio Transistoren.
Fragt sich wo sie bei G80 den Videoprozessor hingepackt haben. Das würde mich echt mal interessieren.
Armaq
2006-11-19, 15:41:33
DX10 muss sein. Siehe Shader 3.0 und 6800 bzw. x800. ATI hat damals gebremst und zwar mächtig. Dafür gabs dann auch Punktabzüge und zwar mächtig (im Sinne der Verkaufszahlen).
Ailuros
2006-11-19, 16:21:46
Der R600 wird kontern und dem nicht zu klein, man kann davon ausgehen dass er
a) schneller als der G80 ist.
Alles andere waere vernichtend fuer ATI.
b) bei Start sofort verfügbar ist
Wobei auch die Quantitaet eine Rolle spielen sollte.
c) der Preis unter 500 Euro liegt
Errrrr....LOL nein :D
d) NV einen Vorsprung von gerade 2 Monaten haben wird, jedoch zum Vorteil von NV zur Vorweihnachtszeit
Agreed.
e) Diese beiden graka bis April/ Mai recht wenig bringen werden, zwecks neuer D10 Effekte.
Sagt wer?
f) Ati die Preise im Dezember massiv senken wird (X1950 XTX) um die 300-320 Euro.
Man nennt es "phase out" was an die Verkauefer heisst: verkauft so schnell wie moeglich den restlichen Stock. 320 Euro ist verdammt optimistisch bei dem was 512MB 1GHz GDDR4 kostet :rolleyes:
robbitop
2006-11-19, 16:34:13
Fragt sich wo sie bei G80 den Videoprozessor hingepackt haben. Das würde mich echt mal interessieren.
Ich persönlich vermute, sie machen es wieder über die Shader.
Ich persönlich vermute, sie machen es wieder über die Shader.
Ich hingegen glaub das Ding ist in dem NVIO drin, weil das Packaging die Die-Größe eh schon limitiert nach unten, d.h. jede Menge freier Platz da war ;)
robbitop
2006-11-19, 17:57:42
Ich hingegen glaub das Ding ist in dem NVIO drin, weil das Packaging die Die-Größe eh schon limitiert nach unten, d.h. jede Menge freier Platz da war ;)
Sinn würde es schon machen. Allerdings macht das noch lange keine 64 Mio Transistoren.
deekey777
2006-11-19, 20:54:36
Sinn würde es schon machen. Allerdings macht das noch lange keine 64 Mio Transistoren.
Und was wäre, wenn diese 64 Mio Trainsistoren auch für Aero zuständig wären?
robbitop
2006-11-19, 22:40:58
Und was wäre, wenn diese 64 Mio Trainsistoren auch für Aero zuständig wären?
dazu bräuchten die schon eine direkte Anbindung an den Framebuffer.
Dazu wäre schon eine richtige Fragmentpipeline nötig. I don't think so.
Was steckt denn so alles in 2D und I/O? ;)
Was kann eine G80 in diesen Belangen mehr als b.s.w. ein Chrome20?
Richtig: nicht viel mehr. Und das Teil besteht komplett aus unter 80 Mio Transistoren.
Bis auf "Gegenfragen" sehe ich da kein Argument.
Welches ist der Chrome20 und welche seiner PDF-Features funktionieren in der Realität? Was kosten zwei Dual-Link DVIs? Was eine 10-Bit-Ausgabe? Was kostet Pure-Video? Was kostet die SLI-Kommunikation?
Wie gesagt, von mir aus lass es eine andere Zahl als 64M sein - dann aber mit Argumenten, nicht Vermutungen. Deine Vermutung ist nicht besser als meine, dein Argument, wenn denn eines kommt, eventuell schon.
Q
dazu bräuchten die schon eine direkte Anbindung an den Framebuffer.
Dazu wäre schon eine richtige Fragmentpipeline nötig. I don't think so.
Wozu braucht man die direkte Anbindung an den FB? IIRC fordert Aero 3,2 GByte/s - nichts, was das PCIe-Interface nicht leisten kann. Und eine Skalar-Pipe wäre ja nicht allzu teuer. Niemand sagt, dass alle vier Kanäle in einem Takt berechnet werden müssen. Mit einer Pipe entfällt natürlich ein teurer scheduler. ;)
Wie gesagt, pure, wilde Vermutungen.
Q
DrumDub
2006-11-20, 10:29:22
Man kann nur hoffen das der R600 mehr als 6xAA bietet oder etwas das eben mit der gebotenen Bildqualität des G80 gleichzieht oder mehr bietet. mehr als 12xmsaa (bzw. aaa) werden wir imho nicht sehen.
dargo
2006-11-20, 10:39:07
mehr als 12xmsaa (bzw. aaa) werden wir imho nicht sehen.
Sollte eigendlich reichen. Eventuell kriegen wir auch was neues @Coverage AA?
DrumDub
2006-11-20, 11:04:16
Sollte eigendlich reichen. Eventuell kriegen wir auch was neues @Coverage AA? das wäre möglich.
mehr als 12xmsaa (bzw. aaa) werden wir imho nicht sehen.
Bezweifel ich, da die Anforderungen sehr hoch werden.
Wenn man sich 16xQ beim G80 ansieht, dann benötigt der viel, sehr viel Leistung. Und dieser Modus ist nichtmal ein reines MS.
LovesuckZ
DrumDub
2006-11-20, 11:48:25
Bezweifel ich, da die Anforderungen sehr hoch werden.
Wenn man sich 16xQ beim G80 ansieht, dann benötigt der viel, sehr viel Leistung. Und dieser Modus ist nichtmal ein reines MS.
LovesuckZ was genau bezweifelst du?
Cubitus
2006-11-20, 11:55:28
Hm jetzt wo ich die Meldung über den Cat 6.11 gelesen habe,
frage ich mich ob es beim 600er auch Masterkarten geben wird.
Falls nicht müßte sich jeder der CF betreiben möchte ein neues Mainboard kaufen
Da ASUS P5W DH Deluxe&Co (Xpress 3200) mit CF nur 8/8 können.
Bin mir da nicht sicher ob das bei 2 R600er reichen würde.
AnarchX
2006-11-20, 11:57:56
frage ich mich ob es beim 600er auch Masterkarten geben wird.
Natürlich nicht, hier gibt es dann auch das neue Nativ-CF wie bei X1950Pro/X1650XT mit den 2 "Goldfingers".
was genau bezweifelst du?
Das es einen höheren reinen MS - Modus gibt, welcher mehr als 8 Samples verwendet.
LovesuckZ
DrumDub
2006-11-20, 11:59:37
Hm jetzt wo ich die Meldung über den Cat 6.11 gelesen habe,
frage ich mich ob es beim 600er auch Masterkarten geben wird.
Falls nicht müßte sich jeder der CF betreiben möchte ein neues Mainboard kaufen
Da ASUS P5W DH Deluxe&Co (Xpress 3200) mit CF nur 8/8 können.
Bin mir da nicht sicher ob das bei 2 R600er reichen würde. versteh die logik nicht ganz. cf wird beim r600 wie aktuell bei den x1950pro über ne interne brücke gelöst sein. ob pcie mit 8x oder 16x angebunden ist, spielt dabei keine rolle. das konzept mit der masterkarte ist tot.
AnarchX
2006-11-20, 12:03:11
Das es einen höheren reinen MS - Modus gibt, welcher mehr als 8 Samples verwendet.
Damit hätte man jedenfalls etwas für das Marketing, während nV nur 8xMSAA aufbieten kann, bietet man selbst bis zu 12x echtes MSAA.
Cubitus
2006-11-20, 12:05:33
Ah stimmt ja.:redface:
gut dann müßte sich ATI nur noch dazu bewegen das in den späteren Treibern das AFR nicht mehr an die Cat.AI angeschlossen wird,
um gegen Nv punkten zu können.
Damit hätte man jedenfalls etwas für das Marketing, während nV nur 8xMSAA aufbieten kann, bietet man selbst bis zu 12x echtes MSAA.
So etwas wird nicht nur als CheckBox - Feature implementiert, da die Hardware angepasst werden muss (ROPs wahrscheinlich...).
LovesuckZ
Hvoralek
2006-11-20, 12:12:50
Wenn man sich 16xQ beim G80 ansieht, dann benötigt der viel, sehr viel Leistung. Und dieser Modus ist nichtmal ein reines MS.Sondern? Das ist nicht 16xS, sondern mW ganz "normales" 16x SGMS.
Ich halte jedenfalls einen 12x- MS- Modus bei R600 für deutlich wahrscheinlicher als einen Hybridmodus auf einem Einzelchip bei ATI.
robbitop@work
2006-11-20, 12:13:40
Bis auf "Gegenfragen" sehe ich da kein Argument.
Welches ist der Chrome20 und welche seiner PDF-Features funktionieren in der Realität?
Alle funktionieren (zumindest bei mir). Und das ist nicht weniger, als was NV beherrscht.
Was kosten zwei Dual-Link DVIs? Was eine 10-Bit-Ausgabe?
Dual Link DVI ist doch nur die Breite des Interfaces selbst. Das kostet so gut wie nichts. 10 Bit Ausgabe ist übrigens in DVI nicht spezifiziert. 8 oder 16 gibts.
Was kostet Pure-Video?
Wenn es noch vorhanden ist. Eine einzelne SIMD ALU ist nicht all zu teuer. Beim R580 kostet ne einzelne SIMD ALU samt Registern <1 Mio Transistoren. Dazu kommt natürlich noch ein bisschen Steuerlogik.
Was kostet die SLI-Kommunikation?
Im NVIO? Das wäre ein böser Flaschenhals für SLI.
Wie gesagt, von mir aus lass es eine andere Zahl als 64M sein - dann aber mit Argumenten, nicht Vermutungen. Deine Vermutung ist nicht besser als meine, dein Argument, wenn denn eines kommt, eventuell schon.
Argumenten im Sinne von harten Zahlen? Du weißt genau, dass es öffentlich keine gibt. Argumentieren ist ohne Kenntnisse über NVIO gar nicht möglich. ;)
Abschätzen: vieleicht
Wozu braucht man die direkte Anbindung an den FB? IIRC fordert Aero 3,2 GByte/s - nichts, was das PCIe-Interface nicht leisten kann. Und eine Skalar-Pipe wäre ja nicht allzu teuer. Niemand sagt, dass alle vier Kanäle in einem Takt berechnet werden müssen. Mit einer Pipe entfällt natürlich ein teurer scheduler.
Wie gesagt, pure, wilde Vermutungen.
Und wie willst du das LOD Berechnen ohne eine komplette Quadpipe? Also eine Quadpipe mit skalarer Ausfürung von Recheneinheiten ok. (wäre das nicht eine R&D Verschwendung?)
Hast du schonmal eine so langsame GPU mit Aero werkeln sehen? Ich habe eine GMA950 und eine NV36 (die immernoch performanter wäre, als deine Ausführung) bei Aero gesehen und es war nicht sooo schön anzusehen. Vieleicht aber auch mangels Optimierungspotenzial
Ergo: meine Speku vs deine Speku (und ich will nicht sagen, dass eine davon korrekt ist). Ich habe schlichtweg nur eine andere Meinung ;)
DrumDub
2006-11-20, 12:13:57
Das es einen höheren reinen MS - Modus gibt, welcher mehr als 8 Samples verwendet.
LovesuckZ ein eer von 12x12 sollte doch realisierbar sein. kann mir nicht vorstellen, dass sie sich auf 6x6 ausruhen...
So etwas wird nicht nur als CheckBox - Feature implementiert, da die Hardware angepasst werden muss (ROPs wahrscheinlich...). die rops müssen ja eh wegen dx10 überarbeitet werden...
robbitop@work
2006-11-20, 12:17:27
So etwas wird nicht nur als CheckBox - Feature implementiert, da die Hardware angepasst werden muss (ROPs wahrscheinlich...).
LovesuckZ
Das Trisetup wahrscheinlich.
Auf einem 12x12 Raster bekommt man kein brauchbares 8x Muster zustande.
die rops müssen ja eh wegen dx10 überarbeitet werden...
Hm. Eigentlich viel eher die TMUs. ROPs müssten eigentlich fast übernommen werden können (was ich auch fürchte bzgl. FP32-Blending...)
Im NVIO? Das wäre ein böser Flaschenhals für SLI.
Es geht tatsächlich über NVIO.
Und wie willst du das LOD Berechnen ohne eine komplette Quadpipe?
Pro Instruction loopen. Das geht schon. Die integrierte GeForce 6 in den nVIDIA-Chipsätzen hat auch 2 Pipelines.
robbitop@work
2006-11-20, 12:22:50
Es geht tatsächlich über NVIO.
Erklärung/Quelle?
Wenn das der Fall ist, wird das ganze natürlich schon etw. größer (in Quasars Richtung).
AnarchX
2006-11-20, 12:23:41
Auf einem 12x12 Raster bekommt man kein brauchbares 8x Muster zustande.
Warum ist dann, dass 4x Muster aktuell bei ATi bei einem 6x6 Raster "brauchbar"?
Pro Instruction loopen. Das geht schon. Die integrierte GeForce 6 in den nVIDIA-Chipsätzen hat auch 2 Pipelines.
AFAIK hat sie eine Quadpipe mit halber Ausführung (wie auch NV31/34/36).
robbitop@work
2006-11-20, 12:24:15
Warum ist dann, dass 4x Muster bei ATI bei einem 6x6 Muster "brauchbar"?
Weils ein 12x12 Raster ist. ;)
AFAIK hat sie eine Quadpipe mit halber Ausführung (wie auch NV31/34/36).
Und was ist daran widersprüchlich zu meiner Aussage? :|
Erklärung/Quelle?
Weiß nicht mehr. Sieht man aber auch am PCB ganz gut.
robbitop@work
2006-11-20, 12:30:00
Und was ist daran widersprüchlich zu meiner Aussage? :|
Dass es eine volle Quadpipe ist (von der Steuerlogik) und nur die Ausführungseinheiten halbiert sind? :|
AnarchX
2006-11-20, 12:32:48
Weils ein 12x12 Raster ist. ;)
Damit wäre doch auch jetzt schon 12x MSAA möglich oder?
Also könnte wohl dann R600 4x 6x 12x MSAA bieten, aber hier hätte man das Problem dass man keine direkte Konkurrenz zu 8xQ hat.
:edit:
Erklärung/Quelle?
Wenn das der Fall ist, wird das ganze natürlich schon etw. größer (in Quasars Richtung).
You can also see dual SLI connectors that feed in to NVIO (pictured below), NVIDIA's brand new I/O processor for handling signal input and output to their next generation of GPUs. NVIO marshalls and is responsible for all data that enters the GPU over an interface that isn't PCI Express, and everything that outputs the chip that isn't going back to the host. In short, it's not only responsible for SLI, but the dual-link DVI outputs (HDCP-protected), all analogue output (component HDTV, VGA, etc) and input from external video sources.
http://www.beyond3d.com/reviews/nvidia/g80-arch/index.php?p=03
robbitop@work
2006-11-20, 12:34:58
Zitat von B3D
You can also see dual SLI connectors that feed in to NVIO (pictured below), NVIDIA's brand new I/O processor for handling signal input and output to their next generation of GPUs. NVIO marshalls and is responsible for all data that enters the GPU over an interface that isn't PCI Express, and everything that outputs the chip that isn't going back to the host. In short, it's not only responsible for SLI, but the dual-link DVI outputs (HDCP-protected), all analogue output (component HDTV, VGA, etc) and input from external video sources.
edit:
Ok das zeigt dann in Richtung Quasar.
Nachträgliches ACK Carsten! :)
robbitop@work
2006-11-20, 12:35:49
Damit wäre doch auch jetzt schon 12x MSAA möglich oder?
Wenn du ein 12x OG Muster magst, ja. ;)
Sondern? Das ist nicht 16xS, sondern mW ganz "normales" 16x SGMS.
16xQ speichert "nur" 8 color/Z samples, ist aber trotzdem deutlich langsamer als der reine 8xQ Modus.
Der Leistungverlust ist aus meiner Sicht zu groß, um einen wirklich Gebrauch von diesem Modus machen zu können.
ein eer von 12x12 sollte doch realisierbar sein. kann mir nicht vorstellen, dass sie sich auf 6x6 ausruhen...
Nvidia ging auch nur bis zu reinem 8xMS Modus.
Der Leistungverlust ist aus meiner Sicht zu groß, um einen wirklich Gebrauch von diesem Modus machen zu können.
Bezug auf den reinen 12xMS Modus.
LovesuckZ
Ailuros
2006-11-20, 12:47:24
Sondern? Das ist nicht 16xS, sondern mW ganz "normales" 16x SGMS.
16xQ ist kein reines Multisampling, sonder coverage sampling AA; es verfrachtet "nur" 8 z/stencil samples und kann bis zu 80% an Leistung fressen im extremsten Fall. Reines 8x Multisampling - 8xQ/8z/stencil verliert bis zu 45-50% in extremen Faellen.
Ich halte jedenfalls einen 12x- MS- Modus bei R600 für deutlich wahrscheinlicher als einen Hybridmodus auf einem Einzelchip bei ATI.
Wird aber sowohl in Speicherverbrauch und Bandbreite um einiges mehr als 8xQ auf G80 kosten. Float HDR + 16xQ in 2048 und es werden fast 870MB an texture memory aufgesaugt.
DrumDub
2006-11-20, 14:00:20
Weils ein 12x12 Raster ist. ;) momentan kann ati 6 subpixel auf eine 12x12 raster verteilen. um 12xmsaa hinzubekommen, braucht man aber kein 24x24 raster, sondern nur 12 subpixel, die man frei auf einem 12x12 raster verteilen kann. ob das sinnvoll ist, ist eine andere sache.
andererseits kann ati das 12x12 raster beibehalten und 8 subpixel drauf verteilen... dann hätten sie zumindest 8xmsaa.
wie genau das csaa im bezug auf die coverage-samples beim g80 abtastet, ist mir allerdings noch nicht ganz klar. hat der g80 jetzt einen eer von 16x16 oder nicht?
hat der g80 jetzt einen eer von 16x16 oder nicht?Ja.
Coverage mask = for N samples a N*N grid.
16x = 16*16 / 4*4 for z/stencil
16xQ = 16*16 / 8*8 for z/stencil
andererseits kann ati das 12x12 raster beibehalten und 8 subpiel drauf verteilen... dann hätten sie zumindest 8xmsaa.Hmm, kann man 8 Samples auf einem 12x12-Raster überhaupt sinnvoll verteilen?
DrumDub
2006-11-20, 14:25:08
Hm. Eigentlich viel eher die TMUs. ROPs müssten eigentlich fast übernommen werden können (was ich auch fürchte bzgl. FP32-Blending...)
d3d10 setzt doch fp32-blending voraus?
robbitop@work
2006-11-20, 14:30:46
momentan kann ati 6 subpixel auf eine 12x12 raster verteilen. um 12xmsaa hinzubekommen, braucht man aber kein 24x24 raster
:| habe ich sowas je behauptet?
sondern nur 12 subpixel, die man frei auf einem 12x12 raster verteilen kann. ob das sinnvoll ist, ist eine andere sache.
Wenn du ein 12x OG Muster magst, ja. ;)
andererseits kann ati das 12x12 raster beibehalten und 8 subpixel drauf verteilen... dann hätten sie zumindest 8xmsaa.
Tja dann zeichne mir mal ein brauchbares 8xSGMS Muster auf 'ner 12x12 Rasterung. Ich bin gespannt. ;)
Dazu braucht's ne feinere Rasterung.
wie genau das csaa im bezug auf die coverage-samples beim g80 abtastet, ist mir allerdings noch nicht ganz klar. hat der g80 jetzt einen eer von 16x16 oder nicht?
Das 16x Verfahren hat ein EER von 16x16 für Polyedges, die in einem Pixel von maximal 2x vorhandenen Dreiecken liegen. Alle anderen Situationen (Stencil oder >2 Tri pro Pixel ->
16xAA: 4x4 EER
16xQ : 8x8 EER
d3d10 setzt doch fp32-blending voraus?
Ich glaube aber kein AA damit...
DrumDub
2006-11-20, 15:26:48
Tja dann zeichne mir mal ein brauchbares 8xSGMS Muster auf 'ner 12x12 Rasterung. Ich bin gespannt. ;)
wie wärs hiermit. entspricht ziemlich genau dem raster des 8xmsaa des g80:
robbitop@work
2006-11-20, 15:36:15
ist aber kein sparse Muster -> ungleich lange Glättungsstufen
DrumDub
2006-11-20, 15:54:04
ist aber kein sparse Muster -> ungleich lange Glättungsstufen na ja, dass 8xmsaa des g80 ist ja auch nicht perfekt vom muster her. das wurde auch schon kritisiert: Optisch gibt es zwischen dem 8xQAA mit „reinem“ MSAA und dem 8xAA mit CSAA nur minimale Unterschiede. 8xQAA sieht in einigen Stellen minimal besser aus, im wirklichen Spielablauf werden die Differenzen aber kaum auffallen. Im Vergleich zur direkten Konkurrenz ATi muss sich nVidia mit den beiden 8-fach-Modi nun nicht mehr verstecken. Die Kantenglättung ist im Großen und Ganzen mit der 6xAA-Einstellung auf einem R5x0 identisch. Bei manchen Winkeln bietet die nVidia-GPU das bessere Bild, aber der Unterschied ist nur gering und kaum der Erwähnung wert. http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/6/
das 8xmsaa ist imho auf nem 12x12 raster möglich.
ist aber kein sparse Muster -> ungleich lange Glättungsstufen
Wenn man 3/10 eins nach rechts schiebt schon.
robbitop@work
2006-11-20, 16:33:07
na ja, dass 8xmsaa des g80 ist ja auch nicht perfekt vom muster her.
Es ist ein sparsed Muster.
das wurde auch schon kritisiert: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/6/
Da hat sich cb ja nicht gerade mit Ruhm bekleckert.
Natürlich ist der Unterschied zw 6x und 8x gering, aufgrund des Gesetzes des abnehmenden Grenzertrages (ingame würde ich den Unterschied zw 4x und 6 auch kaum sehen). Aber beide gleichzusetzen...
das 8xmsaa ist imho auf nem 12x12 raster möglich.
Kein brauchbares sparsed. Nur eine Kompromisslösung. (ATI hätte es sicher schon mit R5xx realisiert, wenn sie damit zufrieden wären)
DrumDub
2006-11-20, 16:46:11
ist aber kein sparse Muster -> ungleich lange Glättungsstufen was ich aber dann nicht versteh, warum die beim 8xmsaa des g80 auch ungleich lang sind:
http://pics.computerbase.de/1/5/8/8/6/49.png
reunion
2006-11-20, 17:38:36
Man kann nur hoffen das der R600 mehr als 6xAA bietet oder etwas das eben mit der gebotenen Bildqualität des G80 gleichzieht oder mehr bietet. Wenn nicht isser uninteressant, da 4xAA selbst in extrem hohen Auflösungen noch spielbar sind auf einem G80.
Schneller ist relativ, bei nur 6xAA in 20" TFT Auflösung (1680*1050) ... da schalte ich 16xQ an und bin immer noch in spielbaren FPS. Da muss der R600 ansetzen,[...]
Ich sehe nach wie vor keine Sinn für mehr als vier AA-Samples. Solange man eine halbwegs brauchbare Auflösung verwendet, erreicht man damit eine nahezu perfekte Kantenglättung. Dass 4xAA selbst noch in "extrem hohen Auflösungen spielbar ist", sollte man mit Wohlwollen zu Kenntnis nehmen, deshalb aber gleich nach mehr Samples zu schreinen, halte ich für nicht zielführend. Da würde ich die überschüssige Leistung doch lieber in AAA, oder besseres AF, oder was auch immer investieren.
was ich aber dann nicht versteh, warum die beim 8xmsaa des g80 auch ungleich lang sind:
Sind sie doch nicht. Die Samples pro Achse sind gleich verteilt.
Es gibt spiele bei denen auch 16xQ (oder 4xSSAA) nicht das "beste" bietet. Eve Online z.b. hier sieht man jedem AA Modus an das er was bringt. Selbe gilt für X3, durch den vielerorts dunklen Hintergrund bei Weltraumspielen und der bedingten "eckigen" Modellierung der Einheiten entsteht überall Aliasing.
Auch dürfte bei Autorennspielen ala GTR jedes EER mehr gut tun, vorallem auf langen Geraden damit einem nicht die Bande wegflimmert am Horizont.
Alle funktionieren (zumindest bei mir). Und das ist nicht weniger, als was NV beherrscht.
Dual Link DVI ist doch nur die Breite des Interfaces selbst. Das kostet so gut wie nichts. 10 Bit Ausgabe ist übrigens in DVI nicht spezifiziert. 8 oder 16 gibts.
Wenn es noch vorhanden ist. Eine einzelne SIMD ALU ist nicht all zu teuer. Beim R580 kostet ne einzelne SIMD ALU samt Registern <1 Mio Transistoren. Dazu kommt natürlich noch ein bisschen Steuerlogik.
Im NVIO? Das wäre ein böser Flaschenhals für SLI.
Argumenten im Sinne von harten Zahlen? Du weißt genau, dass es öffentlich keine gibt. Argumentieren ist ohne Kenntnisse über NVIO gar nicht möglich. ;)
Abschätzen: vieleicht
Und wie willst du das LOD Berechnen ohne eine komplette Quadpipe? Also eine Quadpipe mit skalarer Ausfürung von Recheneinheiten ok. (wäre das nicht eine R&D Verschwendung?)
Hast du schonmal eine so langsame GPU mit Aero werkeln sehen? Ich habe eine GMA950 und eine NV36 (die immernoch performanter wäre, als deine Ausführung) bei Aero gesehen und es war nicht sooo schön anzusehen. Vieleicht aber auch mangels Optimierungspotenzial
Ergo: meine Speku vs deine Speku (und ich will nicht sagen, dass eine davon korrekt ist). Ich habe schlichtweg nur eine andere Meinung ;)
Machen wir's kurz: Bekommt der Chrome20 irgendwelche fortschrittlichen Post-Processings bei H.264/VC-1/MPEG4-AVC mit Bitraten von 25-35 MBit in HD-Auflösung hin?
Dual-Link DVI arbeitet mit doppelten Übertragungskanälen, nicht doppelter Frequenz.
Wenn du keine Zahlen hast, dann hättest du deine Schätzungen etwas besser begründen können IMO. Einfach nur zu sagen "Lol - nicht dein Ernst" bringt keinem was.
Bezgl. NVIO und des Skalar-Loopings hat Coda dich ja schon berichtigt.
Was die Performance angeht: Checkbox-Feature. Außerdem glaube ich, dass evtl. selbst eine einzelne Skalar-Einheit des G80 einem NV36 oder NV34-Derivat überlegen ist. Die GMA900, auf der ich hier grad schreibe, ist sowieso eine Gurke und krankt vermutlich als erstes mal an ihren grausamen Treibern - keine Ahnung, ob das beim 950er bedeutend besser ist.
Q
Ich sehe nach wie vor keine Sinn für mehr als vier AA-Samples. Solange man eine halbwegs brauchbare Auflösung verwendet, erreicht man damit eine nahezu perfekte Kantenglättung. Dass 4xAA selbst noch in "extrem hohen Auflösungen spielbar ist", sollte man mit Wohlwollen zu Kenntnis nehmen, deshalb aber gleich nach mehr Samples zu schreinen, halte ich für nicht zielführend. Da würde ich die überschüssige Leistung doch lieber in AAA, oder besseres AF, oder was auch immer investieren.
Full Ack.
Q
Wenn du ein 12x OG Muster magst, ja. ;)
Warum sollte man mit 12 Samples auf einem 12x12-Raster OG bekommen?
Aber natürlich gehört zum Unterstützen einer bestimmten Samplezahl mehr als nur ein ausreichend aufgelöstes Subpixelraster. MSAA fängt nicht erst in den ROPs an.
d3d10 setzt doch fp32-blending voraus?
Nein, tut es nicht.
Ich sehe nach wie vor keine Sinn für mehr als vier AA-Samples. Solange man eine halbwegs brauchbare Auflösung verwendet, erreicht man damit eine nahezu perfekte Kantenglättung. Dass 4xAA selbst noch in "extrem hohen Auflösungen spielbar ist", sollte man mit Wohlwollen zu Kenntnis nehmen, deshalb aber gleich nach mehr Samples zu schreinen, halte ich für nicht zielführend. Da würde ich die überschüssige Leistung doch lieber in AAA, oder besseres AF, oder was auch immer investieren.
Ich würde dir ja zustimmen, wenn es denn heute tatsächlich mehr als eine handvoll Monitore mit "brauchbarer Auflösung" gäbe... ;)
4x Sparse Grid ist z.B. auf einem 17"-Monitor mit 1280x1024 noch lange nicht "nahezu perfekt".
Ich sehe nach wie vor keine Sinn für mehr als vier AA-Samples. Solange man eine halbwegs brauchbare Auflösung verwendet, erreicht man damit eine nahezu perfekte Kantenglättung. Dass 4xAA selbst noch in "extrem hohen Auflösungen spielbar ist", sollte man mit Wohlwollen zu Kenntnis nehmen, deshalb aber gleich nach mehr Samples zu schreinen, halte ich für nicht zielführend. Da würde ich die überschüssige Leistung doch lieber in AAA, oder besseres AF, oder was auch immer investieren.
Da muss ich dir auch zustimmen.
cIh würde dir ja zustimmen, wenn es denn heute tatsächlich mehr als eine handvoll Monitore mit "brauchbarer Auflösung" gäbe... ;)
4x Sparse Grid ist z.B. auf einem 17"-Monitor mit 1280x1024 noch lange nicht "nahezu perfekt".
Solange Polygonkanten das einzige Über sind: ok. Aber solange noch komplett unbehandelte Alpha-Tests im Bild herumwabern oder Normal-Mapping-Shader unkontrolliert vor sich hinflimmern, setze ich hier erst einmal an, sofern ich dazu die Möglichkeit habe.
Q
OT: Quasar wieso postest du grad eigentlich nur als Gast?
Coda :D
Nein, tut es nicht.
Dann hätte sich aber was an der Spezifikation geändert. Fp32 Blending ja , filtering nein. So hatte ich es in Erinnerung
Naja ich hoffe ATI hat ein Herz für Entwickler und bietet einfach wie nVIDIA beides und auch AA mit FP32. :(
Letzteres wäre vor allem auch für deferred shading interessant.
OT: Quasar wieso postest du grad eigentlich nur als Gast?
Coda :D
Ich mag nimmer registriert sein. :)
Q
Ailuros
2006-11-21, 04:45:47
Ich sehe nach wie vor keine Sinn für mehr als vier AA-Samples. Solange man eine halbwegs brauchbare Auflösung verwendet, erreicht man damit eine nahezu perfekte Kantenglättung. Dass 4xAA selbst noch in "extrem hohen Auflösungen spielbar ist", sollte man mit Wohlwollen zu Kenntnis nehmen, deshalb aber gleich nach mehr Samples zu schreinen, halte ich für nicht zielführend. Da würde ich die überschüssige Leistung doch lieber in AAA, oder besseres AF, oder was auch immer investieren.
Es gibt keine nahezu perfekte Kantenglaettung und schon gar nicht mit nur 4x samples. Es bleibt dabei dass man die hoechstmoegliche Aufloesung mit der hoechstmoeglichen Sample-anzahl die die Leistung erlaubt benutzen sollte.
Ich als CRT User hab den Luxus mich zwischen 1280 und 2048 nach belieben zu bewegen, aber was macht ein LCD Benutzer der nur auf 1280 oder 1600 native Aufloesung begrenzt ist?
Es kommt dann noch dazu dass die Mehrzahl der Polygonkanten sowieso schon mit 4xAA geglaettet werden; hoehere Sample-anzahlen gehen dann an die feineren Einzelheiten. Waeren adaptive AA Algorithmen (wobei Adaptivitaet a la AF dann) heutzutage moeglich, wuerde wenn man z.B. 16xAA einschalten, die grobe Mehrzahl unter einem 4x Durchschnitt an samples bekommen und sehr wenige mehr als 4x.
Beide IHVs sollten etwas mehr in Transparency MSAA bzw. alpha to coverage investieren; Transparenz Supersampling kann unter Umstaenden auch ganz heftig in die Leistung einschlagen. Gibt es eine grosse Portion von alpha test Texturen in einer Szene gewinnt man nur minimal an Leistung im Vergleich zu FS-SSAA.
Du solltest mal sehen wie die feinen Stromlinien in HL2 selbst in 2048 mit ueberfahrener Maske entweder mit 4xAA+TSAA oder 8xQ+TSAA vergleichsmaessig aussehen. Da machen die doppelt so hohen Transparenz-samples schon einen bemerkenswerten Unterschied.
NV's coverage mask Idee ist bei weitem nicht schlecht als Zwischenloesung; wo mein Wissen jetzt versagt ist ob es moeglich waere Transparenz Multisampling auf 16x zu erhoehen selbst wenn nur 4z/stencil gespeichert werden. Womoeglich wieder eine Schnappsidee von mir, denn ich hab mal wieder was womoeglich uebersehen. Wer Flugsimulatoren spielt wie ich wird selbst 16x coverage/4z zu schaetzen wissen, ueberhaupt wenn die Leistung nur etwas weniger als mit 4xAA ist. Waere das vorige moeglich waere es natuerlich die Bombe.
Waeren adaptive AA Algorithmen (wobei Adaptivitaet a la AF dann) heutzutage moeglich, wuerde wenn man z.B. 16xAA einschalten, die grobe Mehrzahl unter einem 4x Durchschnitt an samples bekommen und sehr wenige mehr als 4x.
Das wird bei einem IMR nie möglich sein :)
NV's coverage mask Idee ist bei weitem nicht schlecht als Zwischenloesung; wo mein Wissen jetzt versagt ist ob es moeglich waere Transparenz Multisampling auf 16x zu erhoehen
Ne eher nicht, weil das ja Supersampling ist und so wie für jedes Fragment ne andere Farbe entsteht. Zudem geht es schon mal gar nicht wenn TSSAA (und AAA) so funktioniert wie ich glaube ;)
robbitop@work
2006-11-21, 15:26:29
Machen wir's kurz: Bekommt der Chrome20 irgendwelche fortschrittlichen Post-Processings bei H.264/VC-1/MPEG4-AVC mit Bitraten von 25-35 MBit in HD-Auflösung hin?
HD Auflösungen auf jeden Fall. Aber "nur" WMV9 und AVI/DivX. (MPEG4-AVC = H264 IIRC)
Postprocessing gibt's auch.
http://www.s3graphics.com/en/images/technology/chromotion/components.jpg
Dual-Link DVI arbeitet mit doppelten Übertragungskanälen, nicht doppelter Frequenz.
Sowas habe ich nirgends behauptet.
Wenn du keine Zahlen hast, dann hättest du deine Schätzungen etwas besser begründen können IMO. Einfach nur zu sagen "Lol - nicht dein Ernst" bringt keinem was.
Are you cranky today? ;)
Einen Spaß verstehst du sonst doch auch. Wie ich gesagt habe, bin ich lediglich anderer Meinung.
Bezgl. NVIO und des Skalar-Loopings hat Coda dich ja schon berichtigt.
Er hat etwas entgegnet. Korrekt wird's dadurch noch lange nicht.
Für eine solche Pipeline gibt's bisher auch noch kein Indiz oder irgendeine Bestätigung.
Für eine solche Pipeline gibt's bisher auch noch kein Indiz oder irgendeine Bestätigung.
Ich glaube auch nicht dass es eine gibt... nur so nebenher. Aber das nVIDIA bei dem Ding doch einige Transistoren verbraten hat glaube ich schon, weil man a) eh genügend Die-Space zur Verfügung hat weil man schon allein die Pads aufbringen musste und b) damit Designzeit sparen kann.
robbitop@work
2006-11-21, 15:32:59
Ich glaube auch nicht dass es eine gibt... nur so nebenher. Aber das nVIDIA bei dem Ding doch einige Transistoren verbraten hat glaube ich schon, weil man a) eh genügend Die-Space zur Verfügung hat weil man schon allein die Pads aufbringen musste und b) damit Designzeit sparen kann.
Ack.
Allein der SLI Bufferkram kostet schonmal ordentlich (waren das beim NV40 nicht schon ein zweistelliger Millionen Transistoren Bereich?). PureVideo kostet auch sicher runde 5 Mio Transistoren (geschätzt). Was ist da noch drin? Eine PCI Bridge? Da kommt schon was zusammen.
Evtl. ist sinds ja wirklich größtenteils SRAM-Buffer, das macht schnell mal viele Transistoren weils dicht gepackt werden kann.
Man kann Transistoren nicht direkt in Die-Space umrechnen.
Warum sollte man mit 12 Samples auf einem 12x12-Raster OG bekommen?
Naja oder ein seltsames jittered Grid. Ein sparsed Grid >= 8xAA ist jedenfalls nicht drin.
Ich würde dir ja zustimmen, wenn es denn heute tatsächlich mehr als eine handvoll Monitore mit "brauchbarer Auflösung" gäbe... ;)
4x Sparse Grid ist z.B. auf einem 17"-Monitor mit 1280x1024 noch lange nicht "nahezu perfekt".
Mir ist aufgefallen, dass bei 1280x1024 in vielen Bereichen des Bildes oftmals zu wenig "Pixelplatz" da ist, für mehr als 4 Zwischenstufen. Bei einer höheren Auflösung und gleichem FOV und gleicher Fläche würden mehr Samples auch mehr Pixelplatz bekommen und theoretisch sogar sinnvoller sein, oder? 8abgesehen davon, dass man es dann kaum noch wahrnimmt X-D)
robbitop@work
2006-11-21, 15:40:39
Das wird bei einem IMR nie möglich sein :)
Nichtmal in einem 2-Pass Verfahren? Warum dann nicht?
robbitop@work
2006-11-21, 15:41:58
Evtl. ist sinds ja wirklich größtenteils SRAM-Buffer, das macht schnell mal viele Transistoren weils dicht gepackt werden kann.
Man kann Transistoren nicht direkt in Die-Space umrechnen.
Frage: wozu im NVIO einen großen SRAM Buffer?
Ja hängt natürlich von der jeweiligen Dichte ab.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.