Archiv verlassen und diese Seite im Standarddesign anzeigen : R600 schon im dritten Quartal 2006?
Hvoralek
2006-07-08, 17:51:32
Coda[/POST]']Kannst du dich bitte etwas deutlicher ausdrücken? Ich komm nicht mit was du meinst.Ich versuche, die Auslastung der (gesamten) Arithmetikeinheiten bei dedizierten Shadern zu beurteilen, wenn diese den Flaschenhals darstellen. In dem Fall begrenzen praktisch immer die PS. Wenn man ein passendes ADD/MUL- Verhältnis unterstellt (das für ein hohe Auslastung auch bei US nötig sein dürfte) und von G7x- dual- issue- ALUs absieht, wären die PS fast vollständig ausgelastet, sodass fast nur noch Leistung im VS brach liegen kann.
Das sind aber (bei R580/ G70/71) nur 1/7 der Einheiten, sodass bei einer Limitierung durch dedizierte Shader diese auch nicht schlecht ausgelastet sein dürften.
Schon wie du auf die "14%" kommst ist mir nicht klar.Ich hatte grob überschlagen, dass die VS 1/7 der Shader ausmachen. Ich habe es gerade nochmal genauer nachgerechnet. Bei G71 sind sie auch arithmetisch stärker (10 FLOPs/ Takt ggü. 8 bei den PS), sodass sie dort insgesamt 17,2% der Leistung stellen; bei R580 (mit 12 FLOPs/ Takt in den PS) sind es nur 12,2%.
Du klingst so als wäre das Zukunftsmusik. Der C1 in der Xbox und der kommende R600 sind unified shader.Ich hätte auch sagen können "ist". Ich weiß aber auch nicht, ob der Verteiler im R500 die Anforderungen an den in einer PC- Architektur erfüllt. Gut möglich, dass ATI mit einem aufgemotzten "Dispatch Processor" der Desktop- R5xx ankommen wird.
Bleibt die Frage: Wie groß wäre/ ist so ein Teil?
Vec4 + Scalar. Bisher kannst das nur nebeneinander laufen lassen wenn du nur mit Vec3 rumrechnest.Wozu (und wie oft) brauchst Du bei drei Farbkanälen Vec4?
Coda[/POST]']Denkfehler. Die ALU-Ops sind für alle 3 genau die gleichen und die restliche Logik abseits der ALUs braucht man für jede Stage sowieso.
Spezialisierte Einheiten sind bisher eigentlich immer schneller und "billiger" gewesen, als generellere.
Dein Denkfehler ist es, dass die restliche Logik, die dann jeweils brachliegt, nicht für jede der Shadereinheiten mitschleppen musst.
64*Skalar > 8*Skalar. Nur so als Beispiel.
Das ist ja alles richtig, allerdings kann man ganz einfach auch nur Vec3+Scalar benützen. Die von den "Vertexeinheiten" frei werdenden Resourcen dürften das locker ausgleichen.
Wie gesagt sind die Ops überall die gleichen.
Hvoralek
2006-07-08, 23:41:46
Coda[/POST]']Das ist ja alles richtig, allerdings kann man ganz einfach auch nur Vec3+Scalar benützen. Die von den "Vertexeinheiten" frei werdenden Resourcen dürften das locker ausgleichen.Aber wirklich nutzen kann man den zusätzlichen Kanal für PS nicht? Dann liegt bei der Verwendung von PS doch ein Teil der Shader brach, den man sich bei dedizierten Einheiten sparen könnte. Ich kenne nicht die nötigen Zahlen, um zu beurteilen, ob sich der Mehraufwand insgesamt lohnt. Aber da scheinen sich ja nicht einmal die IHVs einig zu sein.
Coda[/POST]']Das ist ja alles richtig, allerdings kann man ganz einfach auch nur Vec3+Scalar benützen. Die von den "Vertexeinheiten" frei werdenden Resourcen dürften das locker ausgleichen.
Wie gesagt sind die Ops überall die gleichen.
Das kommt wohl ganz auf das Design der Quad-Pipe an. Wenn man wie Ati eh schon eine relativ teure Pipe hat mit enormer Steuerungslogik und massivem Registerplatz, dann wird sich ein USC eher lohnen, als wenn man eine extrem kompakte Quad-Pipe hat, wie Nvidia, deren wichtigstes Merkmal (aus Chiparchitekten-Sicht) man für einen echten USC aufgeben müsste.
Je nach Ausgangslange kommst du wohl mit dem einen, mal mit dem anderen Design billiger weg.
Ailuros
2006-07-09, 09:15:16
Winkelunabhaengigeres AF + effiizienteres PS dynamisches branching + D3D10 Vorraussetzungen + viel mehr benoetigte FP-Leistung usw. sind schon genug dass ein hypothetischer G80 quad nicht mehr so "kompakt" wirkt.
Ich kann natuerlich total falsch liegen momentan, aber ich werde das Gefuehl nicht los dass R6x0 insgesamt "schlanker" auskommen koennte und ATI nochmal auf sehr hohe Taktraten setzt. Falls dieses stimmen kann ich mir keine besonders grossen Unterschiede was den Stromverbrauch betrifft vorstellen.
Im Endeffekt werden beide IHVs ihre ersten D3D10 GPUs wie immer gut vermarkten und kommen dann etwas spaeter mit der +1 Generation an um uns zu zeigen dass diese um einiges Stromsparender und effizienter sind. Natuerlich nichts Neues fuer diesen Markt, aber ich will hoffen dass wir Marketing-quatsch wie "D3D10 done right" diesmal entgehen koennen....
Ailuros[/POST]']Winkelunabhaengigeres AF + effiizienteres PS dynamisches branching + D3D10 Vorraussetzungen + viel mehr benoetigte FP-Leistung usw. sind schon genug dass ein hypothetischer G80 quad nicht mehr so "kompakt" wirkt.
Siehst du, ich gehe eben nur von dem fett hervorgehobenen aus - die zusätzliche ALU-Leistung sehe ich eher über die Masse an Quad-Pipes realisiert.
Ansonsten würde Nvidia ihre dann neuen ALUs ja lediglich für diesen einen Zwischenschritt zu USCs entwickelt haben - bei der Recycling-Politik glaube ich da nicht dran.
Ailuros
2006-07-09, 09:56:57
Gast[/POST]']Siehst du, ich gehe eben nur von dem fett hervorgehobenen aus - die zusätzliche ALU-Leistung sehe ich eher über die Masse an Quad-Pipes realisiert.
Ansonsten würde Nvidia ihre dann neuen ALUs ja lediglich für diesen einen Zwischenschritt zu USCs entwickelt haben - bei der Recycling-Politik glaube ich da nicht dran.
G80 hat IMHO mehr ALU OPs pro SIMD Kanal als seine Vorgaenger. Selbst wenn G80 jetzt 8 quads haben sollte, sind es nicht nur 2 mehr quads als auf G7x, sondern auch ziemlich fettere quads.
Wie soll ich den zweiten Paragraphen oben verstehen?
Ich wiederhole mich zwar aber bitte mal durchlesen:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4528176&postcount=667
Die PDFs habe ich noch nicht gelesen, aber der gepostete Screen sagt mal dazu gar nichts aus.
- Higher Perf/Area: 80nm
- Higher Perf/Watt: niedrigere Spannung, kleinerer Prozess - reicht schon bei linearem Leistungsanstieg.
- Modified BLA: Sorry, einmal zu oft "Our new FUs were built from scratch" gehört.
- For Use in both PS and VS: Bezieht sich evtl. gar nicht auf den G80...
Ailuros[/POST]']Wie soll ich den zweiten Paragraphen oben verstehen?
Wenn Nvidia jetzt stark veränderte PS brächte, würden sie diese beim Übergang zum US nochmal stark überarbeiten müssen, um VS/GS-Funktionen hineinzubekommen.
Mit stark meine ich nicht den Unterschied NV40/G70 - eher deutlich mehr.
ATi werkelt seit R400 am R600-Design.
Coda[/POST]']ATi werkelt seit R400 am R600-Design.
Auf was bezieht sich dein Posting jetzt, Coda?
Ailuros
2006-07-09, 22:44:21
Gast[/POST]']Wenn Nvidia jetzt stark veränderte PS brächte, würden sie diese beim Übergang zum US nochmal stark überarbeiten müssen, um VS/GS-Funktionen hineinzubekommen.
Mit stark meine ich nicht den Unterschied NV40/G70 - eher deutlich mehr.
USC ist fuer NVIDIA eine wahre Generation von G80 entfernt. Das obrige macht sowieso wenig Sinn denn ein USC wird sowieso fundamentale Aenderungen mit sich bringen.
ATI's R600 is a 80 nanometre chip
http://www.the-inquirer.net/default.aspx?article=33093
Hvoralek
2006-07-18, 17:16:18
Gast[/POST]']ATI's R600 is a 80 nanometre chip
http://www.the-inquirer.net/default.aspx?article=33093Das war ja schon länger absehbar. Interessant aber, dass der laut Fudo 17% kleiner sein soll als "ATIs 90-nm- Chips" (Ich nehme an, er meint den Größten davon, also R580). Durch 80-nm- Fertigung wäre ein identischer Chip gut 20% kleiner; wenn das so stimmen sollte, käme R600 auf überschlägig 400 Mio. Transistoren.
deekey777
2006-07-18, 18:05:52
Hvoralek[/POST]']Das war ja schon länger absehbar. Interessant aber, dass der laut Fudo 17% kleiner sein soll als "ATIs 90-nm- Chips" (Ich nehme an, er meint den Größten davon, also R580). Durch 80-nm- Fertigung wäre ein identischer Chip gut 20% kleiner; wenn das so stimmen sollte, käme R600 auf überschlägig 400 Mio. Transistoren.
Er meint den R580 (es wird keine R600-Produkte in 90 nm geben, also keine Vergleichbarkeit).
The biggest point is that the chip is 17 per cent smaller than the previous ones manufactured using the 90 nanometre process.
R580 (90 nm) vs. "R580+" (80 nm).
Ob der R600 tatsächlich kleiner als der R580 sein wird, steht noch in den Sternen.
Hvoralek
2006-07-18, 18:49:29
DK777[/POST]']R580 (90 nm) vs. "R580+" (80 nm).Jo, nochmal lesen bildet :whistle:
DK777[/POST]']Ob der R600 tatsächlich kleiner als der R580 sein wird, steht noch in den Sternen.
Das halte ich für äußerst unwahrscheinlich.
Vielleicht meint Fuad ja, dass ein Chip, der in 80nm gefertigt wird, 17% kleiner ist als der gleiche Chip in 90nm...
Hvoralek
2006-07-18, 22:11:44
Gast[/POST]']Vielleicht meint Fuad ja, dass ein Chip, der in 80nm gefertigt wird, 17% kleiner ist als der gleiche Chip in 90nm...Das kommt afaics nicht ganz hin. 80²/90² = 64/81 = 0,79. Man spart also rechnerisch etwa 21% Platz.
und wenn er in schokolade gefertig wird, ich will leistung egal wie
paul.muad.dib
2006-07-18, 23:08:04
Coda[/POST]']Das halte ich für äußerst unwahrscheinlich.
Warum nicht? Ein Blick auf NV zeigt doch, dass im Bezug auf Leistung/Transistoren (ich will nicht schon wieder das "E"-Wort bemühen) noch einiges möglich ist.
Falls der r600 eine weitgehende Neuentwicklung ist, wären 400 Mio. Transistoren imo möglich.
was soll die die R580 überhaupt bringen...die 1900er krebst doch schon am limmit rum..ist ja im Winter ganz schön..aber jetzt....
paul.muad.dib[/POST]']Warum nicht? Ein Blick auf NV zeigt doch, dass im Bezug auf Leistung/Transistoren (ich will nicht schon wieder das "E"-Wort bemühen) noch einiges möglich ist.
Falls der r600 eine weitgehende Neuentwicklung ist, wären 400 Mio. Transistoren imo möglich.
Weils viel zu wenig ist für die Leistungssteigerung die eine neue Generation so bringt und zusätzlich noch die D3D10-Features.
paul.muad.dib
2006-07-19, 11:02:30
Die Zahl der Rechenwerke soll sich ja nicht so stark erhöhen und vielleicht können an anderer Stelle Transistoren eingespart werden. NV hat es ja auch geschafft, beim G71 Transis zu sparen und ihn gleichzeitig pro Takt schneller zu machen.
Außerdem wird wohl irgendwann eine Grenze erreicht sein, wenn der Fertigungsprozess nicht deutlich feiner wird. Sowohl was Hitze als auch was Produktionskosten angeht, dürfte ATI gegenüber dem r580 nicht mehr viel Spiel nach oben haben.
paul.muad.dib
2006-07-19, 11:03:50
4711[/POST]']was soll die die R580 überhaupt bringen...die 1900er krebst doch schon am limmit rum..ist ja im Winter ganz schön..aber jetzt....
Es geht wohl eher darum, den Chip zu optimieren, so dass er günstiger und kühler wird und weniger um leistungssteigerungen.
Sunrise
2006-07-19, 20:38:42
Hvoralek[/POST]']Das kommt afaics nicht ganz hin. 80²/90² = 64/81 = 0,79. Man spart also rechnerisch etwa 21% Platz.
Ganz so einfach ist es leider nicht. Es sind "bis zu 19 Prozent" laut TSMC und das ist sehr stark sowohl vom Target, als auch vom Design abhängig.
Ailuros
2006-07-20, 06:21:20
Sunrise[/POST]']Ganz so einfach ist es leider nicht. Es sind "bis zu 19 Prozent" laut TSMC und das ist sehr stark sowohl vom Target, als auch vom Design abhängig.
Ein R5x0 in 80nm im Vergleich zu einem R5x0 in 90nm koennte sehr wohl um ~17% kleiner sein und erlaubt natuerlich auch hoehere Taktraten.
***edit:
*hust* http://www.theinquirer.net/default.aspx?article=33127
Dann lassen wir uns mal überraschen....Preis wäre ja ok..bessere Kühlung....oha noch lauter :D gibt es noch keine Bildchen...bis zum August isses ja nicht so lange....so schnell wie eine 7950...dann können wir aber unsere 1800 und 1900er herschenken...kaufen wird die keiner mehr....
Sunrise
2006-07-20, 19:32:12
Ailuros[/POST]']Ein R5x0 in 80nm im Vergleich zu einem R5x0 in 90nm koennte sehr wohl um ~17% kleiner sein und erlaubt natuerlich auch hoehere Taktraten.
Ailuros, das weiß ich alles, lies mal bei B3D meinen Beitrag. Es geht um die Rechnung, die Hvoralek benutzt hat, um auf einen optischen Shrink eines bestehenden Designs zu schließen. "Up to 19 percent" widerspricht sich nicht mit den 17% die Fuad angegeben hat. Auf was auch immer sich diese beziehen ist zweitrangig.
Was die Taktraten betrifft: ATi will die R580-Taktraten überhaupt nicht anheben, weil sie einen leiseren Kühler benutzen wollen, der - zusammen mit leicht höher getaktetem GDDR4 - insgesamt eine deutliche leisere Karte zur Folge hat. Steht auch bereits schon länger hier (http://www.beyond3d.com/forum/showthread.php?p=778125#post778125).
Ailuros
2006-07-21, 06:51:21
Sunrise[/POST]']Ailuros, das weiß ich alles, lies mal bei B3D meinen Beitrag. Es geht um die Rechnung, die Hvoralek benutzt hat, um auf einen optischen Shrink eines bestehenden Designs zu schließen. "Up to 19 percent" widerspricht sich nicht mit den 17% die Fuad angegeben hat. Auf was auch immer sich diese beziehen ist zweitrangig.
Was die Taktraten betrifft: ATi will die R580-Taktraten überhaupt nicht anheben, weil sie einen leiseren Kühler benutzen wollen, der - zusammen mit leicht höher getaktetem GDDR4 - insgesamt eine deutliche leisere Karte zur Folge hat. Steht auch bereits schon länger hier (http://www.beyond3d.com/forum/showthread.php?p=778125#post778125).
Ich meinte ganz was anderes. Dieses Prozentual (ob jetzt 17 oder 19 ist mir egal) koennte IMHO nur fuer chips der gleichen Generation gelten. Ich kann mir keineswegs vorstellen dass rein hypothetisch R6x0 um 17 oder 19% kleiner sein koennte in 80nm als R580@384M in 90nm. Dafuer muesste tatsaechlich der Transistoren-count des R6x0 verdammt nahe an dem des R580 liegen, was mir ziemlich unwahrscheinlich klingt.
Dass 80nm spaeter dran ist als anfangs erwartet haben wir glaube ich beide schon vor einiger Zeit erwaehnt.
Sunrise
2006-07-21, 07:52:51
Ailuros[/POST]']Ich meinte ganz was anderes. Dieses Prozentual (ob jetzt 17 oder 19 ist mir egal) koennte IMHO nur fuer chips der gleichen Generation gelten.
So würde ich das auch lesen.
Öhm, jetzt, wo ATI AMD gehört, können wir Ende 2007 auf eine 65nm Version des R600 hoffen?
Winter[Raven]
2006-07-28, 10:34:14
Gmax[/POST]']Öhm, jetzt, wo ATI AMD gehört, können wir Ende 2007 auf eine 65nm Version des R600 hoffen?
//EDIT:
Verlesen ... sorry!
AnarchX
2006-07-28, 10:34:19
Gmax[/POST]']Öhm, jetzt, wo ATI AMD gehört, können wir Ende 2007 auf eine 65nm Version des R600 hoffen?
Ende 2007 ist schon wieder der Refresh von R600 da, aber die 65nm sind zu diesem Zeitpunkt sehr wahrscheinlich.
Ich vermute schon erste Mainstreamchips in dieser Fertigungsgröße im Q3 2007.
Aber die ATI-GPUs werden noch lange Zeit nicht bei AMD gefertig werden.
AnarchX[/POST]']Ende 2007 ist schon wieder der Refresh von R600 da, aber die 65nm sind zu diesem Zeitpunkt sehr wahrscheinlich.
Ich vermute schon erste Mainstreamchips in dieser Fertigungsgröße im Q3 2007.
Aber die ATI-GPUs werden noch lange Zeit nicht bei AMD gefertig werden.
Ist ja interessant. Warum noch so lange Zeit bei TSCM?
ATI könnte AMDs verkleinerter Produktionsprozess gegenüber Nvidia doch nur helfen?
paul.muad.dib
2006-07-28, 10:51:36
Gmax[/POST]']Ist ja interessant. Warum noch so lange Zeit bei TSCM?
ATI könnte AMDs verkleinerter Produktionsprozess gegenüber Nvidia doch nur helfen?
Wal AMD erst mal seine Produktionsanlagen stark umstellen müsste, sie sind einfach nicht so flexibel wie die Auftragsfertiger. Außerdem hat AMD keine freien Kapazitäten.
Winter[Raven]
2006-07-28, 11:00:23
Gmax[/POST]']Ist ja interessant. Warum noch so lange Zeit bei TSCM?
ATI könnte AMDs verkleinerter Produktionsprozess gegenüber Nvidia doch nur helfen?
CPU Fertigung != GPU Fertigung
LoL, Inquirer spricht auch schon davon :biggrin:
>klick< (http://theinquirer.net/default.aspx?article=33320)
ShadowXX
2006-07-28, 13:00:02
Gmax[/POST]']LoL, Inquirer spricht auch schon davon :biggrin:
>klick< (http://theinquirer.net/default.aspx?article=33320)
Das widerspricht völlig den Aussagen der AMD/ATI-Mitarbeiter mit denen mehere HW-Seiten Interviews gemacht haben:
Dort wurde immer gesagt (wenn Sie auf GPUs in AMD Fabs angesprochen wurden), dass die GPUs weiterhin bei TMSC produziert werden....und zwar noch eine ganze weile.
AMD hat Erfahrung in Fertigung von ~200-300M Transistoren, von denen die Hälfte für Cache draufgehen für einen Frequenzbereich von 1,6-3 GHz. Ati braucht Herstellungen, die ca. das Doppelte an Transistoren mit einem drastisch höheren Logikanteil für 600-700 MHz auf die Reihe bringen.
So ein Know-How kommt nicht einfach über Nacht.
Q
Winter[Raven]
2006-07-28, 14:01:24
Gast[/POST]']AMD hat Erfahrung in Fertigung von ~200-300M Transistoren, von denen die Hälfte für Cache draufgehen für einen Frequenzbereich von 1,6-3 GHz. Ati braucht Herstellungen, die ca. das Doppelte an Transistoren mit einem drastisch höheren Logikanteil für 600-700 MHz auf die Reihe bringen.
So ein Know-How kommt nicht einfach über Nacht.
Q
Vergleiche nicht Cache mit hochkomplexer Chiplogik!
Bassmannxt
2006-07-28, 14:04:40
'Winter[Raven]'[/POST]']Vergleiche nicht Cache mit hochkomplexer Chiplogik!
Erkläre das mal bitte genau, wo da der Unterschied bei den Transistoren ist, bzw. der Schaltung.
ShadowXX
2006-07-28, 14:05:44
'Winter[Raven]'[/POST]']Vergleiche nicht Cache mit hochkomplexer Chiplogik!
Ähh....genau das tut er doch nicht.
Q sagt ja, das es was anderes ist einen 200-300Mio Chip herzustellen, bei dem auch noch die hälfte Cache ist, als einen fast nur aus Logik bestehenden 500Mio Chip.
Winter[Raven]
2006-07-28, 14:40:07
ShadowXX[/POST]']Ähh....genau das tut er doch nicht.
Q sagt ja, das es was anderes ist einen 200-300Mio Chip herzustellen, bei dem auch noch die hälfte Cache ist, als einen fast nur aus Logik bestehenden 500Mio Chip.
Ähhh ... schon wieder verlesen ... sorry @ Q!
AnarchX
2006-07-31, 18:25:40
Wird so R600 verkauft:
http://img5.pcpop.com/ArticleImages/0x0/0/317/000317567.jpg
http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f148%2f148623.shtml
;)
Die Industrie sollte endlich mal ePCIe ankurbeln - nachrüstbare Grakamodule für NBs...=)
deekey777
2006-07-31, 20:12:30
Wird so R600 verkauft:
[]http://img5.pcpop.com/ArticleImages/0x0/0/317/000317567.jpg[/IMG]
http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f148%2f148623.shtml
;)
Die Industrie sollte endlich mal ePCIe ankurbeln - nachrüstbare Grakamodule für NBs...=)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=225614&highlight=externe+grafikkarten
Hoffentlich kommt endlich Bewegung, denn eine externe Grafikarte ist wirklich interessant, auch wenn man es nur mit einem Hammer der Masse erklären können wird.
AnarchX
2006-08-06, 18:16:01
http://img5.pcpop.com/ArticleImages/500x375/0/319/000319106.jpg
http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f149%2f149121.shtml
Jo so sieht ein USC aus.
Eigentlich eine nette Sache, aber ohne einen großen Buffer kann es schnell zu Stalls kommen.
Ich hoffe ATI übernimmt sich da nicht.
Demirug
2006-08-06, 20:43:30
Jo so sieht ein USC aus.
Eigentlich eine nette Sache, aber ohne einen großen Buffer kann es schnell zu Stalls kommen.
Ich hoffe ATI übernimmt sich da nicht.
Das Problem der Buffer Größe ist nicht viel anders als bei denaktuellen ATI Chips.
Mist Denkfehler....gnnnna...jetzt kapier ichs.
wie hoch ist die chance, daß der R600 stromsparender wird als der 580?
hab echt kein bock mehr auf solche heizkraftwerke.
schon gar nicht in einer spezialbox und spezialnetzteil.
am besten noch spezialbox für die cpus und ein klimatisierten spezialraum für die ganze anlage. :rolleyes:
man man man
wie hoch ist die chance, daß der R600 stromsparender wird als der 580?
hab echt kein bock mehr auf solche heizkraftwerke.
schon gar nicht in einer spezialbox und spezialnetzteil.
am besten noch spezialbox für die cpus und ein klimatisierten spezialraum für die ganze anlage. :rolleyes:
man man man
Sehr klein^^
Der 80Nm-Bereich ist zwar gut, aber für den R600 reichts wohl nicht.
Das Problem beim USC ist einfach, das es sehr viele Zugriffe auf eine Einheit gibt, wenn man den USC wie eine normale Pipeline betrachtet.
Winter[Raven]
2006-08-07, 19:30:02
wie hoch ist die chance, daß der R600 stromsparender wird als der 580?
hab echt kein bock mehr auf solche heizkraftwerke.
schon gar nicht in einer spezialbox und spezialnetzteil.
am besten noch spezialbox für die cpus und ein klimatisierten spezialraum für die ganze anlage. :rolleyes:
man man man
Garnicht ;) Nicht bei den Transitorzahlen und 0.09µ ;)
Für beide, ATI als auch NV!
boxleitnerb
2006-08-07, 19:30:36
Scheint so, als müsste ich mich endgültig zwischen silent-Kühlung und Grafikleistung entscheiden.
Ich habe zwar sowieso vor, mir für mein nächstes System eine Wakü zu gönnen, aber begeistert bin ich von einer 100+ W Grafikkarte nicht.
Undertaker
2006-08-07, 20:03:13
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=225614&highlight=externe+grafikkarten
Hoffentlich kommt endlich Bewegung, denn eine externe Grafikarte ist wirklich interessant, auch wenn man es nur mit einem Hammer der Masse erklären können wird.
sollte die latenzen nicht störend sein? außerdem erschließt sich mir der sinn außer in der wohl nur für einen extrem kleines teil interessanten verwendung an notebooks nicht...
Zauberer
2006-08-07, 20:44:08
']G80 müsste ~Juni da sein...
lol, da hast Du dich aber verschätzt. :biggrin:
Bassmannxt
2006-08-07, 20:54:07
']Garnicht ;) Nicht bei den Transitorzahlen und 0.09µ ;)
Für beide, ATI als auch NV!
Aha, Taktrate und Spannung sind also völlig Egal, Stimmt ja auch eine 7900GTX verbraucht genau soviel wie eine 7900GT:rolleyes:
Gruß
Winter[Raven]
2006-08-07, 21:27:41
Aha, Taktrate und Spannung sind also völlig Egal, Stimmt ja auch eine 7900GTX verbraucht genau soviel wie eine 7900GT:rolleyes:
Gruß
Schon mal darüber nachgedacht, dass der Vcore bei den Ultra-Modellen höher ist als z.b. bei der GT?
dildo4u
2006-08-07, 21:32:34
Aha, Taktrate und Spannung sind also völlig Egal, Stimmt ja auch eine 7900GTX verbraucht genau soviel wie eine 7900GT:rolleyes:
Gruß
Der R600 wir garantiert am Limit arbeiten ATI muss hier die volle DX 10 Unterstüzung bringen und Geschwindigkeitsmäßig wollen sie sicher nich hinter einer 7950GX2 zurückstehen.Ich hab neben mir schon ein USC am laufen in meiner X-Box 360 in 90nM und die Box braucht 180Watt davon werden whol locker 90Watt für den Xenon draufgehen.Der läuft aber gerade mal mit 500mhz der R600 wird whol eher mit 700mhz laufen und hat noch mal massig mher Transistoren.
Bassmannxt
2006-08-08, 00:57:49
Der R600 wir garantiert am Limit arbeiten ATI muss hier die volle DX 10 Unterstüzung bringen und Geschwindigkeitsmäßig wollen sie sicher nich hinter einer 7950GX2 zurückstehen.Ich hab neben mir schon ein USC am laufen in meiner X-Box 360 in 90nM und die Box braucht 180Watt davon werden whol locker 90Watt für den Xenon draufgehen.Der läuft aber gerade mal mit 500mhz der R600 wird whol eher mit 700mhz laufen und hat noch mal massig mher Transistoren.
Ist der Wert gemessen mit den 90Watt oder einfach mal zum Spaß ein paar Zahlen genannt in der Hoffnung es wird schon stimmen.
Die Menge der Transistoren hat nichts mit dem Verbrauch gemeinsam, weil 500mio. Transistoren auf 1hz mit 0,05 Volt können nicht viel brauchen können. Ihr setzt aber mehr Transitoren mit einem erheblichen Mehrverbrauch gleich.
Gruß
Winter[Raven]
2006-08-08, 01:51:42
Die Menge der Transistoren hat nichts mit dem Verbrauch gemeinsam, weil 500mio. Transistoren auf 1hz mit 0,05 Volt können nicht viel brauchen können. Ihr setzt aber mehr Transitoren mit einem erheblichen Mehrverbrauch gleich.
Gruß
Sorry aber jetzt muss ich echt schmunzeln ... da es jetzt aber fast 2.00 Nachts ist, will ich auf den Post jetzt nicht näher eingehen...
Nur eine Frage am Rande, wie willst du etwas betreiben was mehr als 0,05Volt braucht um funktionieren?
Nur eine Frage am Rande, wie willst du etwas betreiben was mehr als 0,05Volt braucht um funktionieren?
:uponder:
ich glaub du hättest eher ins bett gehen sollen.
soll der R600 noch dieses jahr kommen oder eher nächstes?
was sagen die neusten gerüchte?
Ich glaube nicht dass sie sich das Weihnachtsgeschäft entgehen lassen wollen. Zudem soll ja auch der G80 noch dieses Jahr kommen und zu lange will man nvidia sicher nicht alleine mit dem neuen Chip lassen.
Winter[Raven]
2006-08-08, 14:37:40
:uponder:
ich glaub du hättest eher ins bett gehen sollen.
soll der R600 noch dieses jahr kommen oder eher nächstes?
was sagen die neusten gerüchte?
Was soll an meiner Aussage falsch sein? Bei jedem elektischen Leiter muss ein bestimmter Wiederstand überbrückt werden...
Ein Chip verbraucht mehr Watt linear zum Takt und exponentiell zur Spannung.
(1) R=U/I
(1 umgestellt) I=U/R
(2) P=U*I
((1 umgestellt) in (2) einsetzen) P=U*U/R
(3) R=const
daraus folgt: P~U^2 (Leistung quadratisch abhängig von der Spannung)
Diese Watt müssen dann aber auch irgendwie gekühlt werden, oder?
Bassmannxt
2006-08-08, 14:49:38
']Was soll an meiner Aussage falsch sein? Bei jedem elektischen Leiter muss ein bestimmter Wiederstand überbrückt werden...
Ein Chip verbraucht mehr Watt linear zum Takt und exponentiell zur Spannung.
(1) R=U/I
(1 umgestellt) I=U/R
(2) P=U*I
((1 umgestellt) in (2) einsetzen) P=U*U/R
(3) R=const
daraus folgt: P~U^2 (Leistung quadratisch abhängig von der Spannung)
Diese Watt müssen dann aber auch irgendwie gekühlt werden, oder?
Genau so ist das richtig und genau Deshalb kann man elektrische Bauteile auch jenseits von 0,05 Volt betreiben............auch wird anhand deiner schönen Auflistung klar das die Menge an Transistoren nichts mit dem Verbrauch gemeinsam hat, es hängt davon ab wie schnell diese schalten und wieviel Spannung dazu benötigt wird um dies zu realisieren.
Wenn man dazu dann einfach das limit der aktuellen Luftkühlung hinzufügt, muss man kein Guru sein um zu wissen, das der R600 nicht sehr viel mehr als ein R580 verbrauchen kann, zumal die Rohstoffpreise für Alu und Kupfer auch nicht fallen.
Gruß
Hvoralek
2006-08-08, 15:12:06
Genau so ist das richtig und genau Deshalb kann man elektrische Bauteile auch jenseits von 0,05 Volt betreiben [...]Brauchen Si- Transistoren nicht mind. 0,7 V zum Schalten?
...auch wird anhand deiner schönen Auflistung klar das die Menge an Transistoren nichts mit dem Verbrauch gemeinsam hat,
Das kann eigentlich nur Blödsinn sein. Es ist sicher nicht egal, ob ich eine Spannung an einen oder an 10 Mrd. Transistoren anlege.
Bassmannxt
2006-08-08, 15:59:27
Das kann eigentlich nur Blödsinn sein. Es ist sicher nicht egal, ob ich eine Spannung an einen oder an 10 Mrd. Transistoren anlege.
Sicher steigt der Verbrauch, aber wenn man das realistisch sieht dann werden das sicher nicht 10Mrd trans, sondern eher um die 500mio. wobei ja hier nicht feststeht wie was schaltet(ein Transistor kann im offline Zustand ja nix verbrauchen) und alleine aus dem Grund finde ich es etwas komisch schon von anfang hin zu schreiben: der verbraucht viel mehr....weil halt:wink:
@Hvoralek, die 0,05Volt hab ich einfach so in den Raum geschmissen als Beispiel, das ist keine Hausnummer an der man sich fest halten muss.
harrypitt
2006-08-08, 16:00:20
Brauchen Si- Transistoren nicht mind. 0,7 V zum Schalten?
Soweit ich mich an meinen Physikunterricht erinnern kann: eindeutig ja.
Germanium-Transistoren schaltet glaub ich schon früher (0,5 V wenn ich mich nicht irre).
Nur eine Frage am Rande, wie willst du etwas betreiben was mehr als 0,05Volt braucht um funktionieren?
mehr als 0,05V geben.
ist das richtig?
(die frage ist übrigens grammatisch nicht korrekt)
zum stromverbrauch:
wenn der R600 mit 1V betrieben wird und etwa 400-420Mio trasistoren hat, ist es doch gut möglich, daß er weniger verbraucht als der 580 oder?
Winter[Raven]
2006-08-08, 16:45:46
mehr als 0,05V geben.
ist das richtig?
(die frage ist übrigens grammatisch nicht korrekt)
a) Verstehe ich nicht worauf du hinaus willst... && b) Wer Rechtschreib/Grammatikfehler findet kann diese behalten...
wenn der R600 mit 1V betrieben wird und etwa 400-420Mio trasistoren hat, ist es doch gut möglich, daß er weniger verbraucht als der 580 oder?
Wie kommst du jetzt auf 1V?
Blutmaul
2006-08-08, 16:58:54
Die neuen High-End-Grafikkarten werden auch neue "Leistungsrekorde" setzen.
Was ich gehört hab - das sowieso fällig war - wird es auch neue Kühlermodelle benötigen, um die noch zu kühlen und das schon darüber nachgedacht wird, Extranetzteile für den 5-Zoll-Einschub anzubieten, spricht ja Bände...
Es wird dringend notwendig, die Leistungsaufnahme der Grafikkarten einzubremsen!
a) Verstehe ich nicht worauf du hinaus willst...
es war eine antwort auf deine frage, und jetzt würde ich gerne wissen ob die antwort richtig war.
bei uns im norden ist das so üblich, daß man auf eine frage eine antwort gibt.
ist das bei euch anders?
Wer Rechtschreib/Grammatikfehler findet kann diese behalten... das blöde an grammatikfehlern ist nur, daß es dadurch schnell zu missverständnissen kommen kann, weil die frage/aussage gar nicht oder falsch verstanden wird.
darum bitte in zukunft auf richtige ausdrucksweise achten. (rechtschreibfehler sind dagegen nicht so schlimm)
Wie kommst du jetzt auf 1V?
in welchem forum sind wir denn hier?
dargo
2006-08-08, 17:32:05
Es wird dringend notwendig, die Leistungsaufnahme der Grafikkarten einzubremsen!
*unterschreib*
Man kann die Hersteller nur dazu zwingen, indem man diese Heizöfen nicht kauft. Da die meisten User aber gar nicht wissen wieviel so eine Grafikkarte an Strom zieht werden diese Strommonster wohl weiter hergestellt. Bin echt gespannt wo die Grenze bei der Leistungsaufnahme sein wird.
Hvoralek
2006-08-08, 17:39:03
bei uns im norden ist das so üblich, daß man auf eine frage eine antwort gibt.
ist das bei euch anders?Auf rhetorische Fragen antworte ich oft gar nicht, jedenfalls nicht mit einer "Antwort" auf den Wortlaut. Und nein, auch hier im Norden nicht.
das blöde an grammatikfehlern ist nur, daß es dadurch schnell zu missverständnissen kommen kann, weil die frage/aussage gar nicht oder falsch verstanden wird.
darum bitte in zukunft auf richtige ausdrucksweise achten. (rechtschreibfehler sind dagegen nicht so schlimm)Das war mMn noch zu verstehen (fehlt afaics nur ein "zu" a.E.). Da kann man z.T. mit Rechtschreibfehlern mehr anrichten.
Für die ersten 80nm- GPUs kommt mir 1,0 V jedenfalls äußerst optimistisch vor (etwa auf dem Niveau liegen afair Intels 65nm- LV- Chips). Ich würde eher mit 1,1-1,15V im 2D- und 1,25-1,3V im 3D- Betrieb rechnen.
Zum Stromverbrauch würde ich keine Prognose abgeben, das hängt an zuvielen unbekannten Faktoren (Spannung, Taktfrequenz, Die- Fläche, Größe der Leckströme).
Winter[Raven]
2006-08-08, 17:43:56
es war eine antwort auf deine frage, und jetzt würde ich gerne wissen ob die antwort richtig war.
bei uns im norden ist das so üblich, daß man auf eine frage eine antwort gibt.
ist das bei euch anders?
das blöde an grammatikfehlern ist nur, daß es dadurch schnell zu missverständnissen kommen kann, weil die frage/aussage gar nicht oder falsch verstanden wird.
darum bitte in zukunft auf richtige ausdrucksweise achten. (rechtschreibfehler sind dagegen nicht so schlimm)
in welchem forum sind wir denn hier?
a) Ok ... ja die Antwort war natürlich richtig ... kleiner Kurzschluss ^^:biggrin:
b) Ja, sorry war blöd formuliert
c) Schau dir doch die G70 Generation an, G70 hatte 302 Mio Transistoren bei 0.13µ und lief mit 1.2-1.4 Volt, der G71 hat aber 278 Mio und wird in 0.09µ Produziert läuft aber trotzdem mit 1.2-1.4 Volt.
Liegt es an der höheren Taktung?
Beim R600 wärden bestimmt >= R580 Voltan liegen. Sollte ATI bzw. jetzt AMD versuchen das ganze auf 700 Mhz zu takten, wirds lustig!
Das war mMn noch zu verstehen (fehlt afaics nur ein "zu" a.E.). Da kann man z.T. mit Rechtschreibfehlern mehr anrichten.
Woho ... wo du es sagst, hab ja echt das "zu" vergessen... Sorry ...!
Schau dir doch die G70 Generation an, G70 hatte 302 Mio Transistoren bei 0.13µ und lief mit 1.2-1.4 Volt, der G71 hat aber 278 Mio und wird in 0.09µ Produziert läuft aber trotzdem mit 1.2-1.4 Volt.
warum verbraucht der G71 mit mehr transistoren dann nicht mehr strom als der G70 mit weniger transistoren?
Ronny145
2006-08-08, 20:36:53
warum verbraucht der G71 mit mehr transistoren dann nicht mehr strom als der G70 mit weniger transistoren?
Wieso mehr? Der G71 hat doch dann weniger Transistoren.
Hvoralek
2006-08-08, 21:37:36
Er hat tatsächlich ein paar Transistoren weniger (G70 --> 302 Mio.; G71 --> 284). Der entscheidende Grund für die geringere Verlustlesitung ist aber der feinere Fertigungsprozess (G70 --> 110 nm; G71 --> 90nm). Dadurch bräuchte der G71 selbst bei gleicher Komplexität Pi*Daumen 30% weniger Die- Fläche.
Wieso mehr? Der G71 hat doch dann weniger Transistoren
ja, hab mich vertan.
wann soll der R600 denn jetzt kommen?
paul.muad.dib
2006-08-09, 00:04:18
ja, hab mich vertan.
wann soll der R600 denn jetzt kommen?
Er wird am 25.1.07* offiziell vorgestellt.
* +/- 2 Monate
Ich glaube wohl eher das der R600 noch deutlich vor dem Weihnachtsgeschäft glauncht wird, so das er dann zum Weihnachtsgeschäft gut verfügbar ist.
Deshalb wird der neue High End Chip von ATI der x1950xtx auch nur 400 Euro vom Start weg kosten, weil wohl schon bald der R600 mit den standardmässigen 500-600 Euro nachrücken wird.
Hvoralek
2006-08-09, 13:35:40
Deshalb wird der neue High End Chip von ATI der x1950xtx auch nur 400 Euro vom Start weg kosten, weil wohl schon bald der R600 mit den standardmässigen 500-600 Euro nachrücken wird.Das könnte auch einen Grund namens 7950 GX2 haben. Wenn die X1950er nur X1900er mit schnellerem Speicher sind, werden sie an die von der Leistung her nicht herankommen (Wenn auch den Rückstand mit hohen AA- Graden in hohen Auflösungen ein ganzes Stück weit zufahren können), sodass es ungeschickt wäre, sie preislich dagegen zu stellen.
Wenn der R600 es noch ins Weihnachtsgeschäft schafft, wäre das natürlich gut, ich sehe die Chancen dafür im Moment aber nur etwa 50:50.
Sicher steigt der Verbrauch, aber wenn man das realistisch sieht dann werden das sicher nicht 10Mrd trans, sondern eher um die 500mio. wobei ja hier nicht feststeht wie was schaltet(ein Transistor kann im offline Zustand ja nix verbrauchen) und alleine aus dem Grund finde ich es etwas komisch schon von anfang hin zu schreiben: der verbraucht viel mehr....weil halt:wink:
@Hvoralek, die 0,05Volt hab ich einfach so in den Raum geschmissen als Beispiel, das ist keine Hausnummer an der man sich fest halten muss.
Ok, 500 Mio. Das Verhältnis zu einem Transistor ändert sich nicht wesentlich - es ist immer noch "gigantisch viel mehr". Außerdem gibt es ja noch die bösen Leckströme, die Intel beim Prescott das Fürchten lehrten.
Er hat tatsächlich ein paar Transistoren weniger (G70 --> 302 Mio.; G71 --> 284). Der entscheidende Grund für die geringere Verlustlesitung ist aber der feinere Fertigungsprozess (G70 --> 110 nm; G71 --> 90nm). Dadurch bräuchte der G71 selbst bei gleicher Komplexität Pi*Daumen 30% weniger Die- Fläche.
Es liegt nicht an der kleineren Die-Fläche sondern an der geringeren Spannung dass der Chip weniger Strom verbraucht.
Winter[Raven]
2006-08-09, 21:43:08
Es liegt nicht an der kleineren Die-Fläche sondern an der geringeren Spannung dass der Chip weniger Strom verbraucht.
Ack ... was aber beim G71 im Vergleich zum G70 nicht der Fall ist. Eine größere Die-Fläche hat nur den Vorteil, das die Wärme besser abgeführt werden kann als von einem kleinem.
Hvoralek
2006-08-09, 22:00:38
Wenn die Die- Fläche keinen Einfluss auf den Stromverbrauch hat, wie erklärst Du Dir dieser Unterschied (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_asus_en7600gs_top_silent_512_mb/23/#abschnitt_stromverbrauch) zwischen 7900 GT und 7800 GTX beim Stromverbrauch? Die Spannung ist laut Dir selbst bei beiden gleich (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4640683&postcount=577), der G71 nur rund 6% simpler. Woher kommt dieser geringe Leistunghunger, wenn nicht von der kleinerer Chip- Fläche?
reunion
2006-08-11, 17:22:32
wie hoch ist die chance, daß der R600 stromsparender wird als der 580?
hab echt kein bock mehr auf solche heizkraftwerke.
schon gar nicht in einer spezialbox und spezialnetzteil.
am besten noch spezialbox für die cpus und ein klimatisierten spezialraum für die ganze anlage. :rolleyes:
man man man
']Garnicht ;) Nicht bei den Transitorzahlen und 0.09µ ;)
Für beide, ATI als auch NV!
Kein Chip der R6xx-Generation wird noch in 90nm gefertigt, das wurde von Dave Orton bereits vor langer Zeit bestätigt.
Winter[Raven]
2006-08-11, 17:30:43
Kein Chip der R6xx-Generation wird noch in 90nm gefertigt, das wurde von Dave Orton bereits vor langer Zeit bestätigt.
in 80nm? Wir müssen erstmal abwarten wie gut die kommenden Products der Low-Mid-Rage sein werden, dann schauen wir weiter.
Ailuros
2006-08-13, 09:58:02
']in 80nm? Wir müssen erstmal abwarten wie gut die kommenden Products der Low-Mid-Rage sein werden, dann schauen wir weiter.
Sehr "junge" Herstellungsprozesse fuer high end bedeuten stets ein gewisses Risiko. Es gab ein paar Probleme mit 80nm; ich wuerde zwar erwarten dass diese in der Zwischenzeit ausgebuegelt wurden, aber das heisst aber wiederrum auch dass R6x0 mit hoechster Wahrscheinlichkeit ein bisschen spaeter als die direkte Konkurrenz ankommen wird.
Mal eine bisschen Diskussionstoff :)
Blocks of work in parallel…
• Let’s look at this in DX10 (in contrast with DX9…)
• Handling units of work in parallel
• “some number” in our future hardware
• What do I mean by handling 16 pixels in parallel in an
X1800?
• Consider “If (a) then b else c”
• If ‘a’ is always true, or always false then our life is easy, so we do the job
the quick way
• If ‘a’ is sometimes true then our life is hard
• This has implications for VS, GS and PS in USA SM4
hardware
• Lets pretend that R600 has work blocks of 17 shaders and look at the
consequences…
• [XXX - Ramble on here for a while because they really need to get this]
Quelle (http://www.ati.com/developer/brighton/05%20Graphics%20Performance.pdf)
deekey777
2006-08-15, 11:58:32
"pretend" bedeutet "vortäuschen" uä.
Die Präsentation ist wirklich lustig gemacht.
Or why Homer Simpson was right to keep
shouting “U.S.A.” ;D
If the data is aligned with cache lines then transactions
run faster
• We use 256 bit fetches, even on lower width cards where we simply
make more fetches
• That’s 32 bytes per fetch
• 32 bytes good, 36 bytes bad
• Red good, green bad…
DrumDub
2006-08-15, 12:44:28
dazu muss man aber auch wissen, was mit usa gemeint ist und nicht was homer simpson sagte. ;D
xfire
2006-08-16, 12:59:50
dazu muss man aber auch wissen, was mit usa gemeint ist und nicht was homer simpson sagte. ;D
Hat zwar n' bißchen gedauert, aber jetzt hab ich's gerafft... ;D
Für diejenigen die den Witz auch nicht sofort verstehen:
U.S.A = Unified Shader Architecture
gbm31
2006-08-16, 13:22:55
*doseduffrüberreich*
[MK2]Mythos
2006-08-18, 17:22:46
Der R600 hat 64 Pipelines.
http://uk.theinquirer.net/?article=33784
Hvoralek
2006-08-18, 17:30:01
Mythos']Der R600 hat 64 Pipelines.
http://uk.theinquirer.net/?article=33784Was meint Fuad denn jetzt mit "real Pipes"? Jeweils eine Shading- Einheit und eine TMU? Also eine Verfierfachung der Füllrate/ Takt bei fast stagnierender Arithmetikleistung :rolleyes:? US in einer Pipelinestruktur ;D?
Sorry, aber das klingt für mich nach völligem Unsinn.
AnarchX
2006-08-18, 17:30:33
Mythos']Der R600 hat 64 Pipelines.
http://uk.theinquirer.net/?article=33784
64 ALUs...;)
64 TMUs wird er sicherlich nicht haben.
Und wieso wenn ich fragen darf?
64 USCs mit je einer ALU und einer TMU, so sehe ich das!
Denn nicht jeder USCs wird ja nicht gleich als Pixelshader verwendet.
AnarchX
2006-08-18, 17:47:27
Mit 64 TMUs(bzw. Pixelpipelines) wäre der R600 ein Transistormonster, dass man einfach nicht wirtschaftlich fertigen könnte.
Fuad phantasiert halt mal wieder...
Blutmaul
2006-08-18, 17:58:37
Nichts ist so wirtschaftlich, wie der Erfolg!
Man wird ja sehn, was es wird.
Es gbit ja Leute, die sagen, das es wichtig ist, die schnellste Karte in den Benches zu haben, da kann man auch ein paar Tausend Super-High-End-Karten bauen, wenn es dem Gesamtergebnis zuträglich ist, dann ist es egal ob die auf sich gerechnet Verlust bringen.
In ein paar Monaten wissen wir es doch!
Hvoralek
2006-08-18, 18:10:54
64 USCs mit je einer ALU und einer TMU, so sehe ich das!Damit die TMUs dann bei kommenden Spielen (bzw. aus R600- Sicht: bei heutigen) zunehmend auf die Shader warten müssen und andernfalls an Bandbreite verhungern? ATI hat von R300 bis R520 stets ein Fragment- Shader:TMU- Verhältnis von 1:1 gehabt; anfangs war das wohl zu hoch, später zu niedrig. Mit RV530/R580 sind sie davon endlich losgekommen und ich wäre arg enttäuscht, wenn sie tatsächlich einen Schritt zurück machen würden - Zumal es hier um US geht, von denen man logischerweise mehr braucht als von PS alleine.
Denn nicht jeder USCs wird ja nicht gleich als Pixelshader verwendet.Ja, eben. Wo wäre der Sinn, sämtliche Daten, die zu einem als VS oder GS verwendeten US sollen, an einer TMU vorbeizuschieben? Das wäre doch schlicht Verschwendung, zumal ATIs Arbiter gerade dafür da ist, Daten nach Bedarf zwischen den verschiedenen Einheiten hin- und herzuschieben. Da wäre es wohl eher hinderlich, die in feste Pipelines zu stecken, ich rechne eher mit einzelnen Blöcken für TMUs, Shader und ROPs.
robbitop
2006-08-18, 18:12:18
Witzig, zu sehen, wie wenig Verständnis ein so berühmter Redakteur hat.
nervig, zu sehn,das ihr null pan habt vom r600 aber immer wieder diese dämliche fuad pöbellei macht
1:1 ALU/TMU werden wir beim R600 mit Sicherheit nicht mehr sehen.
anstatt 64 tmus könnten es ja 64 alus werden, das wären dann aber kaum mehr als beim r580 wenn man bei dem die ps+vs zusammenzählt.
AnarchX
2006-08-18, 20:12:42
anstatt 64 tmus könnten es ja 64 alus werden, das wären dann aber kaum mehr als beim r580 wenn man bei dem die ps+vs zusammenzählt.
ALU ist nicht gleich ALU...;)
Zudem wird man beim Takt gegenüber R580 wohl nochmal einiges zulegen.
robbitop
2006-08-18, 23:43:46
nervig, zu sehn,das ihr null pan habt vom r600 aber immer wieder diese dämliche fuad pöbellei macht
Wenn jemand von 64 vollständigen D3D10 Pipelines redet und sich dabei nicht bewußt ist, dass dazu 64x TMUs, ALUs als auch ROPs (laut Definition) nötig sind und sich scheinbar der Konsequenzen auf das Transistorbudget nicht bewußt ist und auch sonst oftmals jeden Unsinn abschreibt, ohne kritisch zu hinterfragen oder auch nur einen Funken Verständnis und Kompetenz für dieses Thema übrig hat, ist das Lustigmachen IMO legitim. Zumal man IMO schon lange gar nicht mehr wirkliche Pipelines zählen kann, geschweige denn, diese als Indikator für die Leistung eines 3D Beschleunigers sehen kann.
Ich habe mal diesbezüglich E-Mail Kontakt zu ihm gehabt, in der ich ihn bat, über Dinge mal zu reflektieren und sie zu hinterfragen, statt sie einfach nur zu veröffentlichen. Seine Antwort war kurz und knapp. Sinngemäß: er habe es irgendwo gelesen/aufgeschnappt und halt veröffentlicht.
Leute wie er sind einfach nur grauenhafte Redakteure.
ALU ist nicht gleich ALU...;)
Zudem wird man beim Takt gegenüber R580 wohl nochmal einiges zulegen.
Ich habe gehört, dass er nicht um einiges zulegen wird. Wie auch? Allein das Featureset kostet schon ziemlich viele Transistoren und der Shrink ist nur ein half-node. Da ist kaum Raum für eine deutliche Erhöhung der Recheneinheiten oder des Taktes. G80 und R600 werden IMO zwar schneller als ihre Vorgänger, aber nicht um den Faktor 2.
Die ALUs werden wohl stinknormale Vec5 MAD FPUs werden.
Hvoralek
2006-08-19, 01:42:08
nervig, zu sehn,das ihr null pan habt vom r600 aber immer wieder diese dämliche fuad pöbellei machtDas hat er sich nun wirklich selbst eingebrockt. Es ist nicht nur das fehlende Hinterfragen der Informationen, die er von sich gibt, sondern er gibt vieles auch falsch wieder oder erzählt gleich völligen Stuss. Wenn ich nur mal an seine 8- Quad- Story zum R520 denke...
Natürlich liegt der Inq häufig auch richtig. Z.B. war dort afair schon vor knapp einem Jahr die Rede davon, dass sich AMDs neue Architektur verschiebe und man als Zwischenlösung einen umgebauten K8 namens K8L bringen werde. Allerdings schreiben dort weniger Redakteure als vielmehr Jäger und Sammler, wobei gerade Fuad auch noch ziemlich schlampig arbeitet.
Das hier klingt jedenfalls nicht nur in 80nm kaum machbar, sondern wäre auch eine aberwitzige Verschwendung von Die- Fläche.
reunion
2006-08-19, 10:51:02
Ich habe gehört, dass er nicht um einiges zulegen wird. Wie auch? Allein das Featureset kostet schon ziemlich viele Transistoren und der Shrink ist nur ein half-node. Da ist kaum Raum für eine deutliche Erhöhung der Recheneinheiten oder des Taktes. G80 und R600 werden IMO zwar schneller als ihre Vorgänger, aber nicht um den Faktor 2.
Die ALUs werden wohl stinknormale Vec5 MAD FPUs werden.
Du machst IMO den Fehler von R580 auszugehen.
robbitop
2006-08-19, 11:27:59
Du machst IMO den Fehler von R580 auszugehen.
Und du den, von C1 auszugehen, wo eine Unmenge fehlt, um eine PC GPU zu sein. Die 64x Vec5 ALUs schwirren zumindest schon sehr lang im Netz und klingen für das Budget auch sehr realistisch. R580 ist nicht von Idioten gebaut worden, ein D3D10 R600 wird mit gleicher Anzahl von Ausführungseinheiten nicht kleiner sein als R580.
reunion
2006-08-19, 11:54:54
Und du den, von C1 auszugehen, wo eine Unmenge fehlt, um eine PC GPU zu sein.
Mag sein, allerdings ist R580 als Referenz nicht weniger problematisch IMO. Im übrigen kann wohl niemand von uns beurteilen was diese "Unmengen" an Dingen, die Xenos fehlen, konkret an Transistoren kosten.
Die 64x Vec5 ALUs schwirren zumindest schon sehr lang im Netz und klingen für das Budget auch sehr realistisch.
Ja, schon mindestens seit Juni 2005 (http://www.cdrinfo.com/Sections/News/Details.aspx?NewsId=14184). Zu einer Zeit, als vermutlich noch nicht einmal ATi wusste, wieviele ALUs R600 haben wird. Ich bitte dich. R600 hatte mit Glück vor kurzem sein Tapeout, ich glaube nicht, dass jetzt schon jemand gesicherte Informationen über die technischen Details dieses Chips haben wird. Das hat sich mit hoher Wahrscheinlichkeit irgend jemand aus den Fingern gesaugt, und alle schreiben - wie immer - ab. Was natürlich nicht heißt, dass diese Zahl zwangsläufig falsch sein muss.
R580 ist nicht von Idioten gebaut worden, ein D3D10 R600 wird mit gleicher Anzahl von Ausführungseinheiten nicht kleiner sein als R580.
Natürlich nicht - allerdings lässt die Transistoreneffizienz im Vergleich zur Konkurrenz und auch zu den Vorgängerchips IMHO doch arg zu wünschen übrig. Es zeigt sich, dass das R300-Design nicht dafür ausgelegt war, SM3-Features zu unterstützen. Hier ist also IMO doch noch ein gewisser Spielraum vorhanden.
robbitop
2006-08-19, 12:26:41
Ja, schon mindestens seit Juni 2005 (http://www.cdrinfo.com/Sections/News/Details.aspx?NewsId=14184). Zu einer Zeit, als vermutlich noch nicht einmal ATi wusste, wieviele ALUs R600 haben wird.
Wenn ATI das damals nicht gewußt hätte, würde R600 wohl nicht mehr 2006/07 kommen ;)
Natürlich nicht - allerdings lässt die Transistoreneffizienz im Vergleich zur Konkurrenz und auch zu den Vorgängerchips IMHO doch arg zu wünschen übrig. Es zeigt sich, dass das R300-Design nicht dafür ausgelegt war, SM3-Features zu unterstützen. Hier ist also IMO doch noch ein gewisser Spielraum vorhanden.
So ineffizient ist das Teil nicht, wenn man bedenkt, wie hoch flexibel dieses Design schon ist. Wenn ich da an das ganze Threading Konzept denke und die Pools von Einheiten...das ist schon ein Schritt in Richtung D3D10. Das kostet nunmal (und auch das Area AF war sicher nicht ganz billig). Dazu hat man noch einen großen Batzen an Recheneinheiten im R580. Klar kommt das nicht an die Effizienz vom G7x heran, aber als ineffizient titulieren würde ich ihn nicht. ;)
R600 könnte hier sicher effizienter sein, wenn es nur um SM3 ginge. Aber es handelt sich hier um einen USC, der eben auch noch den GS Kram enthalten muss sowie alle ALUs an sämtliche Crossbars anbinden muss. Das kostet. Mehr als die genannten 64 Vec5 ALUs wären toll! Für mich persönlich klingen sie, wie erwähnt, sehr realistisch. Der jetzige Shrink bringt eben kaum mehr Luft nach oben und die wird ziemlich von SM4 aufgefressen (dem G80 geht es da sicher kaum anders).
[MK2]Mythos
2006-08-19, 19:30:47
Naja, ich las mich überraschen, jetzt neunmalklug zu behaupten was der R600 haben wird - oder was nicht, ist meiner Meinung nach auch für die so genannten 3D Guru's hier nicht möglich. Schließlich hat dem oben genannten R300 damals auch niemand zugetraut das er den aufwändigen 256 Bit Speichercontroller schon haben wird. Die Industrie hat nun mal hoch bezahlte Spzialisten, die sich solch schicke GPU's ausdenken und hin und wieder einen Volltreffer landen. Je besser der R600 wird, desto mehr wird es mich freuen :D
robbitop
2006-08-20, 00:41:59
Mythos']Naja, ich las mich überraschen, jetzt neunmalklug zu behaupten was der R600 haben wird - oder was nicht, ist meiner Meinung nach auch für die so genannten 3D Guru's hier nicht möglich.
Natürlich sind ungefähre Schätzungen anhand bekannter Variablen möglich
Mythos']
Schließlich hat dem oben genannten R300 damals auch niemand zugetraut das er den aufwändigen 256 Bit Speichercontroller schon haben wird.
Der 3DLabs P10 als auch die Matrox Parhelia 512 hatten Monate vorher schon ein 256 Bit DDR Interface.
[MK2]Mythos
2006-08-20, 11:36:20
Der 3DLabs P10 als auch die Matrox Parhelia 512 hatten Monate vorher schon ein 256 Bit DDR Interface.
Das hab ich auch nicht bestritten. Trotzdem kann ich mich noch gut an die Verwunderung vieler Experten hier erinnern.
robbitop
2006-08-20, 13:59:58
Mythos']Das hab ich auch nicht bestritten. Trotzdem kann ich mich noch gut an die Verwunderung vieler Experten hier erinnern.
Dann waren das aber schlechte "Experten".
wann kommt endlich mal ein neuer "r300" ,also ne karte die deutlich davon zieht ?
der kommende is ja auch nur der xbööx360 chip
bildquali kann auch mal besser werden,mit aa bin ich bei ati zu frieden,bei nv nicht. beim AF kann man noch viel tun,bei manchen spielen ist es argh hässlich
dildo4u
2006-08-21, 05:01:56
Man darf beim R300 nicht vergessen das er auch so gut im Vergleich aussah weil NV bei der Generation gepazt hat aber egal ist OT hier. ;)
Ailuros
2006-08-21, 06:47:09
Ich kann mir schwer vorstellen dass D3D10 GPUs weniger als theoretische 450-500 GFLOPs haben werden. Im Fall von R6x0 kann das nur heissen dass wenn die 64 ALUs tatsaechlich stimmen, wohl schwer single-issue ALUs sein koennen. In solch einem Fall braucht man dann wohl eher 12 oder sogar 16 FLOPs pro ALU (je nach der finalen Taktrate).
Es gab ein Geruecht auf B3D dass D3D10 GPUs quasi 4 ALUs pro "pipe" haben werden; bis jetzt hab ich keine Indizien hinter den Kulissen sehen koennen dass dieses nicht stimmen koennte. Im Fall von R6x0 ist dann eben "pipe" = ROP. Wobei 16 ROPs manchen als "wenig" erscheinen koennten, aber ohne zu wissen wozu jede ROP genau faehig ist, ist auch hier jegliche vorzeitige Spekulation sinnlos.
Was jetzt die Chip-Komplexitaet betrifft, es erwartet wohl keiner weniger als 500M Transistoren; es wuerde mich auch nicht besonders ueberraschen wenn wir sogar 600M sehen wuerden.
Ailuros
2006-08-21, 07:01:04
G80 und R600 werden IMO zwar schneller als ihre Vorgänger, aber nicht um den Faktor 2.
Kommt auf den Fall an. Auf Papier (sprich Theorie) ist dieser Faktor was die PS Leistung alleine auf G80 betrifft, schon da. Zwischen Theorie und Praxis gibt es natuerlich stets einen Unterschied, aber so klein ist der Unterschied zwischen NV4x und G7x am Ende nun auch wieder nicht; nur gehoeren beide eben quasi zur gleichen Generation.
G80 geht aber hier einen Schritt weiter: nicht nur mehr Einheiten, sondern auch fundamentale Aenderungen was die Effizienz generell betrifft. Zu dem ist der Unterschied in Transistoren im Vergleich zu G71 nicht gerade klein.
Kommt auf den Fall an. Auf Papier (sprich Theorie) ist dieser Faktor was die PS Leistung alleine auf G80 betrifft, schon da. Zwischen Theorie und Praxis gibt es natuerlich stets einen Unterschied, aber so klein ist der Unterschied zwischen NV4x und G7x am Ende nun auch wieder nicht; nur gehoeren beide eben quasi zur gleichen Generation.
G80 geht aber hier einen Schritt weiter: nicht nur mehr Einheiten, sondern auch fundamentale Aenderungen was die Effizienz generell betrifft. Zu dem ist der Unterschied in Transistoren im Vergleich zu G71 nicht gerade klein.
Na hallo. Ist denn ein R580 3x so schnell wie ein R520?! Aha, also in Extremfällen... . Dann sollte man aber auch erwähnen in welchen Fällen.
Ailuros
2006-08-24, 21:39:10
Na hallo. Ist denn ein R580 3x so schnell wie ein R520?! Aha, also in Extremfällen... . Dann sollte man aber auch erwähnen in welchen Fällen.
R520 und R580 basieren auf der gleichen Architektur und gehoeren zur gleichen Generation, eben die letztere mit 3x mal so vielen ALUs.
Es war eine einfache und billige Loesung der R5x0 die ALU Staerke zu geben, die dem R520 fehlte und nein voll ausnutzen wird diese Staerke der R580 fuer seine Lebenszeit wohl nicht koennen, da andere Flaschenhaelse das Ding davon abhalten werden.
Genau aus diesem Grund hat NV bei G71 nur die Taktrate erhoeht und die Einheiten ein bisschen "umgeschaufelt" um Transistoren zu sparen.
G80 gehoert zu einer neuen Generation, ergo sind die Unterschiede eher mit NV3x vs. NV4x vergleichbar als NV4x vs. G7x, da der letztere nur ein refresh von NV4x war und ist. Wenn Du jetzt glauben willst dass G80 nur eine G7x Variante + mehr ALUs und D3D10 Komplianz ist, ist es zwar Deine Ansichtssache aber es muss auch nicht unbedingt der Realitaet entsprechen.
Ich hab weder Extremfaelle, noch techdemos oder R5x0 GPUs erwaehnt.
Gaestle
2006-08-25, 09:19:16
Was jetzt die Chip-Komplexitaet betrifft, es erwartet wohl keiner weniger als 500M Transistoren; es wuerde mich auch nicht besonders ueberraschen wenn wir sogar 600M sehen wuerden.
In einem Kern? Oder eher wie C1? Oder sind Deiner Meinung nach 500-600 Mio Transistoren - bei sagen wir 350-600Mhz - nicht so das Fertigungsproblem?
Sunrise
2006-08-25, 11:21:43
Oder sind Deiner Meinung nach 500-600 Mio Transistoren - bei sagen wir 350-600Mhz - nicht so das Fertigungsproblem?
Das ist überhaupt kein Problem, wenn genügend Redundanz berücksichtigt, der Fertigungsprozess reif genug ist und der Chip (das Design selbst) zusammen mit dem Prozess-Target dafür ausgelegt wurde. Machbar ist vieles, die entscheidende Frage ist eigentlich immer, ob dies auch wirtschaftlich genug ist.
NV geht ihre High-End-Designs nicht ohne Grund immer mit "konservativen" aber ausgereiften Prozessen (und dem GT-Prozesstarget bei TSMC) an, während ATi da historisch immer leicht "aggressiver" war. Auf was sich das auswirken kann, sind "lediglich" die Stromaufnahme selbst, u.a. bedingt durch Low-K, und natürlich dem Logikanteil.
Es geht hierbei nur rein um die Yields und selbst diese sind kein generelles Hindernis, bei einem entsprechenden Preis, der die Margen sichert und das Ganze immernoch halbwegs tragbar macht. Die folgenden Generationen (bzw. ein Refresh) wird dann wieder geshrinkt, wobei sich der Mehraufwand in Grenzen hält und man das Design mehr auf Takt optimieren kann.
Gaestle
2006-08-25, 11:28:39
Das ist überhaupt kein Problem, wenn genügend Redundanz berücksicht, der Fertigungsprozess reif genug ist und der Chip (das Design selbst) zusammen mit dem Prozess-Target dafür ausgelegt wurde.
Also rechnest Du mit einem Einzelcore?
Hvoralek
2006-08-25, 14:58:56
NV geht ihre High-End-Designs nicht ohne Grund immer mit "konservativen" aber ausgereiften Prozessen (und dem GT-Prozesstarget bei TSMC) an, während ATi da historisch immer leicht "aggressiver" war.Wie kommst Du darauf? Ich gehe mal die letzten Jahre durch:
R520/ G70 - 90nm/110nm
R420/ NV40 - beide 0.13µ
R300/ NV30 - 0.15µ/ 0.13µ
R200/ NV20 - beide 0.15µ
Ich sehe da keine Tendenz einer Seite zu früheren Prozesswechseln.
Sunrise
2006-08-25, 15:46:48
Wie kommst Du darauf? Ich gehe mal die letzten Jahre durch:
R520/ G70 - 90nm/110nm
R420/ NV40 - beide 0.13µ
R300/ NV30 - 0.15µ/ 0.13µ
R200/ NV20 - beide 0.15µ
Ich sehe da keine Tendenz einer Seite zu früheren Prozesswechseln.
Von früheren Prozesswechseln im High-End spreche ich auch nicht, zumindest nicht in dem von dir angegebenen Zusammenhang. Hierfür musst du dir etwas genauer die Prozesse, FABs und deren Targets anschauen, sonst bekommt man das relativ schnell in den falschen Hals.
Ein Prozess baut nicht nur rein auf der Strukturgröße auf (diese ist für die Endleistung relativ unbedeutend, da sie nur vorgibt, welchen "Platz" du hast, um gewisse Features bzw. Recheneinheiten zu integrieren, nicht aber die Geschwindigkeit, in welcher z.B. die Transistoren schalten), sondern zum Einen welches "Material" benutzt wird (FSG etc.) und zum Anderen die Eigenschaften/Charakteristika des Prozess-Targets selbst (z.B. GT/HS/LP bei TSMC), welcher zusätzlich noch in diversen Formen (das handhabt jede FAB anders) vorhanden ist (z.B. mit/ohne Low-K).
Um zu zweien deiner Beispiele zu kommen:
NV40 wurde bei IBM in East-Fishkill gefertigt, 12" Wafer bei 130nm ohne Low-K.
R420 wurde bei TSMC gefertigt, 8" Wafer bei 130nm mit Low-K*
*daher "aggressiver", da ATi das Design so auslegte, um hohe Takte fahren zu können, um die Stärken von R420 ausspielen zu können, während NV das Design konservativer auslegte.
R520 wurde bei TSMC gefertigt, 12" Wafer bei 90nm (Low-K ist hier Pflichtprogramm)
G70 wurde bei TSMC gefertigt, 8" Wafer bei 110nm ohne Low-K*
*wiederum konservativer, eine Erklärung sollte hier nicht nötig sein.
Ab deinem R300/NV30 verwässert sich die Sache etwas, da NV nach dem NV30-Fiasko eine völlig andere Strategie eingeschlagen hat, da sie damals schmerzlich lernen mussten. R200 ist für mich (und alles, was davor war) nichtmehr relevant.
Außerhalb des High-Ends ist es ähnlich.
Dunkeltier
2006-08-25, 19:34:31
Ich denke mal, "große" Sprünge wirds in der reinen Rohleistung nicht geben. Dafür wird die vorhandene Leistung besser ausgenutzt. Realistisch halte ich 64x ALUs, 16x ROPs, ein GPU-Takt von 700-750 Mhz sowie DDR4-Speicher mit 1-1.2Ghz. Wobei die GPU aus Kostengründen schon im 80nm Prozeß gefertigt wird. Alles andere ist Wunschdenken, immerhin muß die Sache bezahlbar bleiben, und wirtschaftlich tragfähig sein.
Ailuros
2006-08-26, 06:40:48
Also rechnest Du mit einem Einzelcore?
Wieso nicht?
Ailuros
2006-08-26, 06:48:23
Von früheren Prozesswechseln im High-End spreche ich auch nicht, zumindest nicht in dem von dir angegebenen Zusammenhang. Hierfür musst du dir etwas genauer die Prozesse, FABs und deren Targets anschauen, sonst bekommt man das relativ schnell in den falschen Hals.
Ein Prozess baut nicht nur rein auf der Strukturgröße auf (diese ist für die Endleistung relativ unbedeutend, da sie nur vorgibt, welchen "Platz" du hast, um gewisse Features bzw. Recheneinheiten zu integrieren, nicht aber die Geschwindigkeit, in welcher z.B. die Transistoren schalten), sondern zum Einen welches "Material" benutzt wird (FSG etc.) und zum Anderen die Eigenschaften/Charakteristika des Prozess-Targets selbst (z.B. GT/HS/LP bei TSMC), welcher zusätzlich noch in diversen Formen (das handhabt jede FAB anders) vorhanden ist (z.B. mit/ohne Low-K).
Um zu zweien deiner Beispiele zu kommen:
NV40 wurde bei IBM in East-Fishkill gefertigt, 12" Wafer bei 130nm ohne Low-K.
R420 wurde bei TSMC gefertigt, 8" Wafer bei 130nm mit Low-K*
*daher "aggressiver", da ATi das Design so auslegte, um hohe Takte fahren zu können, um die Stärken von R420 ausspielen zu können, während NV das Design konservativer auslegte.
R520 wurde bei TSMC gefertigt, 12" Wafer bei 90nm (Low-K ist hier Pflichtprogramm)
G70 wurde bei TSMC gefertigt, 8" Wafer bei 110nm ohne Low-K*
*wiederum konservativer, eine Erklärung sollte hier nicht nötig sein.
Ab deinem R300/NV30 verwässert sich die Sache etwas, da NV nach dem NV30-Fiasko eine völlig andere Strategie eingeschlagen hat, da sie damals schmerzlich lernen mussten. R200 ist für mich (und alles, was davor war) nichtmehr relevant.
Außerhalb des High-Ends ist es ähnlich.
Seit dem NV3x-Flop aenderte sich das Motto zu "minimize risks, maximize margins" und bisher hat die Strategie auch sehr gute Resultate gezeigt.
U.a. setzen auch nicht mehr so stark auf extravagante Taktraten bei jeglicher neuen Produktlinie. Laesst man die benutzten Herstellungsprozesse erstmal weg, dauerte es quasi zwei Refreshes bis man von 400-425MHz/NV40 auf 650MHz/G71 kam, wobei die FX5800 mit satten 500MHz damals antanzte.
Schaulustiger
2006-08-26, 12:46:28
R520 und R580 basieren auf der gleichen Architektur und gehoeren zur gleichen Generation, eben die letztere mit 3x mal so vielen ALUs.
Es war eine einfache und billige Loesung der R5x0 die ALU Staerke zu geben, die dem R520 fehlte und nein voll ausnutzen wird diese Staerke der R580 fuer seine Lebenszeit wohl nicht koennen, da andere Flaschenhaelse das Ding davon abhalten werden.
Ich hätte mal gerne die Flaschenhälse gewust, ich weis nur das die Rohleistung limiitieren könnte, oder ?
Sunrise
2006-08-26, 13:28:29
Seit dem NV3x-Flop aenderte sich das Motto zu "minimize risks, maximize margins" und bisher hat die Strategie auch sehr gute Resultate gezeigt.
ATi täte es meiner Meinung nach ganz gut, diese Strategie bestmöglichst zu kopieren, denn seitdem NV diesen Weg eingeschlagen hat, haben diese praktisch alle Wege offenstehen, da ihr Produktmix sowohl im Workstation-, dem High-End- und Mainstream-Sektor wirklich erstklassig funktioniert und sich Produkte mit geringeren Margen völlig risikolos im Markt platzieren lassen (und man so auch Druck auf die Konkurrenz ausüben kann), da diejenigen Produkte mit extrem hohen Margen (>40% und sehr hohen Volumina) diese problemlos abfangen können.
Dies sollte sich gerade bei den kommenden "Monstern" auszahlen, durch die enorm gesteigerte Komplexität und den Kosten, die man auch irgendwie abfangen muss. Bei ATi wäre es sicherlich angebracht, gerade beim Thema "D3D10", welches auch immer sofort mit "Unified Shader" (eben da der Volksmund diese Begriffe nicht trennen kann) verbunden wird, Vollgas zu geben, um sich von der Konkurrenz - nicht nur durch diese HW-Vorteile - absetzen zu können.
ATi scheint mit R600 vor allem im Workstation-Markt große Pläne zu haben, auch hat man die Anstrengungen hinsichtlich OpenGL in letzter Zeit deutlich verstärkt. AIBs haben seit etwa 2 Monaten bereits HW in der Hand.
Zusammen mit AMD wäre es jetzt jedenfalls angebracht, hier etwas (aggressivere) Töne anzuschlagen. Jetzt oder garnicht.
Wenn ATI das damals nicht gewußt hätte, würde R600 wohl nicht mehr 2006/07 kommen ;)
Es geht hier immerhin um einen Zeitabstand von eineinhalb Jahren. ATI muss von vornherein Skalierbarkeit vorsehen, da sie ja eine ganze Chipfamilie entwickeln müssen, und auch nicht die Fortschritte in der Fertigungstechnik exakt voraussagen können. Ich kann mir durchaus vorstellen dass man da zunächst mehr Chipvarianten betrachtet (sowohl nach oben als auch nach unten) als am Ende hergestellt werden.
Wenn R600 64 Vec5 MAD ALUs hat, wie heißt dann der High-End-Chip?
Wenn der Takt hoch genug ist könnte das doch auch so reichen
Ailuros
2006-08-27, 11:05:57
Ich hätte mal gerne die Flaschenhälse gewust, ich weis nur das die Rohleistung limiitieren könnte, oder ?
Welches heutige Spiel nutzt das 3:1 ALU/TEX Verhaeltnis voll aus? GeForces sind in dem Bereich ganz anders aufgebaut und die R5x0 Serie kam nicht nur spaeter an, aber Entwickler werden stets so oder so auch die Schwaechen und Staerken beider Seiten bei der Spielentwicklung in Betracht nehmen.
Wie dem auch sei ich bezweifle dass intern auf R580 alles ausreichend aufgebaut ist, dass der chip tatsaechlich problemlos ca. 380GFLOPs von sich geben kann. In einem rein theoretischen Fall dann schon, aber den hast Du schon selber angedeutet. Die extra ALUs auf R580 waren der einzige billige und schnelle Weg um mit G71 konkurrieren zu koennen ohne eine nenneswerte Erhoehung der Taktrate.
Eine brennende Frage fuer G80 waere ob hier die TEX von den ALU OPs entkoppelt sind; allein solch eine "Kleinigkeit" aendert das Bild von "XYZ GFLOPs minus X% fuer TEX OPs" zu "XYZ GFLOPs". Deshalb sind auch sowohl fuer R6x0 als auch fuer G80 jegliche Schlussvolgerungen die auf R5x0/G7x basieren ohne die jegliche Aenderungen von Generation zu Generation mitzuberechnen total sinnlos.
Ailuros
2006-08-27, 11:24:37
Sunrise,
Das Thema hatten wir schonmal besprochen, ebenso was ATI bis jetzt im mainstream Bereich des Markts vorstellt.
Mich interessiert momentan nicht nur wie R6x0 wirklich aussieht, sondern wie gut man die Architektur nach unten skalieren kann.
Es ist zwar wieder verdammt OT, aber IMHO haette man sogar G73 noch sparsamer herstellen koennen (trotz dessen Erfolg). Vielleicht klingt es nach einer Schnappsidee von mir, aber ich frage mich ob IHVs heutzutage sich primaer zuerst auf die Leistung bzw. Margen im mainstream konzentrieren sollten und eine Architektur so genial auslegen dass sie genauso gut von da aus nach oben zum high end und auch genauso gut nach unten bis zu PDA/mobile chips skalieren koennte.
Irgendwie hab ich das bloede Gefuehl dass beide sich mehr generell auf high end fixieren und dann das bestmoegliche auf dieser Basis dann fuer andere Maerkte entwickeln.
Ich stelle auch manchmal "bloede" Fragen:
http://www.pvrgenerations.co.uk/cgi-bin/viewarticle.cgi?page=/articles/2005/pvrsgx/pvrsgx&printer=0&pagenum=2
(Frage Nr. 15)
Der Haken ist hier eben dass der Abstand von ultra low end zu ultra high end eben doch vielleicht zu gross ist. Deshalb frage ich mich auch ob eine gut ausgedachte "Mitte" eine bessere Loesung waere.
Ailuros
2006-08-27, 11:27:57
Wenn der Takt hoch genug ist könnte das doch auch so reichen
Was sich aber dann wieder im Kreis dieser Debatte dreht und nicht besonders gute Margen bedeuten koennte.
Sunrise
2006-08-27, 12:59:52
Es ist zwar wieder verdammt OT, aber IMHO haette man sogar G73 noch sparsamer herstellen koennen (trotz dessen Erfolg). Vielleicht klingt es nach einer Schnappsidee von mir, aber ich frage mich ob IHVs heutzutage sich primaer zuerst auf die Leistung bzw. Margen im mainstream konzentrieren sollten und eine Architektur so genial auslegen dass sie genauso gut von da aus nach oben zum high end und auch genauso gut nach unten bis zu PDA/mobile chips skalieren koennte.
Meinst du das jetzt generell in Bezug auf alle IHVs? (Ich frage, weil du das Beispiel PowerVR am Ende zusätzlich bringst.)
Allgemein, denke ich, hängt das wohl größtenteils von deiner eigenen Architektur ab, zusammen mit dem eigenen "margin model", welches du dafür nutzt, um davon auch möglichst optimal profitieren zu können. NV arbeitet da scheinbar schon von Anfang an in die Richtung des größten Ertrages bei ihren Mainstream- und Low-End-Designs (siehe die Auslegung bei G72/G73/G71), während ATi generell eher auf das High-End schielt und ihre Mainstream-Designs dann jedesmal direkt davon abgewandelt werden.
Das hat insofern einen entscheidenen Nachteil, als dass ATi dann zusätzlich auch noch Features integriert hatte, die "größtenteils" am Markt vorbeigedacht waren. Dies ist aber (voraussichtlich) auch auf R520/R580 begrenzt, R600 wird hier wahrscheinlich deutlich skalierbarer ausgelegt sein, die Gründe kennen wir (teilweise) auch jetzt schon.
Um nochmal am oberen Beispiel anzusetzen: NV bringt jene ASICs für Notebooks schon Monate vor ATi auf den Markt, während ATi jedesmal versucht, von ihrem stromfressenden High-End-Design einen Mittelweg zu finden, der aber eher suboptimal ist. Erst RV560/RV570 versprechen hier "Erleichterung", werden aber in einem völlig anderen Rhythmus (im Gegensatz zu NVs Designs) veröffentlicht und kommen daher auch relativ etwas zu spät.
Die einzige Sache, die sich hier zum Vorteil für ATi auswirken könnte, ist die Tatsache, dass NV wohl doch noch etwas länger auf <G73 sitzen bleiben wird, wo ATi dann (trotz NVs Shrink auf 80nm) mit RV560/RV570 noch sehr gut mithalten wird können.
Insofern ist es sicherlich richtig, dass man am besten in der Mitte anfangen sollte, um dann sowohl nach unten, als auch nach oben zu skalieren. Nur denkt da vor allem ATi wohl leider intern anders, da sie natürlich gerne im Desktop-High-End führend seien wollen, aber dabei doch vergessen, dass vor allem der PDA/Mobilmarkt rasant wächst und man hier ebenso Punkten könnte.
Ailuros
2006-08-28, 06:54:20
Ich hab nur PVR erwaehnt, weil sie mal ganz grob gesehen von "unten nach oben" heutzutage entwickeln, was aber heisst dass diese Architektur dann auch irgendwo in der Mitte nicht mehr skaliert und man zusaetzlich noch dazu entwickeln muesste fuer high end.
Es stimmt zwar dass NVIDIA eine andere Masche hat fuer mainstream, aber ich bin trotzdem der Meinung dass man G73 "kleiner" gestalten haette koennen. Das "Umschaufeln" der Einheiten um Transistoren zu sparen fuer G71 (im Vergleich zu G70) fand afaik nicht ihren Weg in G73 und das Transistoren-budget von 177M im Vergleich zu 278M/G71 ist nicht gerade klein.
Die einzige Sache, die sich hier zum Vorteil für ATi auswirken könnte, ist die Tatsache, dass NV wohl doch noch etwas länger auf <G73 sitzen bleiben wird, wo ATi dann (trotz NVs Shrink auf 80nm) mit RV560/RV570 noch sehr gut mithalten wird können.
Dabei frage ich mich ob es "nur" ein shrink auf 80nm sein wird. Mit hoechster Wahrscheinlichkeit wohl schon, aber mit der anderen These koennten sie auch so manchen zusaetzlichen Preisdruck ausueben.
Insofern ist es sicherlich richtig, dass man am besten in der Mitte anfangen sollte, um dann sowohl nach unten, als auch nach oben zu skalieren. Nur denkt da vor allem ATi wohl leider intern anders, da sie natürlich gerne im Desktop-High-End führend seien wollen, aber dabei doch vergessen, dass vor allem der PDA/Mobilmarkt rasant wächst und man hier ebenso Punkten könnte.
Nun ja fuer den PDA/mobile Markt steht NVIDIA auch nicht besonders besser da. Die letzte GoForce5500 verbrutzelt mit ihren 200MHz verdammt viel Strom und ist so Fuellraten-limitiert dass das Ding ziemlich schnell nutzlos werden kann.
Beide Grossen haben bis jetzt noch nichts fuer die OGL-ES2.0 Generation vorgestellt, wobei ich eigentlich eine aggressivere Strategie ueberhaupt von ATI erwartet haette. Dabei stellt man angeblich G40 cores zur Schau auf G12 PCBs, wobei das Material auf einem versteckten PC ablaeuft *kopfschuettel*....
Kann man eigentlich mit WGF 2.0 Notebookgrafik dieses Jahr rechnen, also Unified Shader? (DX10)
Irgendwie geht die Entwicklung der mobilen Grafik zu langsam voran. Zu langsam und zu viel Verlustleistung.
AnarchX
2006-08-28, 09:47:17
Kann man eigentlich mit WGF 2.0 Notebookgrafik dieses Jahr rechnen, also Unified Shader? (DX10)
Von ATI/NV eher nicht, aber Intels GMA X3000 sollte dem entsprechen...
Gaestle
2006-08-28, 13:17:54
Wieso nicht?
Wegen der Transistorenmenge. Wurde aber schon woanders geklärt und ist für mich jetzt eindeutig.
Sunrise
2006-08-28, 15:13:44
Es stimmt zwar dass NVIDIA eine andere Masche hat fuer mainstream, aber ich bin trotzdem der Meinung dass man G73 "kleiner" gestalten haette koennen. Das "Umschaufeln" der Einheiten um Transistoren zu sparen fuer G71 (im Vergleich zu G70) fand afaik nicht ihren Weg in G73 und das Transistoren-budget von 177M im Vergleich zu 278M/G71 ist nicht gerade klein.
Ach das, ja, soweit auch mein Kenntnisstand (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4050050&postcount=812) ("G73 ist allerdings eine andere Geschichte").
Ist natürlich durchaus möglich und wäre auch logisch, wenn dies nun mit den kommenden ASICs auf 80nm nachgeholt werden wird. Man sollte das relativ schnell an der Die-Größe feststellen können. Einerseits hatte man diese Reduktion natürlich auch wieder nur durchführen können, da man G71/RSX ja praktisch nochmal komplett überarbeiten musste, und diese Vorteile dann auch in den PC-Ableger mit einflossen, was bei G73 nicht der Fall war. Andererseits hatte man inzwischen mehr als ausreichend Zeit um diese Veränderungen mit zu übernehmen.
Das wäre in Verbindung mit 80nm in der Tat erneut ein nicht zu unterschätzender Gewinn, der wohl problemlos >15% an Die-Fläche ausmachen könnte und Preiskämpfe wären damit auch fast schon ausgemachte Sache.
Nun ja fuer den PDA/mobile Markt steht NVIDIA auch nicht besonders besser da. Die letzte GoForce5500 verbrutzelt mit ihren 200MHz verdammt viel Strom und ist so Fuellraten-limitiert dass das Ding ziemlich schnell nutzlos werden kann.
Ich meinte das eher mit Betonung auf den (PC-)Mobilmarkt, also in Sachen Notebooks. Denn bei PDAs hat man Grenzen in jeder Richtung, und das erfordert dann praktisch immer auch wiederum eigene Entwicklungen, die auf anderen Archtekturen fußen. Hier denke ich, sind der Skalierbarkeit von PC-Architekturen dann natürlich klare Grenzen gesetzt, bis schließlich zu dem Punkt, an dem sie überhaupt keinen Sinn mehr geben, wie du ja bereits ausführst. Stromverbrauch/Endleistung und Größe des ASICs selbst sind hier besonders kritisch.
Von ATI/NV eher nicht, aber Intels GMA X3000 sollte dem entsprechen...
Thx. Wird der aber nicht dann auch mit dem P965 Chipsatz fuer Notebooks eingefuehrt?
Weil nachestes Jahr kommt ja das Naparefresh, Santa Clara.
Dunkeltier
2006-09-01, 23:45:10
Bei der R 8500-Serie. Die Leistung stimmte (mit vielen Bugs gepaart), die Features wie (venunftiges) AA und trilineares AF suchte man vergebens.
Die Radeon 8500 war der Konkurrent der Geforce 3, und bot fantastische Shader-Features & Speed zu einen sehr günstigen Preis. Knackpunkte waren aber leider das Performancefressende SSAA und das bi-aF. Allerdings war das bi-aF fast immer und überall mit nur sehr geringen Performance-Verlusten einsetzbar, ich nutzte seinerzeit in den Spielen überall 8x bi-aF und 1x bis 2x SSAA.
Zwar kam diese etwas spät und mußte schon kurze Zeit später gegen eine Geforce 4 Ti anstinken, allerdings traff nVidia der Schlag mit der Radeon 9700 dafür umso härter. :uroll: Die Geforce FX ist dann ja leider das totale Disaster geworden, ich hatte damals just for fun meine 256 MB Radeon 9800 Pro gegen eine 256 MB Leadtek WinFast A350 TDH Ultra hergegeben. :rolleyes:
es gibt mir viel zu wenig gerüchte um den r600.
wann kommt mal wieder nen richtig großer sprung,und wenns nur die performance angeht ?
seit der 9700pro kleckern die hersteller nur vor sich hin d.h man macht nur das nötigste
Ailuros
2006-09-03, 03:13:11
es gibt mir viel zu wenig gerüchte um den r600.
wann kommt mal wieder nen richtig großer sprung,und wenns nur die performance angeht ?
seit der 9700pro kleckern die hersteller nur vor sich hin d.h man macht nur das nötigste
War die Leistungssteigerung zwischen R3xx und R4x0 so "klein" am Ende?
Klar war NVIDIA's Leistungssprung von NV3x zu NV4x vergleichsmaessig um einiges groesser, aber dass auch nur weil der NV3x auch ein quasi Missgeschick war.
robbitop
2006-09-03, 09:31:05
War die Leistungssteigerung zwischen R3xx und R4x0 so "klein" am Ende?
Der war groß. Fast wie der Sprung R200 -> R300.
Jedoch war das IMO nur möglich, da ATI R300 fast unverändert dank Shrink hochskalliert hat.
IMO wird R600 in Spielen keinen Faktor 2 Vorteil ggü R580 rausarbeiten können (ich lasse mich von der Realität dann aber sehr gern eines Besseren belehren).
Ailuros
2006-09-03, 18:51:20
Der war groß. Fast wie der Sprung R200 -> R300.
Jedoch war das IMO nur möglich, da ATI R300 fast unverändert dank Shrink hochskalliert hat.
IMO wird R600 in Spielen keinen Faktor 2 Vorteil ggü R580 rausarbeiten können (ich lasse mich von der Realität dann aber sehr gern eines Besseren belehren).
Es kann durchaus sein dass sich bei manchen der Unterschied zwischen R2xx und R3xx als "groesser" festgenagelt hat, dank dem Umschwung von Super- auf Multisampling.
Wie dem auch sei, ich werde das Gefuehl nicht los dass R580 seine 380+GFLOPs nie voll in Echtzeit ausnutzen kann. Man sollte nicht vergessen dass ATI mehr oder weniger nur 2 extra ALUs pro SIMD Kanal dazulegte, weil es eben moeglich und billig war. Ich kann mir schwer vorstellen dass der Unterschied in heutiger Leistung spuerbar waere falls R580 nur 32 anstatt 48 ALUs haette.
Natuerlich gibt es fundamentale Unterschiede zwischen R580 und G71; aber ebenso wie ich erwarte dass es wichtige Unterschiede zwischen G71 und G80 geben wird, erwarte ich noch mehr Unterschiede zwischen R580 und R6x0, primaer aus dem Grund dass es sich um einen USC handelt. Faellt der Unterschied zu klein im Vergleich zu R580 aus, steckt dann ATI in tiefer Pampe im Vergleich zu G80....
mapel110
2006-09-03, 18:58:45
Hm, von G80 erwarten also viele einen "Standard-Chip" ohne USC. Der muss schnell sein, weil altbacken... bisschen dünn, das Argument.
Heutige Chips kranken doch mehr an der vorhanden Bandbreite, denn an Rohpower und da kanns auch in naher Zukunft doch keine großen Unterschiede geben.
Also weit abgeschlagen würde ich keinen von beiden erwarten bei den nächsten Launches.
deekey777
2006-09-03, 19:01:26
Verständnisfrage: In der neuen c't 19/06 auf der Seite 42 steht, dass deren US (des R600) "innerhalb eines Taktzyklus als Vertex- oder Pixel-Shader konfigurieren lassen. Seine Rechenpower kann der ATI-Chip so je nach Bedarf vollständig zur Geometrie oder Pixel-Berechnung einsetzen."
Was heißt das jetzt genau: Werden die US pro Takt zu PS oder VS oder GS oder der eine Teil zu VS, der andere zu PS?
Ailuros
2006-09-03, 19:10:43
Hm, von G80 erwarten also viele einen "Standard-Chip" ohne USC. Der muss schnell sein, weil altbacken... bisschen dünn, das Argument.
Heutige Chips kranken doch mehr an der vorhanden Bandbreite, denn an Rohpower und da kanns auch in naher Zukunft doch keine großen Unterschiede geben.
Also weit abgeschlagen würde ich keinen von beiden erwarten bei den nächsten Launches.
GPUs koennen nie genug Bandbreite haben; Bandbreite wird hoechstwahrscheinlich parallel mit der arithmetischen Leistung steigen, als erstes kommt erstmal GDDR4. Bei "nur" 1GHz GDDR4 sind es schon runde 64GB/s mit einem 256bit bus.
Ausser ich liege total daneben, wuerde ich keiner der beiden naechster Generation chips mit weniger 450-500GFLOPs theoretisch einschaetzen. Und bevor jemand Flaschenhaelse erwaehnt, diese gibt es ebenso auf G71 bzw. R580 und da sind die jeweiligen 250 oder 380 GFLOPs auch nur theoretische Papiertieger.
Hvoralek
2006-09-03, 19:10:45
Heutige Chips kranken doch mehr an der vorhanden Bandbreite, denn an Rohpower [...]So extrem scheint das inzwischen nicht mehr zu sein. Der Vorsprung einer X1950 vor einer X1900 ist nicht so gewaltig, verglichen mit der knapp 1/3 höheren Bandbreite. Was wie stark begrenzt, hängt aber natürlich immer vom Einzelfall ab, zB in Oblivion (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1950_xtx_x1950_crossfire/15/#abschnitt_oblivion) spielt die Bandbreite offensichtlich fast gar keine Rolle, ganz anders bei FEAR (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1950_xtx_x1950_crossfire/13/#abschnitt_fear).
Ende des Jahres kann man zudem wohl mit "richtigem" GDDR4 rechnen, mit Taktraten, die Richtung 1600 MHz gehen.
Ailuros
2006-09-03, 19:12:05
Ende des Jahres kann man zudem wohl mit "richtigem" GDDR4 rechnen, mit Taktraten, die Richtung 1600 MHz gehen.
Mit etwas Glueck 1200-1250MHz. 1600MHz ist verdammt optimistisch eingeschaetzt fuer 2006; eher H2 2007.
Spasstiger
2006-09-03, 19:14:51
Verständnisfrage: In der neuen c't 19/06 auf der Seite 42 steht, dass deren US (des R600) "innerhalb eines Taktzyklus als Vertex- oder Pixel-Shader konfigurieren lassen. Seine Rechenpower kann der ATI-Chip so je nach Bedarf vollständig zur Geometrie oder Pixel-Berechnung einsetzen."
Was heißt das jetzt genau: Werden die US pro Takt zu PS oder VS oder GS oder der eine Teil zu VS, der andere zu PS?
Jede der 64 Shadereinheiten kann nach jedem Taktzyklus einzeln umkonfiguriert werden.
D.h. du hast mal 60 Einheiten als Pixelshadereinheiten im Einsatz und beim nächsten Takt vielleicht nur noch 45 Einheiten.
Hvoralek
2006-09-03, 19:16:30
Mit etwas Glueck 1200-1250MHz. 1600MHz ist verdammt optimistisch eingeschaetzt fuer 2006; eher H2 2007.Selbst "nur" 1200 MHz wäre ggü. einer X1900XT schon eine Steigerung um fast 2/3.
deekey777
2006-09-03, 19:28:44
Jede der 64 Shadereinheiten kann nach jedem Taktzyklus einzeln umkonfiguriert werden.
D.h. du hast mal 60 Einheiten als Pixelshadereinheiten im Einsatz und beim nächsten Takt vielleicht nur noch 45 Einheiten.
So habe ich das auch verstanden, doch der c't-Redakteur musste ja unbedingt in Mehrzahl schreiben.
Spasstiger
2006-09-03, 19:41:53
So habe ich das auch verstanden, doch der c't-Redakteur musste ja unbedingt in Mehrzahl schreiben.
In der PC Games Hardware wurde die Unified-Shader-Architektur von ATI recht eindeutig erklärt (mit obligatorischen Schaubildern natürlich).
Afaik schreibt ja auch Demirug den einen oder anderen Artikel für die PCGH.
reunion
2006-09-03, 19:47:50
Jede der 64 Shadereinheiten kann nach jedem Taktzyklus einzeln umkonfiguriert werden.
D.h. du hast mal 60 Einheiten als Pixelshadereinheiten im Einsatz und beim nächsten Takt vielleicht nur noch 45 Einheiten.
Alles andere wäre ja auch Blödsinn. Man stelle sich nur vor die ALUs würden mehrere Takte benötigen und sich "umzukonfigurieren". Dadurch würde ja die Hälfte der Einheiten Däumchen drehen.
Hvoralek
2006-09-03, 19:58:00
Jede der 64 Shadereinheiten kann nach jedem Taktzyklus einzeln umkonfiguriert werden.
D.h. du hast mal 60 Einheiten als Pixelshadereinheiten im Einsatz und beim nächsten Takt vielleicht nur noch 45 Einheiten.War es beim C1 nicht so, dass die Einheiten eines 16er- Blocks jeweils dieselbe Fkt. erfüllen mussten? Ich meine, mal so etwas gehört zu haben.
Ailuros
2006-09-04, 06:14:16
Selbst "nur" 1200 MHz wäre ggü. einer X1900XT schon eine Steigerung um fast 2/3.
Die X1950XTX hat 1GHz GDDR4.
Und das ist das untere Ende von Samsungs GDDR4-Palette.
Die gelbe Eule
2006-09-04, 07:53:33
1.2GHz ist im Moment das obere Ende der Massenproduktion.
seahawk
2006-09-04, 08:32:44
Jede der 64 Shadereinheiten kann nach jedem Taktzyklus einzeln umkonfiguriert werden.
D.h. du hast mal 60 Einheiten als Pixelshadereinheiten im Einsatz und beim nächsten Takt vielleicht nur noch 45 Einheiten.
So wie ich es versteheh brauchen sie einen Takt zum Wechsel.
also PS - Wechsel - VS
Und ich bezweifele, dass sie von 64-0 auf 0-64 wechseln können.
Was ich viel interessanter finden würde, wäre die Info, in welcher Granularität ein Wechsel möglich ist. Xenos/C1 kann ja nur jeweils 16er-Blocks umschalten.
Wieviel Transistoren war Ati hier bereit, in eine verbesserte Steuerlogik zu investieren und wieviel Transistoren kostete die Behebung der Temp-Register-Knappheit, die im Ggs. zum viel propagierten NV-Problem bei Ati nun ebenfalls zutage tritt?
Q
reunion
2006-09-04, 09:39:45
Was ich viel interessanter finden würde, wäre die Info, in welcher Granularität ein Wechsel möglich ist. Xenos/C1 kann ja nur jeweils 16er-Blocks umschalten.
Wie sicher ist diese Info? Das würde ja die Vorteile eines USC arg einschränken.
[...]und wieviel Transistoren kostete die Behebung der Temp-Register-Knappheit, die im Ggs. zum viel propagierten NV-Problem bei Ati nun ebenfalls zutage tritt?
Q
Woher hast du das?
reunion
2006-09-04, 09:45:09
So wie ich es versteheh brauchen sie einen Takt zum Wechsel.
also PS - Wechsel - VS
Und ich bezweifele, dass sie von 64-0 auf 0-64 wechseln können.
Das kann ich mir kaum vorstellen. Da sich zB die Vertex- oder jetzt auch die Geometrie-Last von einem Frame zum anderen stark unterscheiden kann, würde das bedeuten, dass je nach Szenario sehr viele Einheiten ständig Däumchen drehen. Es könnte zu Frameeinbrüchen kommen, wenn gerade nicht ausreichend viele Einheiten für die geforderte Aufgabe eingeteilt sind, etc.
seahawk
2006-09-04, 09:50:53
Das kann ich mir kaum vorstellen. Da sich zB die Vertex- oder jetzt auch die Geometrie-Last von einem Frame zum anderen stark unterscheiden kann, würde das bedeuten, dass je nach Szenario sehr viele Einheiten ständig Däumchen drehen. Es könnte zu Frameeinbrüchen kommen, wenn gerade nicht ausreichend viele Einheiten für die geforderte Aufgabe eingeteilt sind, etc.
Bedenke aber wie große der. Tempspeicher sein müßte, wenn man eine Vorgang hat der PS und VS Berechnung braucht und von 64-0 auf 0-64 umschalten würde. Ich erwarte eine gewissen Granualrität und eine maximale Menge an Funktionswechseln per Takt. Ich denke R600 wird mit einer Art Standardaufteilung arbeiten, die man nach Bedarf anpassen kann. Die Granularität ist da imho die Frage. Will sagen man wird 64-0 oder 0-64 fahren können. Aber evtl. dürfte der Wechsel eher 64-0 32-32 0-64 sein. Von einer Granularität von 16 oder 4 ausgehend. (ich erwarte eher 16). (Standard könnte z.B. 48-16 sein, der bei Nutzung von GS auf 32-32 wechselt)
ShadowXX
2006-09-04, 11:25:43
Bedenke aber wie große der. Tempspeicher sein müßte, wenn man eine Vorgang hat der PS und VS Berechnung braucht und von 64-0 auf 0-64 umschalten würde. Ich erwarte eine gewissen Granualrität und eine maximale Menge an Funktionswechseln per Takt. Ich denke R600 wird mit einer Art Standardaufteilung arbeiten, die man nach Bedarf anpassen kann. Die Granularität ist da imho die Frage. Will sagen man wird 64-0 oder 0-64 fahren können. Aber evtl. dürfte der Wechsel eher 64-0 32-32 0-64 sein. Von einer Granularität von 16 oder 4 ausgehend. (ich erwarte eher 16). (Standard könnte z.B. 48-16 sein, der bei Nutzung von GS auf 32-32 wechselt)
Wenn die Granularität wirklich 16 betragen sollte, hätten Sie sich das USC-Design IMHO auch gleich sparen können.
Mich würde es auch nicht wirklich wundern, wenn beim C1 2 Blöcke zu 99% als PS und 1ner als VS agiert und nur in super Sonderfällen das ganze mal anders Konfiguriert wird.
Die Granularität muss 8, besser 4 sein......speziell wenn es wirklich nur 64 Shadereinheiten sein sollten (die mir persönlich immer noch zu wenig vorkommen, ausser wenn diese Shadereinheiten mindestens Dual-Issue-Fähig sind).
deekey777
2006-09-04, 14:06:51
Ist das Ganze interessant. :) :up:
Wenn der R600 ein (ähnlich redunantes) Design wie der R580 hat und das Verhältnis 1:3 behält, wäre eine Granularität von 12 denkbar (auch wenn sie weiterhin zu "grob" ist).
Spekulation: Mindestens 24 TMUs, was 72 Unified Shader Units ergibt. Eher werden es 32 TMUs sein, was schon 96 USU ergibt mit so einer Unterteilung 4 Texturen-Einheiten <-> Steuerlogik <-> 12 US-ALUs. Ergibt das einen Sinn?
€: Was dagegen spricht, ist das heutige Verhältnis TEX:ROP von 1:1.
seahawk
2006-09-04, 14:23:06
Das hängt jetzt auch wieder von der Umsetzung der GS ab. Man muss bedenken, dass jede Einheit maximal 3 Shadertypen erfüllen muss.
ShadowXX
2006-09-04, 14:48:20
€: Was dagegen spricht, ist das heutige Verhältnis TEX:ROP von 1:1.
Die ROPs zu entkoppeln sollte nicht so das Problem sein, speziell da es sowieso eine neue Architektur ist.
nV hat ja auch kein 1:1 bei TEX:ROP.
Wobei ich mir bei den neuen Chips durchaus mehr als 16 ROPs vorstellen kann. Die Frage ist nur, ob es benötigt wird......
crux2005
2006-09-04, 19:55:43
Hi =)
Wie findet der R600 heraus dass er die z.B PS zu VS umschalten soll ?
und wird dass pro Takt geschehen ? oder in Zeit Zyklen ?
Danke :)
micki@work
2006-09-04, 20:04:37
ich frage mich wozu die shadereinheiten umgestellt werden sollten, was sollte eine pixelshader ALUanders machen als eine vertexshader ALU, wenn es ein unified shader model ist?
ATI hat doch schon jetzt ihr "threads" die die einzelnen teile der shader ansprechen, so koennte es doch weiter laufen, weil es den ALUs ja egal sein sollte, woher die daten kommen und wohin sie fliessen und darum kuemmert sich wiederrum ne andere "logic"
naja, ist ja nicht wirklich viel logic, sondern einfach address mapping, das jetzt schon stattfindet.
sorry falls dem was wiederspricht was auf den letzten tausend posts schon gesagt wurde, bin zu faul alles durchzulesen...
[](-__-)[]
2006-09-04, 20:08:17
Kann es nicht sein, das die R600 eine bessere Leistung als die NV60 erzielen wird, wenn es um portierte Spiele von der X-Box geht?
Hvoralek
2006-09-04, 20:11:39
(-__-)[]']Kann es nicht sein, das die R600 eine bessere Leistung als die NV60 erzielen wird, wenn es um portierte Spiele von der X-Box geht?Für 360- Portierungen sollten sowohl R600 als auch G80 mehr als genug Leistung bieten :wink:
deekey777
2006-09-04, 21:45:26
Hi =)
Wie findet der R600 heraus dass er die z.B PS zu VS umschalten soll ?
und wird dass pro Takt geschehen ? oder in Zeit Zyklen ?
Danke :)
Das passiert automatisch: Der Logik-Chip erkennt den Code und schaltet die ALUs um.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4518386#post4518386
ich frage mich wozu die shadereinheiten umgestellt werden sollten, was sollte eine pixelshader ALUanders machen als eine vertexshader ALU, wenn es ein unified shader model ist?
ATI hat doch schon jetzt ihr "threads" die die einzelnen teile der shader ansprechen, so koennte es doch weiter laufen, weil es den ALUs ja egal sein sollte, woher die daten kommen und wohin sie fliessen und darum kuemmert sich wiederrum ne andere "logic"
naja, ist ja nicht wirklich viel logic, sondern einfach address mapping, das jetzt schon stattfindet.
sorry falls dem was widerspricht was auf den letzten tausend posts schon gesagt wurde, bin zu faul alles durchzulesen...
Der Dispatch-Prozessor verwaltet einzelne Quad-Pipes, ein Thread ist 4x12 bzw. 4x4 groß, es werden also ganze Quad-Pipes angesprochen.
http://img410.imageshack.us/img410/7470/r520s2ps6.jpg (http://imageshack.us)
By Demirug.
Es kann gut sein, dass deine Ansicht allem dem widerspricht und auch richtig ist. Andere haben auch gute Argumente.
Eine Granularität ist so oder so zu erwarten, es werden doch auf unter D3D10 immer ganze Quads berechnet, oder?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4526642#post4526642
Coda[/POST]']Füllrate? Nein, das Problem ist dass die Vertexeinheiten bisher eigentlich gar nicht ausgelastet werden, weil der Bottleneck (sinnvollerweiße) der Pixelshader und die Rasterization ist.
Da eine USA ja sehr fein granular arbeitet sollte man die Last Situation ähnlich fein betrachten.
Ailuros
2006-09-05, 00:03:57
Das hängt jetzt auch wieder von der Umsetzung der GS ab. Man muss bedenken, dass jede Einheit maximal 3 Shadertypen erfüllen muss.
Die ersten GS-"Realisierungen" sehen fuer beide Seiten fuer den Anfang eher nach Papiertiger aus. Definitiv ein Schritt in die richtige Richtung, aber mit den relevanten Ratschlaegen die sowohl ATI als auch NVIDIA momentan an Entwickler geben, sieht es nicht gerade nach dem wahren "Knaller" aus. Die Nachricht ist eher momentan "kindly handle with care..." in gewissem Sinn ;)
Ailuros
2006-09-05, 00:09:15
Ist das Ganze interessant. :) :up:
Wenn der R600 ein (ähnlich redunantes) Design wie der R580 hat und das Verhältnis 1:3 behält, wäre eine Granularität von 12 denkbar (auch wenn sie weiterhin zu "grob" ist).
Spekulation: Mindestens 24 TMUs, was 72 Unified Shader Units ergibt. Eher werden es 32 TMUs sein, was schon 96 USU ergibt mit so einer Unterteilung 4 Texturen-Einheiten <-> Steuerlogik <-> 12 US-ALUs. Ergibt das einen Sinn?
€: Was dagegen spricht, ist das heutige Verhältnis TEX:ROP von 1:1.
4:1 und ich hoere momentan nichts das mehr als 16 TMUs/ROPs vorschlaegt.
seahawk
2006-09-05, 10:23:06
Die ersten GS-"Realisierungen" sehen fuer beide Seiten fuer den Anfang eher nach Papiertiger aus. Definitiv ein Schritt in die richtige Richtung, aber mit den relevanten Ratschlaegen die sowohl ATI als auch NVIDIA momentan an Entwickler geben, sieht es nicht gerade nach dem wahren "Knaller" aus. Die Nachricht ist eher momentan "kindly handle with care..." in gewissem Sinn ;)
Ich frage mich halt nur, ob die Unifiedshader des R600 3 Zustände kenne werden, oder nur 2. Wobei ch von 2 ausgehe.
.
Wie sicher ist diese Info? Das würde ja die Vorteile eines USC arg einschränken.
Woher hast du das?
1. Aus den Blockdiagrammen des C1. Mit Umschalten meine ich allerdings die drei 16er-Shaderblöcke
2. Aus Benchmarks.
Ich frage mich halt nur, ob die Unifiedshader des R600 3 Zustände kenne werden, oder nur 2. Wobei ch von 2 ausgehe.Wieso Zustände? Die Shader verarbeiten Daten. Denen ist es doch Wurscht, was das für Daten sind, und woher sie kommen und wohin sie gehen. Die "Fütterung" und den "Abfluss" der Pipes muss man nur umleiten, aber die Pipe bzw. ALUs in keinen anderen Zustand versetzen.
seahawk
2006-09-05, 12:57:42
Wieso Zustände? Die Shader verarbeiten Daten. Denen ist es doch Wurscht, was das für Daten sind, und woher sie kommen und wohin sie gehen. Die "Fütterung" und den "Abfluss" der Pipes muss man nur umleiten, aber die Pipe bzw. ALUs in keinen anderen Zustand versetzen.
Ich sehe es als interessante Frage hinsichtlich der Granularität. Muss man die vorhandenen Einheiten in PS, VS und GS unterteilen braucht man eine höhere als wenn man sie in PS und VS+GS unterteilen muss.
paul.muad.dib
2006-09-13, 11:29:31
Gibt es inzwischen eingermaßen verlässliche Infos bezüglich ALUs, TMUs, Speicher, Herstellung und Release?
Könnte 24 TMUs, 64 ALUs, ~1000 Mhz GDDR4, 80 nm richtig sein? Schafft Ati es noch vor Weihnachten?
AnarchX
2006-09-13, 11:32:48
Gibt es inzwischen eingermaßen verlässliche Infos bezüglich ALUs, TMUs, Speicher, Herstellung und Release?
Könnte 24 TMUs, 64 ALUs, ~1000 Mhz GDDR4, 80 nm richtig sein?
1000MHz GDDR4 hat schon eine X1950XTX, also wird es mehr werden.
Ansonsten gibt es bis auf die 80nm Fertigung und USA, noch keine wirklichen sicheren Anhaltspunkte.
Schafft Ati es noch vor Weihnachten?
Sehr unwahrscheinlich, NV spricht auch von 8 Wochen Vorsprung des G80(November).
paul.muad.dib
2006-09-13, 14:26:00
Wieviel Speichertakt braucht ATI denn, um 16 oder 24 TMUs auszulasten, oder andersherum, wieviel können diese nutzen? Die Radeon X1950 XTX scheint ja schon nicht mehr speicherlimitiert zu sein.
Ailuros
2006-09-14, 15:50:41
Gibt es inzwischen eingermaßen verlässliche Infos bezüglich ALUs, TMUs, Speicher, Herstellung und Release?
Könnte 24 TMUs, 64 ALUs, ~1000 Mhz GDDR4, 80 nm richtig sein? Schafft Ati es noch vor Weihnachten?
Wie schon gesagt 80nm und GDDR4 duerften schon stimmen (und natuerlich auch offensichtlich USC). Was den Rest betrifft, was fuer TMUs genau und was fuer ALUs genau? Ich wiederhole zwar die Frage viel zu oft aber eine sterile Anzahl von X, Y Einheiten ohne zu wissen was jede kann, ist mir total nutzlos.
Wieviel Speichertakt braucht ATI denn, um 16 oder 24 TMUs auszulasten, oder andersherum, wieviel können diese nutzen? Die Radeon X1950 XTX scheint ja schon nicht mehr speicherlimitiert zu sein.
Selbst die 7950GTX verhungert nicht an Bandbreite bei multitexturing und 24 TMUs@650MHz.
Die X1950XTX hat schon satte 64GB/s Bandbreite; dass der Unterschied zu der X1900XTX nicht besonders gross ausfaellt zeigt wohl dass erstens die Bandbreite hoechstwahrscheinlich im Ueberfluss zur Fuellrate liegt und dass womoeglich der Flaschenhals fuer hoehere Leistung (in nicht besonders extravaganten Aufloesungen) doch wohl nicht an der Bandbreite liegt.
Da R6x0 ein USC sein wird, sehe ich trotz allem geringe bis gar keine Anstoesse zu Vergleichen mit R5x0.
Hvoralek
2006-09-14, 18:57:01
Selbst die 7950GTX verhungert nicht an Bandbreite bei multitexturing und 24 TMUs@650MHz.Meinst Du die 7900 GTX oder habe ich etwas verpasst? :confused:
Interessant in Sachen Bandbreitenlimitierung dürfte aber mMn die 7950 GTO sein, sofern die momentan gehandelten Eckdaten stimmen.
paul.muad.dib
2006-09-14, 19:05:11
Ich wiederhole zwar die Frage viel zu oft aber eine sterile Anzahl von X, Y Einheiten ohne zu wissen was jede kann, ist mir total nutzlos.
Ja, stimmt schon, wenn es große Effizienzunterschiede gibt, hat die bloße Zahl nur geringe Aussagekraft.Aber ich schätze mal, mehr als +- 20% an Effezienz wird eine ALU wohl nicht haben, da ATI hier ja doch schon sehr gut ist, und eine weitere Leistungssteigerung hier wohl transistorsparsamer duch mehr Einheiten als durch mehr Effizienz erreicht werden kann.
Evtl. schrauben sie ja von 1 MADD + 1 ADD zu 2 MADD.
Die X1950XTX hat schon satte 64GB/s Bandbreite; dass der Unterschied zu der X1900XTX nicht besonders gross ausfaellt zeigt wohl dass erstens die Bandbreite hoechstwahrscheinlich im Ueberfluss zur Fuellrate liegt und dass womoeglich der Flaschenhals fuer hoehere Leistung (in nicht besonders extravaganten Aufloesungen) doch wohl nicht an der Bandbreite liegt.
Eben, dann sollten doch mit noch mehr Speichertakt 24 TMUs drin sein, dann wäre auch das 1:3 TMU:ALU Verhältnis gewahrt.
Da R6x0 ein USC sein wird, sehe ich trotz allem geringe bis gar keine Anstoesse zu Vergleichen mit R5x0.
Können die US denn aus dem VRAM lesen und schreiben?
Merkor
2006-09-14, 20:54:49
Dann wohl doch erst nächstes Jahr:
http://uk.theinquirer.net/?article=34373
Dann wird ATI mit der X1950 bis nächstes Jahr überstehen. Ich denke, wir können uns da zum Weihnachtsgeschäft auf heftige Preiskämpfe gefasst machen...
paul.muad.dib
2006-09-14, 21:34:40
Falls NV den G80 bis dahin fertig hat, der soll sich ja angeblich auch verspäten...
Dann wohl doch erst nächstes Jahr:
http://uk.theinquirer.net/?article=34373
Dann wird ATI mit der X1950 bis nächstes Jahr überstehen. Ich denke, wir können uns da zum Weihnachtsgeschäft auf heftige Preiskämpfe gefasst machen...
Und auf eine X1950 XTXTX :biggrin: in 80nm. ATI wäre doch dumm, wenn sie nicht so eine rausbringen werden nach der ganzen Arbeit mit der X1950Pro.
Quasar
2006-09-14, 22:50:39
Und auf eine X1950 XTXTX :biggrin: in 80nm. ATI wäre doch dumm, wenn sie nicht so eine rausbringen werden nach der ganzen Arbeit mit der X1950Pro.
Der RV570XT hat drei Quads - wie hoch soll der deiner Meinung nach takten, damit er mit den vier Quads bei 650 MHz der X1900XTX mithält?
Der RV570XT hat drei Quads - wie hoch soll der deiner Meinung nach takten, damit er mit den vier Quads bei 650 MHz der X1900XTX mithält?
Ich dachte mehr an einen +580 Shrink auf 80 nm, bei, keine Ahnung, 800MHz?
Könnte mir gut vorstellen, daß ATI das noch bringt.
ShadowXX
2006-09-14, 23:08:47
Ich dachte mehr an einen +580 Shrink auf 80 nm, bei, keine Ahnung, 800MHz?
Könnte mir gut vorstellen, daß ATI das noch bringt.
Viel zu teuer (und nicht nur das) um das mal "eben" zu realisieren.
Das hätte dann schon länger geplant gewesen sein müssen, man schüttelt nicht mal eben ein shrink auf 80nm aus dem Ärmel, das dann auch noch auf 800MHz läuft.
Ailuros
2006-09-14, 23:10:40
Ja, stimmt schon, wenn es große Effizienzunterschiede gibt, hat die bloße Zahl nur geringe Aussagekraft.Aber ich schätze mal, mehr als +- 20% an Effezienz wird eine ALU wohl nicht haben, da ATI hier ja doch schon sehr gut ist, und eine weitere Leistungssteigerung hier wohl transistorsparsamer duch mehr Einheiten als durch mehr Effizienz erreicht werden kann.
Evtl. schrauben sie ja von 1 MADD + 1 ADD zu 2 MADD.
Kommt ganz drauf an wie genau man ALUs zaehlt; Du kannst auf G7x eventuell entweder 24 dual-issue oder 48 single-issue ALUs zaehlen. Und selbst dann ist das auch nicht das Ende der Moeglichkeiten.
Was ich meine ist dass es mir total nutzlos ist wenn ich wissen wuerde dass GPU X sagen wir mal 64 ALUs, wenn ich nicht weiss wieviel FLOPs jede von sich geben kann.
Eben, dann sollten doch mit noch mehr Speichertakt 24 TMUs drin sein, dann wäre auch das 1:3 TMU:ALU Verhältnis gewahrt.
Ich bin noch gar nicht ueberzeugt dass dieses 1:3 Verhaeltnis (nur weil es auf R5x0/Xenos vorhanden ist) auch unbedingt auf R6x0 zutreffen muss.
Können die US denn aus dem VRAM lesen und schreiben?
Wieso nicht (unter gegebenen Bedingungen) und wieso speziell nur USCs?
Meinst Du die 7900 GTX oder habe ich etwas verpasst? :confused:
Yep. Tippfehler.
Interessant in Sachen Bandbreitenlimitierung dürfte aber mMn die 7950 GTO sein, sofern die momentan gehandelten Eckdaten stimmen.
Bei dem Preis wird sich das Ding ausgezeichnet zwischen der 7900GT und 7900GTX plazieren koennen.
Falls NV den G80 bis dahin fertig hat, der soll sich ja angeblich auch verspäten...
Duerfte aber trotz allem frueher erscheinen. Beide IHVs haben ihre Launch-Daten etwas zu optimistisch eingeschaetzt, was aber stets normal ist ueberhaupt bei neuen Generationen.
deekey777
2006-09-14, 23:32:39
Mod-Mode:
Ailuros, so etwas wie drei Postings hintereinander, von denen 2 aus kurzen Antworten bestehen, sind nicht gewüscht. Du kannst diese nachträglich zu einem zusammenfassen. :)
User-Mode:
Beim G70/G71 würde ich persönlich von 48 ALUs sprechen, wobei ich den Begriff seit einiger Zeit nicht mag. Richtiger wäre es IMO von 6 Quads zu sprechen mit je 4 Texturen-Einheiten und 8 PS-Einheiten (die ALUs des G70/G71 können unterschiedliche Befehle ausführen, auch wenn sie am gleichen Pixel rechnen).
Viel zu teuer (und nicht nur das) um das mal "eben" zu realisieren.
Das hätte dann schon länger geplant gewesen sein müssen, man schüttelt nicht mal eben ein shrink auf 80nm aus dem Ärmel, das dann auch noch auf 800MHz läuft.
Kommt darauf an. Dann wäre eine 1950Pro ebenso viel zu teuer.
Ich kann kann mir nur einfach schwer vorstellen, daß ATI den 80nm Prozess nur der gehobenen und der Mittelklasse vorbehält.
Ich kann mich daran erinnern, daß viele auf einen 580+ in 80nm spekuliert haben. Als dann bekannt wurde, daß man bei 90nm bleiben würde, war der Aufschrei groß.
Ailuros
2006-09-15, 06:27:48
Mod-Mode:
Ailuros, so etwas wie drei Postings hintereinander, von denen 2 aus kurzen Antworten bestehen, sind nicht gewüscht. Du kannst diese nachträglich zu einem zusammenfassen. :)
Agreed.
User-Mode:
Beim G70/G71 würde ich persönlich von 48 ALUs sprechen, wobei ich den Begriff seit einiger Zeit nicht mag. Richtiger wäre es IMO von 6 Quads zu sprechen mit je 4 Texturen-Einheiten und 8 PS-Einheiten (die ALUs des G70/G71 können unterschiedliche Befehle ausführen, auch wenn sie am gleichen Pixel rechnen).
Wobei dann im Vergleich eine R580 aber auch 48 ALUs hat, 4 quads, 16 TMUs, 8 VS und 16 ROPs. Der Unterschied ist dann eben dass Du pro R580 ALU maximal 12 FLOPs theoretisch bekommen kannst (MADD+ADD) vs. nur 8 FLOPs auf der G7x ALU und dass die letztere die 24 von den 48 ALUs auch fuer texture OPs eventuell benutzen muss.
Von den theoretischen ~250GFLOPs einer 7900GTX muss man dann erstmal ein X Prozentual fuer texturing abrechnen. Am Ende bleibt es aber dabei dass eben durch die verschiedenen Design-Entscheidungen ALU!=ALU ist, was ich aber ebenso fuer D3D10 GPUs erwarte. Von der einen Seite wird es einen USC geben der so manchen Unterschied zu R5x0 haben wird und von der anderen Seite eine GPU wo ich erwarte dass die TEX von den ALU OPs entkoppelt sein werden. Im ersten Fall kann man wohl auch nicht mehr von quads reden, was ich aber im relativen Sinn genauso fuer G80 bezweifeln will.
Hvoralek
2006-09-15, 15:01:12
Ich bin noch gar nicht ueberzeugt dass dieses 1:3 Verhaeltnis (nur weil es auf R5x0/Xenos vorhanden ist) auch unbedingt auf R6x0 zutreffen muss.MMn ist das sogar eher unwahrscheinlich. Die US des R600 müssen ja auch als VS/ GS arbeiten. Bei einer Beibehaltung des 3:1- Verhältnisses würde deshab der Schwerpunkt wieder stärker in Richtung Texturleistung verschoben, da wäre ich schon erstaunt.
paul.muad.dib
2006-09-15, 15:16:32
MMn ist das sogar eher unwahrscheinlich. Die US des R600 müssen ja auch als VS/ GS arbeiten. Bei einer Beibehaltung des 3:1- Verhältnisses würde deshab der Schwerpunkt wieder stärker in Richtung Texturleistung verschoben, da wäre ich schon erstaunt.
Ich denke mal, dass 3:1 erst einmal reicht, die X1900 ist ja auch nicht ansatzweise 3x so schnell wie die X1800, nicht mal in theoretischen Benchmarks. Und wenn die ALUs mächtiger werden, ist das Verhältnis ja gewahrt.
Die Alternative 4:1 fände ich dann schon sehr extrem, da würden sicherlich einige ALUs Winterschlaf halten.
AnarchX
2006-09-15, 16:17:56
Die Alternative 4:1 fände ich dann schon sehr extrem, da würden sicherlich einige ALUs Winterschlaf halten.
DX10 wird diese Power benötigen...;)
Trotzdem sollten es mindestens 24 TMUs sein. Es wäre besser für die älteren Spiele. Außerdem bringts ein haufen Marks in den älteren Benchmarks.
Die Alternative 4:1 fände ich dann schon sehr extrem, da würden sicherlich einige ALUs Winterschlaf halten.
Das ist der Weg den wir jetzt gehen werden, das wird irgendwann auch mal 16:1 sein, da bin ich mir ziemlich sicher.
seahawk
2006-09-15, 18:46:21
Ich denke mal, dass 3:1 erst einmal reicht, die X1900 ist ja auch nicht ansatzweise 3x so schnell wie die X1800, nicht mal in theoretischen Benchmarks. Und wenn die ALUs mächtiger werden, ist das Verhältnis ja gewahrt.
Die Alternative 4:1 fände ich dann schon sehr extrem, da würden sicherlich einige ALUs Winterschlaf halten.
Je mehr und komplexere Shader vorkommen desto höher kannst Du das Verhältnis treiben.
Gehen wir davon aus, dass die R600 Architektur 2-3 Refreshs erleben soll. (einmal Taktupgrade und eine Strukturverbreiterung min.), dann könnte 3:1 am ende knapp werden.
paul.muad.dib
2006-09-15, 19:03:06
Das ist der Weg den wir jetzt gehen werden, das wird irgendwann auch mal 16:1 sein, da bin ich mir ziemlich sicher.
Irgendwann sicher. Aber momentan sieht es eben noch nicht danach aus, dass die 3 Shader pro Pipelines ganz ausgenutzt werden oder gar an der Grenze sind. Imo ist das eine sehr zukunftsbezogene Entscheidung gewesen, die sich jetzt vielleicht langsam bezahlt macht. Aber man braucht eben auch Chips, die mit gegenwärtigen Herausforderungen umgehen können.
An texturlastigen Spielen wie Quake 4 sieht man doch, dass ATI durchaus mehr TMUs brauchen könnte.
reunion
2006-09-15, 19:07:35
An texturlastigen Spielen wie Quake 4 sieht man doch, dass ATI durchaus mehr TMUs brauchen könnte.
Mit den neuen Treibern (und der X1950XTX) hat sich das eigentlich erledigt.
AnarchX
2006-09-15, 19:09:09
FEAR mit Softshadows ist ein gutes Beispiel für den Bedarf an Texelfüllrate...;)
(Trift das generell auf diesen Effekt zu oder ist dies spezifisch für das Game?)
Wenn er gleich implementiert wird dann natürlich auf den Effekt.
paul.muad.dib
2006-09-15, 19:33:31
Je mehr und komplexere Shader vorkommen desto höher kannst Du das Verhältnis treiben.
Gehen wir davon aus, dass die R600 Architektur 2-3 Refreshs erleben soll. (einmal Taktupgrade und eine Strukturverbreiterung min.), dann könnte 3:1 am ende knapp werden.
Ja, dann schon. Aber die 48 Alus kamen in der aktuellen Generation ja auch erst mit dem Refresh.
Und: Zeigt mir einen Benchmark, ob theoretisch, synthetisch oder ein Spiel ist mir egal, wo der r580/r580+ mindestens doppelt so schnell ist wie der r520.
Hvoralek
2006-09-15, 19:43:07
Und: Zeigt mir einen Benchmark, ob theoretisch, synthetisch oder ein Spiel ist mir egal, wo der r580/r580+ mindestens doppelt so schnell ist wie der r520.synthetisch z.T. Zuwächse von 190%: http://www.beyond3d.com/reviews/ati/r580/index.php?p=12
Praktisch gibt es immerhin schonmal 70-75%:
http://www.behardware.com/articles/605-10/the-radeon-x1900-xtx-x1900-xt-and-x1900-crossfire-in-tests.html
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/15/#abschnitt_age_of_empires_3
paul.muad.dib
2006-09-15, 20:31:54
Ok, das ist deutlich. Danke euch für die Gegenargumente!
edit: AOE III lasse ich nicht gelten, weil das eher an fetch4 als an den Shadern liegt.
Quasar
2006-09-15, 23:46:21
Das ist der Weg den wir jetzt gehen werden, das wird irgendwann auch mal 16:1 sein, da bin ich mir ziemlich sicher.
Ich glaube, es wird früher als gemeinhin angenommen wird, wieder 1:1 sein. Oder 1:0 bzw. 0:1 - je nach Betrachtungsweise. :D
Und außerhalb von Age III sowie stets unspielbaren Extremszenen in Oblivion? Ich bereue es jedenfalls bisher keineswegs, güntig eine R520-Karte gekauft zu haben. Der ganze ALU-Hype stimmte mich damals schon skeptisch ... Aber mal sehen, was die neuen Kracher so bringen. Wenn da die R580s ~30% führen, rechtfertigt das die Preise ...
MfG,
Raff
Ailuros
2006-09-16, 06:36:46
MMn ist das sogar eher unwahrscheinlich. Die US des R600 müssen ja auch als VS/ GS arbeiten. Bei einer Beibehaltung des 3:1- Verhältnisses würde deshab der Schwerpunkt wieder stärker in Richtung Texturleistung verschoben, da wäre ich schon erstaunt.
Das 3:1 Verhaeltnis sieht man sowohl auf R5x0 als auch auf Xenos; viele spekulieren dann eben dass R6x0 mit der gleichen Analogie ankommt. Wie und wo Du jetzt siehst dass der Schwerpunkt "wieder" in Richtung Texturleistung fallen wuerde ist mir fremd.
Anders:
G71 = 15.6 GTexels/s <-> 250 GFLOPs
R580 = 10.4 GTexels/s <-> 384 GFLOPs
Die Alternative 4:1 fände ich dann schon sehr extrem, da würden sicherlich einige ALUs Winterschlaf halten.
Ich schaetze kommende D3D10 GPUs aber nicht mit weniger als 450-500GFLOPs theoretischer arithmetischer Leistung ein, eine Rate die sich in kommenden game-engines wie UE3 wohl ziemlich gut einsetzen wird.
Und außerhalb von Age III sowie stets unspielbaren Extremszenen in Oblivion? Ich bereue es jedenfalls bisher keineswegs, güntig eine R520-Karte gekauft zu haben. Der ganze ALU-Hype stimmte mich damals schon skeptisch ... Aber mal sehen, was die neuen Kracher so bringen. Wenn da die R580s ~30% führen, rechtfertigt das die Preise ...
Dass zukuenftige Spiele aber mehr Last in Richtung Arithmetik haben werden sollte wohl schon klar sein oder? Ich kann mich sehr gut an Sweeney's eigene Analyse erinnern, wo er behauptet dass die UE3 engine allein fuer shading 500GFLOPs verbratet. Ob man jetzt gleichzeitig auch noch eine groessere als spekulierte Fuellraten-Steigerung braucht zur gleichen Zeit weiss ich natuerlich nicht. Das einzige was mir hier als Laie einleuchten koennt waere fuer float HDR.
Die Sache ist doch stets dass IHVs versuchen einzuschaetzen wo die groessere Last fuer zukuenftige Spiele liegen wird. Ich geb Dir mal ein ziemlich verkorkstes Beispiel: was denkst Du macht mehr Sinn fuer D3D10?
350 GFLOPs + 30 GTexels/s
oder
500 GFLOPs + 15 GTexels/s
Natuerlich sind die Zahlen nur frei aus der Luft gegriffen, aber es sollte schon helfen zu verstehen dass Arithmetik heutzutage wichtiger ist als die Fuellrate.
Ganz so nebenbei, haette ATI nicht die extra ALU in R580 zugefuegt, haetten sie wie genau mit NVIDIA konkurriert? Mehr quads fuer eine Architektur die nie fuer mehr als 4 ausgelegt war oder eine verrueckt hohe Taktrate mit miserablen Margen? Im Vergleich zu G7x ist R520 ziemlich mager sowohl in ALU-Leistung als auch in Fuellrate; der billigste Weg waren extra ALUs, wobei wo immer Arithmetik Vorrang nimmt, kann sich die R580 sehr gut absetzen.
From our friends who saw it, the size is like the 7900GX2. The length is 33cm and takes up the space of 3 PCIe slots. It uses a single GPU and require 200W with a 8 pin power connector.
http://www.ocworkbench.com/ocwbcgi/newspro/viewnews.cgi?newsid1158301575,93080,
Majestic
2006-09-16, 09:17:47
Ich wollt jetzt nicht den ganzen Thread durchlesen...:) Gibt es eigendlich schon nen engeren Zeitrahmen wann ATI den R6xx rausbringen will?
Winter[Raven]
2006-09-16, 09:37:10
3 Slot Kühlung? Geht's noch?
']3 Slot Kühlung? Geht's noch?
Du glaubst auch jeden Sch****....
The_Silent_One
2006-09-16, 10:09:29
naja, ich glaub kaum, dass der R600 eine 3-Slot kühlung haben wird. damit würden die sich doch das geschäft vermiesen.
was bringt einem die schnellste graka, wenn man dadurch nicht seine soundkarte einbauen kann?
Ich wollt jetzt nicht den ganzen Thread durchlesen... Gibt es eigendlich schon nen engeren Zeitrahmen wann ATI den R6xx rausbringen will?laut INQ nächstes Jahr
http://www.theinquirer.net/default.aspx?article=34373
Denke mal ziemlich am Anfang nächsten Jahres...
Winter[Raven]
2006-09-16, 11:36:48
Du glaubst auch jeden Sch****....
Naja, so ähnlich dachte man damals auch über Dual-Slot ... jetzt wirds wohl Tri-Slot :biggrin:
Hvoralek
2006-09-16, 13:23:32
edit: AOE III lasse ich nicht gelten, weil das eher an fetch4 als an den Shadern liegt.*Gnarf* - Das könnte sein, sry. Naja, zumindest in synthetischen Benchmarks sind Deine 100% Zuwachs gut zu erreichen.
Andererseits: Warum sollte fetch4 bei FX10-"HDRR" so viel mehr bringen? Ohne ist der Vorsprung des R580 nämlich nur noch halb so groß.
Weiteres Beispiel: Oblivion (nicht bei "unspielbaren Extremszenen", sondern ganz harmlosen Innengebieten mit viel Normal- und Parallax Mapping): http://www.firingsquad.com/hardware/oblivion_high-end_performance/page7.asp: 45% Vorsprung für R580. Hinzu kommt ein bei den stärkeren Karten anscheinend nicht unerheblicher Einfluss der CPU (7900GTX nur 16% vor einer 7900GT), der Abstand der GPUs alleine dürfte also noch ein Stück größer sein. In Außengebieten sieht es übrigens völlig anders aus (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/16/#abschnitt_oblivion), da liegen R520 und R580 fast gleichauf.
Bei D3D10- Spielen rechne ich zudem mit deutlich höheren Arithmetikanforderungen.
Das 3:1 Verhaeltnis sieht man sowohl auf R5x0 als auch auf Xenos; viele spekulieren dann eben dass R6x0 mit der gleichen Analogie ankommt. Wie und wo Du jetzt siehst dass der Schwerpunkt "wieder" in Richtung Texturleistung fallen wuerde ist mir fremd.Bei R580 liegt das Verhältnis PS/TMU bei 3:1. VS kommen noch hinzu, sodass das Verhältnis FPU/TMU größer ist. Bei einem US- TMU- Verhältnis von ebenfalls 3:1 wäre die GPU deshalb verleichsweise füllratenstärker.
Natürlich sind auch diese Angaben nichts wert, solange die Fähigkeiten der einzelnen FPUs unbekannt sind. Bei FPUs à la Xenos kann man von deutlich mehr als 3:1 ausgehen, bei welchen, die noch stärker sind als bei R/V5XX, kann es natürlich auch geringer sein.
Anders:
G71 = 15.6 GTexels/s <-> 250 GFLOPs
R580 = 10.4 GTexels/s <-> 384 GFLOPsIch sehe nicht ganz, wieso Du jetzt G71 mit R580 anhand der theoretischen Leistungsfähigkeit vergleichst. :confused:
Ailuros
2006-09-16, 14:29:29
Bei R580 liegt das Verhältnis PS/TMU bei 3:1. VS kommen noch hinzu, sodass das Verhältnis FPU/TMU größer ist. Bei einem US- TMU- Verhältnis von ebenfalls 3:1 wäre die GPU deshalb verleichsweise füllratenstärker.
So gerechnet waere das insgesamte ALU:TMU Verhaeltnis fuer R580 dann 3,5:1.
Natürlich sind auch diese Angaben nichts wert, solange die Fähigkeiten der einzelnen FPUs unbekannt sind. Bei FPUs à la Xenos kann man von deutlich mehr als 3:1 ausgehen, bei welchen, die noch stärker sind als bei R/V5XX, kann es natürlich auch geringer sein.
Ich sehe 48 ALUs und 16 TMUs (8 GTexels/s) auf Xenos; was verpass ich gerade? :confused:
Ich sehe nicht ganz, wieso Du jetzt G71 mit R580 anhand der theoretischen Leistungsfähigkeit vergleichst. :confused:
Weil man bei diesen theoretischen Zahlen den Unterschied was das ALU/TMU Verhaeltnis betrifft besser sehen kann.
deekey777
2006-09-16, 15:58:21
Warum soll man überhaupt, die VS-ALUs in die Verhältnisrechnung miteinbeziehen, wenn wir auf der Pixelebene sind?
TEX:ALU ist weiterhin 1:3 beim R580, genau wie die Batchgröße 4:12.
Ganz so nebenbei, haette ATI nicht die extra ALU in R580 zugefuegt, haetten sie wie genau mit NVIDIA konkurriert? Mehr quads fuer eine Architektur die nie fuer mehr als 4 ausgelegt war oder eine verrueckt hohe Taktrate mit miserablen Margen? Im Vergleich zu G7x ist R520 ziemlich mager sowohl in ALU-Leistung als auch in Fuellrate; der billigste Weg waren extra ALUs, wobei wo immer Arithmetik Vorrang nimmt, kann sich die R580 sehr gut absetzen.
Wobei man nicht vergessen darf, dass der R580 nicht deswegen kurzfristig nachgeschoben wurde, weil der R520 gegen den G70 oft nachsehen hatte, sondern von Anfang an die Verdreifachung der ALUs auf dem Plan stand. Warum sie das nicht gleich gemacht haben, ist mir dagegen ein Rätsel - (Fertigungs-)Kosten?
Nach der Erfahrung mit dem NV40 vs. R420 wusste man in Kanada bestimmt, dass ein R520 mit dem G70 nicht so locker konkurrieren können wird. nVidia hat es beim G70 das Ganze ganz easy gelöst: Einfach eine vollwertige und gleichwertige ALU hinzugefügt, hier und da getweakt und fertig war die G70er Generation.
Hvoralek
2006-09-16, 18:11:30
Ich sehe 48 ALUs und 16 TMUs (8 GTexels/s) auf Xenos; was verpass ich gerade? :confused: Die einzelnen FPUs des Xenos sind schwächer als bei R5xx. Das gleiche FPU-TMU- Verhältnis würde also eine Verringerung der relativen Arithmetikleistung ggü. R580 bedeuten. R580 hat zwar eine für einen D3D9- Chip mMn überdimensonierte Arithmetikleistung (Ich glaube kaum, dass er die je wird voll ausspielen können), in einem D3D10-Pfad ist aber wohl meist eine höhere Arithmetiklast zu erwarten. Wenn ATI schon bei späten D3D9- Chips ein 3:1- Verhältnis wählt (was zumindest bei RV530 auch noch ziemlich großer Unsinn war), wird das bei den ersten Chips der kommenden Generation sicherlich nicht niedriger ausfallen.
Warum soll man überhaupt, die VS-ALUs in die Verhältnisrechnung miteinbeziehen, wenn wir auf der Pixelebene sind?Die FPUs eines USCs müssen auch als VS/GS arbeiten. Bei einem USC mit einem FPU- TMU- Verhältnis n geht dafür ein Teil der Shader drauf, sodass die PS- Leistung im Verhältnis zur Filter- geringer ist als bei einem Chip mit dedizierten Shadern und dem PS- TMU- Verhältnis n. Deswegen hätte R600 bei 3 US/TMU eine geringere relative FPU- Leistung als R580.
TEX:ALU ist weiterhin 1:3 beim R580, genau wie die Batchgröße 4:12.Meinst Du jetzt Xenos? :confused:
Dass zukuenftige Spiele aber mehr Last in Richtung Arithmetik haben werden sollte wohl schon klar sein oder? Ich kann mich sehr gut an Sweeney's eigene Analyse erinnern, wo er behauptet dass die UE3 engine allein fuer shading 500GFLOPs verbratet. Ob man jetzt gleichzeitig auch noch eine groessere als spekulierte Fuellraten-Steigerung braucht zur gleichen Zeit weiss ich natuerlich nicht. Das einzige was mir hier als Laie einleuchten koennt waere fuer float HDR.
Moment, ich spreche dem R580 sein zweifellos vorhandenes Potenzial nicht ab – ich suche "nur" die Spielepraxis, die die enorme FLOP-Differenz zwischen R520 und R580 zeigt. Im Optimalfall wäre das "unspielbar" vs. "spielbar" ... bisher sieht man davon aber nichts bzw. muss genau suchen. Und das ein halbes Jahr nach Release! Wahrscheinlich läuft es darauf hinaus, dass in Zukunft beide zu lahm sind, da die Shader-Keule dann zu stark auf einmal zuhaut. Gerade mit der bei den aktuellen Karten IMO einzig sinnvollen Neuerung - AAA bzw. TSSAA - sieht man, dass etwas ganz anderes limitiert. Etwas, das angeblich sooo unwichtig ist. ;)
MfG,
Raff
Mr. Lolman
2006-09-16, 19:43:51
Vll. ist die Shaderleistung der aktuellen NVidiakarten einfach zu gering, um Spiele zu bauen, die den R580 ausreizen können. Was für Potential da schlummert, zeigen Phsyikberechnungen, bei denen ATi jetzt schon bis 19x (!!!) schneller ist.
Noch dazu werden die meisten Spiele immernoch auf NV Karten entwickelt. Wenn man ATi-nah proggt, tat sich in der Vergangenheit eine 6800GT schon gegen eine 9700pro schwer (bei Ruby oder The Project z.B.) Selbst Crytek war ja damals so nett, und hat den NV Karten einen eigenen Schattenpfad spendiert, damit die bei Farcry nicht vollkommen abkacken.
Was AAA betrifft, hat Ati imo hier auch die besseren Karten, da einerseits der Leistungsverlust im Durchschnitt geringer ist und andererseits man den äußerst praktischen Performancemodus nutzen kann, während bei NV nur der Fallback auf das mässig brauchbare MSTSAA möglich ist...
Und außerhalb von Age III sowie stets unspielbaren Extremszenen in Oblivion? Ich bereue es jedenfalls bisher keineswegs, güntig eine R520-Karte gekauft zu haben. Der ganze ALU-Hype stimmte mich damals schon skeptisch ... Aber mal sehen, was die neuen Kracher so bringen. Wenn da die R580s ~30% führen, rechtfertigt das die Preise ...
MfG,
Raff
Welche unspielbaren Extremszenen? Ich kenn deine Settings nicht, aber ich spiel seit geraumer Zeit Oblivion mit 1280x1024, HDR + 4xPAAA/HQ-AF und diversen Weitsicht Tweaks/Mods...
Wenn das deine R520 auch packt ists schön, wenn nicht...
...hast du wenigstens ein Beispiel für den reellen Mehrwert einer R580. ;)
Winter[Raven]
2006-09-16, 19:47:51
Noch dazu werden die meisten Spiele immernoch auf NV Karten entwickelt. Wenn man ATi-nah proggt, tat sich in der Vergangenheit eine 6800GT schon gegen eine 9700pro schwer (bei Ruby oder The Project z.B.) Selbst Crytek war ja damals so nett, und hat den NV Karten einen eigenen Schattenpfad spendiert, damit die bei Farcry nicht vollkommen abkacken.
Ist jetzt Nvidia daran schuld oder was? ATI ist und war selber Schuld, wer den DEVS nichts gibt, bekommt auch nichts zurück... in dem Sinne *wayne*
']Ist jetzt Nvidia daran schuld oder was? ATI ist und war selber Schuld, wer den DEVS nichts gibt, bekommt auch nichts zurück... in dem Sinne *wayne*
Der Nvidia liebhaber hat mall wieder gesprochen.Wieso mischt du dich eigentlich immer in Ati Threads ein und versuchst Ati schlecht zu machen?
Winter[Raven]
2006-09-16, 20:02:12
Der Nvidia liebhaber hat mall wieder gesprochen.Wieso mischt du dich eigentlich immer in Ati Threads ein und versuchst Ati schlecht zu machen?
Anstelle zu Flammen solltest du lieber was sinnvolleres posten.
Es ist nunmal die Tatsache, das ATI sich lieber auf den Lobbeeren ausruhte und uns nur irgendwelche Refreshchips vor die Nase setzte, in der Hoffnung M$ würde Vista gebacken bekommen.
Die Entwickler wollten Shader 3.0 Hardware die bekam man auch, von NVidia.
']Anstelle zu Flammen solltest du lieber was sinnvolleres posten.
Es ist nunmal die Tatsache, das ATI sich lieber auf den Lobbeeren ausruhte und uns nur irgendwelche Refreshchips vor die Nase setzte, in der Hoffnung M$ würde Vista gebacken bekommen.
Die Entwickler wollten Shader 3.0 Hardware die bekam man auch, von NVidia.
Ja man bekam eine jämmerliche langsame Shader 3.0 Hardware!Das war auch der grund für die entwickler nicht auf Ps 3.0 zu setzten bis auf paar aunahmen!!!
Ja man bekam eine jämmerliche langsame Shader 3.0 Hardware!Das war auch der grund für die entwickler nicht auf Ps 3.0 zu setzten bis auf paar aunahmen!!!
PS:Es sind sage und schreibe 3 HDR Spiele zur 6800 Zeit rausgekommen.Die Entiwckler wussten ganz genau das die 6800 für Shader 3.0 Effekte oder HDR zulangsam war!
Winter[Raven]
2006-09-16, 22:13:59
Ja man bekam eine jämmerliche langsame Shader 3.0 Hardware!Das war auch der grund für die entwickler nicht auf Ps 3.0 zu setzten bis auf paar aunahmen!!!
Sagen wir so, mir ist eine "langsame" HW-Lösung immer noch lieber als garkeine oder eine noch langsamere per Emulierung...
Ailuros
2006-09-16, 23:50:48
Wobei man nicht vergessen darf, dass der R580 nicht deswegen kurzfristig nachgeschoben wurde, weil der R520 gegen den G70 oft nachsehen hatte, sondern von Anfang an die Verdreifachung der ALUs auf dem Plan stand. Warum sie das nicht gleich gemacht haben, ist mir dagegen ein Rätsel - (Fertigungs-)Kosten?
Fuer die original geplante Veroeffentlichung waere es gut genug gewesen.
Nach der Erfahrung mit dem NV40 vs. R420 wusste man in Kanada bestimmt, dass ein R520 mit dem G70 nicht so locker konkurrieren können wird. nVidia hat es beim G70 das Ganze ganz easy gelöst: Einfach eine vollwertige und gleichwertige ALU hinzugefügt, hier und da getweakt und fertig war die G70er Generation.
IHVs legen eine geraume Zeit vor der Veroeffentlichung ihre Grundplaene aus. R580 war von Anfang an als G7x Konkurrenz gedacht, nur leider verschob die R520-Verspaetung auch verstaendlicherweise die Veroeffentlichung von R580. Letzteres war nach originalem Plan ATI's Herbst 2005 Produkt.
Die einzelnen FPUs des Xenos sind schwächer als bei R5xx. Das gleiche FPU-TMU- Verhältnis würde also eine Verringerung der relativen Arithmetikleistung ggü. R580 bedeuten. R580 hat zwar eine für einen D3D9- Chip mMn überdimensonierte Arithmetikleistung (Ich glaube kaum, dass er die je wird voll ausspielen können), in einem D3D10-Pfad ist aber wohl meist eine höhere Arithmetiklast zu erwarten. Wenn ATI schon bei späten D3D9- Chips ein 3:1- Verhältnis wählt (was zumindest bei RV530 auch noch ziemlich großer Unsinn war), wird das bei den ersten Chips der kommenden Generation sicherlich nicht niedriger ausfallen.
Der Ansicht bin ich beim fettgedruckten auch, aber es war eben wie schon erwaehnt der einzige billige und schnelle Weg die Leistung eines Refreshes (sprich R580) im Vergleich zum Vorgaenger zu erhoehen. Sonst blieb ja die Taktrate bzw. Fuellrate fast gleich (und wie auch schon erwaehnt bringt die zusaetzliche Bandbreite mit GDDR4 auch nicht besonders viel).
Moment, ich spreche dem R580 sein zweifellos vorhandenes Potenzial nicht ab – ich suche "nur" die Spielepraxis, die die enorme FLOP-Differenz zwischen R520 und R580 zeigt. Im Optimalfall wäre das "unspielbar" vs. "spielbar" ... bisher sieht man davon aber nichts bzw. muss genau suchen. Und das ein halbes Jahr nach Release! Wahrscheinlich läuft es darauf hinaus, dass in Zukunft beide zu lahm sind, da die Shader-Keule dann zu stark auf einmal zuhaut. Gerade mit der bei den aktuellen Karten IMO einzig sinnvollen Neuerung - AAA bzw. TSSAA - sieht man, dass etwas ganz anderes limitiert. Etwas, das angeblich sooo unwichtig ist.
Fuellraten werden nie unwichtig sein; eine jegliche GPU koennte nie genug Fuellrate und Bandbreite haben. Der Unterschied ist eben dass in der Zukunft Arithmetik mehr an Wichtigkeit gewinnen wird als Fuellraten bzw. Bandbreite, was aber nicht heisst dass sich die letzteren nicht steigern werden; ganz im Gegenteil. Der Unterschied ist dass die arithmetische Leistung ueberproportional zu den anderen zweien mit der Zeit steigern wird.
Wann bekamen uebrigens ISVs die heutigen GPUs in die Haende und wie tief lagen heutige Spiele damals schon in Entwicklung? Hatte auch im Zeitraum NV4x/R4xx NVIDIA den Vorsprung wenn es zu rohen Fuellraten kommt? R420/480 hatten zwar einen kleinen Vorsprung dank der hoeheren Fuellrate bzw. Taktrate (siehe auch VS), aber ab 6800GT und abwaerts war der Vorteil auch gleich wieder weg. Damals war natuerlich auch SM3.0 wertlos, wobei sich die Masche prompt aenderte als man selber mit SM3.0 ankam.
Und seh das Ganze bitte nicht als irgend einer parteiischen Einstellung an; jeder IHV versucht sein bestmoegliches fuer jeden gewissen Zeitraum und je nach den jeweiligen Vorteilen richtet sich auch jegliche PR/Marketing-Masche eines jeden IHV.
Wie dem auch sei ATI sah IMHO gerechtfertigt ein dass Arithmetik an Wichtigkeit zunehmen wird nur leider kam ihre eigene SM3.0 Generation etwas zu spaet an. Die fuer mich selbstverstaendlichen Unkosten fuer einen sehr guten Consolen-Design in der Form von Xenos; der wohl doch etwas zu "forschrittlich" war/ist und auch der Grund warum ein PC-Ableger dessen nicht viel gebracht haette und man schnell aus der Hinterhand R4xx zauberte.
Vll. ist die Shaderleistung der aktuellen NVidiakarten einfach zu gering, um Spiele zu bauen, die den R580 ausreizen können. Was für Potential da schlummert, zeigen Phsyikberechnungen, bei denen ATi jetzt schon bis 19x (!!!) schneller ist.
Ich will ernsthaft bezweifeln dass ein ISV mit Absicht ein Spiel entwickeln wuerde, dass nur ausgezeichnet auf einer GPU-Familie laeuft. Wann genau haetten denn ISVs SM3.0 Spiele fuer R580 entwickeln sollen, wenn diese praktisch nur etwa ein Jahr in ihren Haenden liegt? Ich wuerde selbst die UE3 engine eher eine wahre SM2.0 engine bezeichnen, mit ein paar Leistungs-Optimierungen fuer SM3.0. Dass dann bei Vorstellung des ersten Spiels die auf dieser engine basieren wohl eher besser auf G7x/SLi, R5x0/CrossFire und natuerlich auf D3D10 GPUs laufen werden, ist dann fuer mich auch kein Zufall mehr. Dass eine einzelne R580 so ein Spiel dann doch nicht mehr verkraften kann, ist dann eben doch kein anderes Kapitel.
Noch dazu werden die meisten Spiele immernoch auf NV Karten entwickelt. Wenn man ATi-nah proggt, tat sich in der Vergangenheit eine 6800GT schon gegen eine 9700pro schwer (bei Ruby oder The Project z.B.) Selbst Crytek war ja damals so nett, und hat den NV Karten einen eigenen Schattenpfad spendiert, damit die bei Farcry nicht vollkommen abkacken.
Als der besagte Patch mit dem SM3.0 endlich veroeffentlicht wurde, beinhaltete er auch einen SM2.0_b Pfad fuer R4x0 nach meiner Erinnerung. Komischerweise stieg selbst die SM2.0 Pfad Leistung auf NV4x mit Treibern nach dem besagten Patch um ein ziemlich gesundes Prozentual.
Was jetzt eigen entwickelte Techdemos betrifft, die werden jeweils so ausgerichtet dass die konkurrierenden Loesungen mit Absicht im Nachteil und die eigenen im Vorteil stehen und das ist bei jedem IHV so. Dass jetzt die 9700PRO selbst im Geringsten einer 6800GT nahe kommen koennte, ist wohl die wildeste Uebertreibung ueberhaupt.
Mr. Lolman
2006-09-17, 00:24:43
Zu allem ACK, bis auf...
Was jetzt eigen entwickelte Techdemos betrifft, die werden jeweils so ausgerichtet dass die konkurrierenden Loesungen mit Absicht im Nachteil und die eigenen im Vorteil stehen und das ist bei jedem IHV so. Dass jetzt die 9700PRO selbst im Geringsten einer 6800GT nahe kommen koennte, ist wohl die wildeste Uebertreibung ueberhaupt.
Ruby war nie gedacht auf R300 und NV-Karten zu laufen. Erst als Colourless die Shader umschrieb gings plötzlich.
BTW - Bezügl R300 vs NV40 Leistung: NV40 Karten brechen in UT2004 bei HQ um bis zu 50% ein. Damit sind sie dann noch kaum flotter als ein R3x0 (mit AIlow)...
die chance das ati das bessere produkt liefert is sehr groß.nv futsch mir an der leistung und optik zu viel rum.
deekey777
2006-09-17, 02:14:23
Die FPUs eines USCs müssen auch als VS/GS arbeiten. Bei einem USC mit einem FPU- TMU- Verhältnis n geht dafür ein Teil der Shader drauf, sodass die PS- Leistung im Verhältnis zur Filter- geringer ist als bei einem Chip mit dedizierten Shadern und dem PS- TMU- Verhältnis n. Deswegen hätte R600 bei 3 US/TMU eine geringere relative FPU- Leistung als R580.
Jede US-ALU - egal ob als "VS, GS oder PS"* - kann auf die Texturen zugreifen.
*Eine US-ALU arbeitet nicht als VS-, GS- oder PS-ALU, sondern sie führt VS, GS oder PS aus.
Meinst Du jetzt Xenos? :confused:
R580.
AnarchX
2006-09-17, 06:56:23
BTW - Bezügl R300 vs NV40 Leistung: NV40 Karten brechen in UT2004 bei HQ um bis zu 50% ein. Damit sind sie dann noch kaum flotter als ein R3x0 (mit AIlow)...
Na dann teste dochmal wie ein R300 mit AIoff einbricht, dass HQ vs AIlow ein Schwachsinnsvergleich ist, weisst auch du....;)
Zudem kann man auf ein NV40 Q+ 8xS verwenden und bleibt trotzdem über der Leistung eines R300, der schon Probleme hat wenn man AA zuschaltet auf grund des kleinen VRAMs, bei deutlich besserer Bildqualität.
@Topic:
Kann man bei R600 auch erwarten, dass vielleicht nun das SI verbreitert wird oder wird ATI nur auf schnellen GDDR4 setzen, was vielleicht mit ein Grund der späten Veröffentlichung ist?
Ailuros
2006-09-17, 10:07:34
Zu allem ACK, bis auf...
Ruby war nie gedacht auf R300 und NV-Karten zu laufen. Erst als Colourless die Shader umschrieb gings plötzlich.
Das heisst aber bei weitem nicht dass das techdemo nicht zu 100% auf R300 zugeschnitten ist.
BTW - Bezügl R300 vs NV40 Leistung: NV40 Karten brechen in UT2004 bei HQ um bis zu 50% ein. Damit sind sie dann noch kaum flotter als ein R3x0 (mit AIlow)...
Dass Du Dir irgendeinen verkorksten Spezialfall ausgesucht hast war mir schon klar. Die Unterschiede einer 6800GT was die Fuellrate, Bandbreite, VS-Staerke und Speichermenge sind schon so radikal, dass ein solcher Vergleich schon am Rand des laecherlichen liegt. Mit exakt gleicher Bildqualitaet (was wohl heisst dass nirgends und in keiner Map es stoerende Nebeneffekte gab nach meinen Augen) war selbst die einfache 6800nonU um etwa 30% schneller als die 9700PRO mit fruehen Treibern in 1280 mit 4xAA/16xAF (ja HQ).
Wuerde die 6800GT in UT zu 100% trilinear filtern, waeren es immer noch 2.8 GTexels maximale theoretische trilineare Fuellrate.
Zurueck zum Thema:
@Topic:
Kann man bei R600 auch erwarten, dass vielleicht nun das SI verbreitert wird oder wird ATI nur auf schnellen GDDR4 setzen, was vielleicht mit ein Grund der späten Veröffentlichung ist?
Ich hab zwar keine Ahnung woher die Geruechte fuer mehr als 256bits fuer jegliche Seite genau kommen, aber mir faellt es immer noch schwer es zu glauben.
reunion
2006-09-17, 10:17:52
@Topic:
Kann man bei R600 auch erwarten, dass vielleicht nun das SI verbreitert wird oder wird ATI nur auf schnellen GDDR4 setzen, was vielleicht mit ein Grund der späten Veröffentlichung ist?
Nur? Angesichts der enormen Bandbreitensteigerung, die mit GDDR4 jetzt schon möglich ist (siehe X1950 XTX), halte ich eine Verbreiterung des SI sowohl bei ATi als auch bei nV zum jetztigen Zeitpunkt für ziemlich unlogisch.
AnarchX
2006-09-17, 10:39:47
Nur? Angesichts der enormen Bandbreitensteigerung, die mit GDDR4 jetzt schon möglich ist (siehe X1950 XTX), halte ich eine Verbreiterung des SI sowohl bei ATi als auch bei nV zum jetztigen Zeitpunkt für ziemlich unlogisch.
Zum G80 gibt es die Spekulation eines 384bit SI + GDDR3, was durchaus doch eine Möglichkeit ist, da GDDR4 noch recht rar ist und man wohl bis November nicht ausgehen kann, dass es noch so viel schnelleren geben wird?
Immerhin hätte eine G80 mit 256bit 1000MHz gerade nur 25% mehr Speicherbandbreite als die 7900GTX.
reunion
2006-09-17, 10:58:34
Zum G80 gibt es die Spekulation eines 384bit SI + GDDR3, was durchaus doch eine Möglichkeit ist, da GDDR4 noch recht rar ist und man wohl bis November nicht ausgehen kann, dass es noch so viel schnelleren geben wird?
Immerhin hätte eine G80 mit 256bit 1000MHz gerade nur 25% mehr Speicherbandbreite als die 7900GTX.
Für die paar High-End-Karten sollte es IMO doch mehr als genug GDDR4-Bausteine geben. Ein 384bit SI würde nicht nur unnötig Transistoren verschwenden, sondern auch das PCB verkomplizieren. Man würde mindestens 12 Speicherbausteine benötigen, um soetwas überhaupt zu realisieren, außerdem würde sich natürlich auch der Stromverbrauch im Vergleich zu GDDR4 erhöhen. Samsung produziert übrigens schon seit Juni GDDR4 mit bis zu 1.4Ghz (http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR4SDRAM/512Mbit/K4U52324QE/K4U52324QE.htm) in Massenproduktion. ATi verwendet AFAIK exakt dieselben Speicherbausteine, allerdings wohl aus Kosten/Nutzen-Gründen lediglich mit einem Ghz.
Hvoralek
2006-09-17, 11:23:28
Vll. ist die Shaderleistung der aktuellen NVidiakarten einfach zu gering, um Spiele zu bauen, die den R580 ausreizen können.Klar. Da bringt ATI ihre erste brauchbare Karte mit einer höheren relaiven Arithmetikleistung als R300, verdreifacht sie dabei aber auch gleich, und dann ist Nvidia schuld, dass sie nach einem halben Jahr nicht bereits vollständig genutzt wird, weil deren Karten seit längerem nur grob die doppelte bieten. Davon, dass ATI bis heute keinen brauchbaren Mittelklassechip auf den Markt gebracht hat, der dieser neuen Linie folgt, mal ganz abgesehen. Aber nein, die sind nicht schuld an der geringen Marktdurchdringung, sondern nur Nvida... :rolleyes:
Was für Potential da schlummert, zeigen Phsyikberechnungen, bei denen ATi jetzt schon bis 19x (!!!) schneller ist.Dir ist sicherlich klar, dass das an Nvidias besch*****em dyn. Branching liegt, nicht an der allgemeinen Arithmetikleistung. Gibt es heute auch nur ein Spiel, dass überhaupt dyn. brancht (ein Jahr nach Karten, die es vernünftig können), geschweige denn, in nennenswertem Umfang? Übrigens habe ich bei Havok FX "nur" etwa Faktor 6 im Kopf (X1900XTX --> Knapp 30x so schnell wie ein XE 965; 7900GTX SLI --> etwa 10x so scnell wie FX-60).
Noch dazu werden die meisten Spiele immernoch auf NV Karten entwickelt. Wenn man ATi-nah proggt, tat sich in der Vergangenheit eine 6800GT schon gegen eine 9700pro schwer (bei Ruby oder The Project z.B.)Du erwartest allen Ernstes, dass eine Techdemo eines IHVs auf Karten des anderen vernünftig läuft? Das kann nicht Dein Ernst sein.
Selbst Crytek war ja damals so nett, und hat den NV Karten einen eigenen Schattenpfad spendiert, damit die bei Farcry nicht vollkommen abkacken. Die NV3x- Karten waren auch großer Mist. Wobei ich Valves Umgang damit noch amüsanter fand. :biggrin:
deekey777
2006-09-17, 12:29:21
Vll. ist die Shaderleistung der aktuellen NVidiakarten einfach zu gering, um Spiele zu bauen, die den R580 ausreizen können. Was für Potential da schlummert, zeigen Phsyikberechnungen, bei denen ATi jetzt schon bis 19x (!!!) schneller ist.
Mit Havok FX?
Fuer die original geplante Veroeffentlichung waere es gut genug gewesen.
Das wäre Ende Mai bzw. noch vor dem G70, wenn mich nicht alles täusch.
IHVs legen eine geraume Zeit vor der Veroeffentlichung ihre Grundplaene aus. R580 war von Anfang an als G7x Konkurrenz gedacht, nur leider verschob die R520-Verspaetung auch verstaendlicherweise die Veroeffentlichung von R580. Letzteres war nach originalem Plan ATI's Herbst 2005 Produkt.
Das wäre mir neu, bisher habe ich mehrmals gelesen, dass der R580 immer im Zeitplan lag, auch hatte er mit den gleichen Problemen zu kämpfen wie der R520 (Taktraten bis 500-550 MHz möglich).
Es tut mir leid das ich jetzt vielleicht ne dumme Frage Stelle aber habe keine Zeit mir alles durchzulesen deswegen wollte ich wissen ab der R600 echt im 3. quartal kommt?
Hvoralek
2006-09-17, 12:54:41
Es tut mir leid das ich jetzt vielleicht ne dumme Frage Stelle aber habe keine Zeit mir alles durchzulesen deswegen wollte ich wissen ab der R600 echt im 3. quartal kommt?Nein. Wahrscheinlich Anfang nächsten Jahres, bestenfalls Ende Dezember.
paul.muad.dib
2006-09-17, 12:55:28
Ganz so nebenbei, haette ATI nicht die extra ALU in R580 zugefuegt, haetten sie wie genau mit NVIDIA konkurriert? Mehr quads fuer eine Architektur die nie fuer mehr als 4 ausgelegt war oder eine verrueckt hohe Taktrate mit miserablen Margen? Im Vergleich zu G7x ist R520 ziemlich mager sowohl in ALU-Leistung als auch in Fuellrate; der billigste Weg waren extra ALUs, wobei wo immer Arithmetik Vorrang nimmt, kann sich die R580 sehr gut absetzen.
Interessant. Wäre es bei der Architektur nicht möglich gewesen, in Quad hinzuzufügen?
Mr. Lolman
2006-09-17, 14:24:24
Mit Havok FX?
Hm, hab auf die schnelle nur diese Benchmarks gefunden, wo der R580 max. 17x schneller ist:
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.