Archiv verlassen und diese Seite im Standarddesign anzeigen : R600 schon im dritten Quartal 2006?
Deshalb betonte ich ja auch dass man nicht denken sollte dass laut theoretischen GFLOP Zahlen G80 = 2*Xenos ist.
Kommt ganz drauf ob die ROPs vom Xenos oder R5x0 geerbt wurden. Beim ersten sind es "nur" 8 die aber ueber bis zu 32c/64z faehig sind.
Die brennende Frage ist ob ATI bei 8x MSAA stecken bleibt oder doch bis zu 12x MSAA freigeben wird; rein theoretisch wenn auch R600 ueber single cycle 4xMSAA faehig ist, sehe ich nicht ein warum auf R3xx/4xx/5xx bis zu 3 loops fuer MSAA moeglich waren und auf R600 nicht.
Bisherige Geruechte bestehen auf nur 8xAA; fuer mich entscheidet aber diese Kleinigkeit auf keinen Fall die generelle Bewertung vom R600. Denn eigentlich kann der G80 auch nicht mehr als 8x Multisampling; der Unterschied ist dass es coverage mask AA mit jeweils 8x und 16x samples noch zusaetzlich gibt.
Naja der Xenos ist ja relativ klein, mit seinen 220Mill. Transistoren. Wieviel Aufwand kostet es denn 24 TMUs, 24 ROPs die 32c/64z fähig sind, die doppelte Anzahl an USCs und noch DX10 zu integrieren? Er wird sicherlich die mehr als 550Millionen Transistoren haben, wenn auch nicht soviel mehr.
Nach den ersten Infos werden die ROPs stark verbessert, sodass 4x AA kostenlos ist. Daher denke ich das das AA des R600 stark verbessert sein könnte.
Ailuros
2006-11-05, 13:15:28
Naja der Xenos ist ja relativ klein, mit seinen 220Mill. Transistoren. Wieviel Aufwand kostet es denn 24 TMUs, 24 ROPs die 32c/64z fähig sind, die doppelte Anzahl an USCs und noch DX10 zu integrieren? Er wird sicherlich die mehr als 550Millionen Transistoren haben, wenn auch nicht soviel mehr.
Nach den ersten Infos werden die ROPs stark verbessert, sodass 4x AA kostenlos ist. Daher denke ich das das AA des R600 stark verbessert sein könnte.
Es geht doch gar nicht darum; es geht eher darum dass wenn ich an TMUs und ROPs ala Xenos denke es mir eher ein 2:1 TMU/ROP Verhaeltnis gibt.
Du sagst es ja selber, dass sie auf schnelleres 4xMSAA zielen. Erstens ist schon G80 ueber single cycle 4xMSAA faehig, was mir persoenlich einen generellen Trend fuer D3D10 andeuten koennte und zweitens passen die Xenos ROPs eben sehr schoen zum obrigen dank ihrer Faehigkeiten.
Meine Frage war woanders: warum 24 ROPs (ala R5x0) und nicht 12 ROPs (ala Xenos) als Gegenbeispiel? Genauso wie ich vor Monaten fuer G80 warnte dass man nicht so sinnlos auf die Anzahl der Einheiten spekulieren sollte ohne nachzudenken ueber was jede faehig ist, gilt es ebenso hier auch.
Ganz nebenbei ist das Xenos trisetup bis auf 150MTris/s festgelegt wenn ich mich nicht irre; R600 waere in ganz schoen tiefer Pampe wenn diese Rate nicht ueber 3x dieser Rate liegt (gehoert auch in die GFLOP vs GFLOP Kategorie).
Ailuros
2006-11-05, 13:22:28
Demi hatte da ein ganz nettes Posting in diesem Thread. Es wird sich wohl herausstellen, dass R600 mit Xenos weniger gemein hat, als viele vielleicht denken.
PS: Bzgl. dieser (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4175353&postcount=213) 90nm->80nm-Theorie (was G80 anbelangt) lag ich garnicht so falsch, oder? :biggrin: (Man könnte das jetzt noch ein wenig weiterspinnen, aber dafür bin ich im falschen Thread.)
Du kannst mir glauben dass ich selber noch nicht weiss auf welchem Prozess G80 hergestellt wurde (wie laecherlich dass auch klingen mag).
Ich mach es Dir aber relevant zum Thema hier; afaik ist ATI ein weit groesserer Kunde bei TSMC als NVIDIA. Daher bekommt ATI auch bessere Angebote. ATI's Strategie stets auf den kleinsten verfuegbaren Herstellungsprozess zu zielen (was dann irgendwie auch indirekt mit den hoeheren Taktraten zusammenhaengt, da kleinere Prozesse blahblahblha...) soll nach einigen davon originieren was mir gar nicht so verrueckt am Ende klingt.
Das macht natuerlich die generelle Strategie von ATI nicht am Ende logischer, denn ich hab das Gefuehl dass wer auch immer die Unkosten langfristig und global ausrechnet, wohl einen Defekt im Rechner hat.
Sunrise
2006-11-05, 15:00:30
ATI's Strategie stets auf den kleinsten verfuegbaren Herstellungsprozess zu zielen (was dann irgendwie auch indirekt mit den hoeheren Taktraten zusammenhaengt, da kleinere Prozesse blahblahblha...) soll nach einigen davon originieren was mir gar nicht so verrueckt am Ende klingt.
Ja, natürlich. IHVs die neue Nodes testen (das ist allerdings auch bei NV der Fall) bekommen natürlich nicht nur Unterstützung seitens der jeweiligen Fab, sondern auch dementsprechende Angebote, damit man neue Fertigungslinien auch testen und validieren kann.
Gerade die Design-Targets, die vor allem auf ASICs abzielen, wie sie im GPU-Bereich benötigt werden (inkl. mögliche, höhere Spannung, optimiert auf Kosten/Ausbeute und der bekannte Mittelweg, mit dem Namenssuffix -GT) müssen natürlich auch alle validiert werden.
Wenn man berücksichtigt, wie lange es dauert, eine neue Full-Node wirklich produktionsreif zu haben, und welche Kosten da drin stecken, trägt es sich leichter mit Kunden, die "mittesten". Diese Validierungsphase entscheidet normalerweise dann auch darüber, wie früh/spät entsprechende Produkte zu fertigen sind.
Ich hatte ja auch bereits hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4149076&postcount=190) schon Entsprechendes angemerkt. Und das scheint - was ATI angeht - auch nach wie vor "aktuell" zu sein. NV schielt auch schon länger in diese Richtung.
Das macht natuerlich die generelle Strategie von ATI nicht am Ende logischer, denn ich hab das Gefuehl dass wer auch immer die Unkosten langfristig und global ausrechnet, wohl einen Defekt im Rechner hat.
Es ist natürlich schwierig, das nachzuvollziehen und vor allem ist nichts 100%ig sicher, was ATI genau damit bezweckt. Es gibt daher sicher Gründe auf beiden Seiten (positiv, als auch negativ) die sowohl dafür, als auch dagegen sprechen.
Allerdings überkommt einem dieses (ich nenne es mal "gut begründete" Gefühl) des Überstürzens und Forcierens neuer Prozesse jedesmal, wenn ATI ankündigt, diese Prozesse auch sofort nutzen zu wollen. Damit gehen sie jedesmal das Risiko ein, dass bereits in der Designphase alles auf den neuen Prozess angepasst wird, und sollte sich dieser dann verspäten, könnte man auch fast wieder von vorne anfangen, weil die Libraries (80nm und 65nm bei TSMC) sich gänzlich voneinander unterscheiden. Daher auch die Anmerkung, dass das Low- und Midend aktuell ein großes Fragezeichen darstellt.
Es geht doch gar nicht darum; es geht eher darum dass wenn ich an TMUs und ROPs ala Xenos denke es mir eher ein 2:1 TMU/ROP Verhaeltnis gibt.
Du sagst es ja selber, dass sie auf schnelleres 4xMSAA zielen. Erstens ist schon G80 ueber single cycle 4xMSAA faehig, was mir persoenlich einen generellen Trend fuer D3D10 andeuten koennte und zweitens passen die Xenos ROPs eben sehr schoen zum obrigen dank ihrer Faehigkeiten.
Meine Frage war woanders: warum 24 ROPs (ala R5x0) und nicht 12 ROPs (ala Xenos) als Gegenbeispiel? Genauso wie ich vor Monaten fuer G80 warnte dass man nicht so sinnlos auf die Anzahl der Einheiten spekulieren sollte ohne nachzudenken ueber was jede faehig ist, gilt es ebenso hier auch.
Wieso nicht 24 Xenos-ROPs? Wenn der R600 so ein Zwischending werden sollte, könnte das auch ermöglicht werden. Ob das auch sinnvoll ist, kann ich nicht sagen.
Nach meiner Meinung verwendet ATI zwar immer den neuesten Fertigungsprozess, egal ob er ziemlich unfertig ist. 80Nm-Prozess war ja nicht so der Renner, vll wird er beim R600 besser. Nv hat ja gesagt, dass man auf 65Nm zu Beginn des Jahres produzieren wird. Wahrscheinlich wird nur der LowEnd mit dem Prozess versorgt.
Ein besserer Fertigungsprozess senkt nicht immer die Stromverbrauch und die Abwärme, solange die Fertigung und die Auslegung schief läuft.
Ailuros
2006-11-05, 15:37:40
Wieso nicht 24 Xenos-ROPs? Wenn der R600 so ein Zwischending werden sollte, könnte das auch ermöglicht werden. Ob das auch sinnvoll ist, kann ich nicht sagen.
Weil es darauf ankommt wieviel man genau braucht von jeglicher Einheit.
Nebenbei: wie stehn die Chancen, dass der R600 schon 65nm ist?
AnarchX
2006-11-08, 16:09:22
Der 65nm-Prozess sollte zum Zeitpunkt, wann der R600 kommt bei weiten noch nicht soweit sein um ein solches Transistormonster wie ihn zu fertigen -> 80nm (strained silicon?).
Nach den Andeutungen (http://www.xbitlabs.com/news/video/display/20061026014448.html) neulich bei TSMC wegen Nvidia wäre es schon möglich :wink:
Fiel mir einfach gerade auf bei Mike (http://www.mikeshardware.co.uk/RoadmapQ107.htm)
dargo
2006-11-08, 16:16:45
Der 65nm-Prozess sollte zum Zeitpunkt, wann der R600 kommt bei weiten noch nicht soweit sein um ein solches Transistormonster wie ihn zu fertigen -> 80nm (strained silicon?).
Nee, das glaube ich nicht. Dafür ist die Übernahme von AMD noch zu frisch.
AnarchX
2006-11-08, 16:18:04
Was wohl nV in 65nm bald fertigen lässt, wird wohl einen deutlich geringen Transistorcount haben als R600/G80 -> G8x-Mainstream/LowCost...;)
[](-__-)[]
2006-11-08, 21:26:34
http://www.rage3d.com/board/showpost.php?p=1334635538&postcount=187
Fuer wen Razor arbeitet verrate ich Euch aber nicht ;)
War Razor nich ein Fan von Richthofen, der zig nVidia Aktien sein eigen nennt?
deekey777
2006-11-08, 21:31:23
(-__-)[]']War Razor nich ein Fan von Richthofen, der zig nVidia Aktien sein eigen nennt?
razor1 und nicht Razor.
AnarchX
2006-11-08, 21:31:52
Na wer hat schon eine? ;) -ATI has R600 silicon out
Game developers and special customers have it
http://www.theinquirer.net/default.aspx?article=35614
Godmode
2006-11-08, 21:43:16
http://www.rage3d.com/board/showpost.php?p=1334635538&postcount=187
Fuer wen Razor arbeitet verrate ich Euch aber nicht ;)
Das mit der Branching Granularität ist ja interessant, dann würde die Situation genau umgekehrt sein. G7x - R5xx / G8x - R6xx
Das mit den extremen Taktraten wird natürlich auch interessant, und wenn sie die doppelte Performance einer 1950XTX erreichen, dann ist das sicher ein mehr als zufriedenstellendes Ergebnis.
deekey777
2006-11-08, 21:52:19
Na wer hat schon eine? ;) -ATI has R600 silicon out
Game developers and special customers have it
http://www.theinquirer.net/default.aspx?article=35614
Die R520-Radeons hatten manche Entwickler irgendwann März 2005, wenn nicht früher.
Ailuros
2006-11-09, 06:33:59
Bei unter 400MHz mit dem eigentlichen Ziel von ATI ist es das kein besonderer Grund sich aufzuregen; ausserdem bestaetigte gestern noch eine Quelle dass es kein 512bit sein wird (haette ich auch nicht erwartet).
seahawk
2006-11-09, 07:04:54
512MB war nicht zu erwarten, die Bandbreite mit dem geplanten Speicher wäre einfach unverhätnismäßig gewesen. So wie ATI nach schnellenm GDDR4 lechzt, konnten sie kein 512MBit Interface nutzen wollen.
Gespannt bin ich eher auf die Kühllösung.
AnarchX
2006-11-09, 08:09:34
ausserdem bestaetigte gestern noch eine Quelle dass es kein 512bit sein wird (haette ich auch nicht erwartet).
Wäre ja auch bei der bald kommenden Bandbreitenexplosion durch GDDR4 auch eher wirtschaflicher Unsinn gewesen...
Interessant ist imo auch was ATI hinter dem G80 erwartet haben, irgendwie kommt bei dir Vermutung auf, dass sie eine CineFX-GPU erwartet haben mit D3D10 und deswegen beim R600 nicht ganz so enthusiastisch herangegangen sind und nun nach der Erkenntnis versuchen über hohe Taktraten, Nachteile des Designs entgegenzuwirken.
Na hoffentlich werden bald auch erst konkrete Infos geleakt, sodass alles etwas klarer wird.;)
Ailuros
2006-11-09, 08:44:31
Interessant ist imo auch was ATI hinter dem G80 erwartet haben, irgendwie kommt bei dir Vermutung auf, dass sie eine CineFX-GPU erwartet haben mit D3D10 und deswegen beim R600 nicht ganz so enthusiastisch herangegangen sind und nun nach der Erkenntnis versuchen über hohe Taktraten, Nachteile des Designs entgegenzuwirken.
Na hoffentlich werden bald auch erst konkrete Infos geleakt, sodass alles etwas klarer wird.;)
ATI hat generell eine ganz andere Strategie; ich wuerde sie aber trotz allem nicht unterschaetzen. NVIDIA wird in naechster Zeit hoechstwahrscheinlich erstmal hoehere shader Frequenzen durch Uebertaktungen erlauben und weiss der Geier warum die MUL Einheit auf G80 noch nicht operativ ist.
Ich wuerde eher sagen dass NV momentan verdammt konservativ sich mit D3D10 angeschleicht hat und eher ein paar Asse im Aermel versteckt mit Absicht. Wuerde ich auch nicht anders erwarten, denn in diesem Markt geht es ja um den letzten Millimeter an Leistung.
seahawk
2006-11-09, 08:51:56
Den Eindruck, dass man bei NV etwas potentielle lEistung beim G80 in der Hinterhand hält ist durchaus nachvollziehbar. Ein neuer Treiber zur rechten Zeit könnte eine angedachte Option sein.
Bei unter 400MHz mit dem eigentlichen Ziel von ATI ist es das kein besonderer Grund sich aufzuregen; ausserdem bestaetigte gestern noch eine Quelle dass es kein 512bit sein wird (haette ich auch nicht erwartet).
Welche Quelle wenn ich fragen darf?
Mhh welche Taktraten müsste der R600 eigentlich haben um den G80 zu schlagen, wenn man jetzt von den treffenden Specs ausgeht?
Godmode
2006-11-09, 15:39:43
Welche Quelle wenn ich fragen darf?
Mhh welche Taktraten müsste der R600 eigentlich haben um den G80 zu schlagen, wenn man jetzt von den treffenden Specs ausgeht?
Welches Specs? Man weiß doch noch gar nichts!
Welches Specs? Man weiß doch noch gar nichts!
Wenn man nach den Presseerklärungen ATI geht, wären das 96 USCs, 24 TMUs und vll 24 ROPs.
Aber eigentlich wollte ich auf das Gerücht, das kein 512 Bit Interface genutzt wird raus.
Wenn man nach den Gerüchten geht und die ähnlich "präzise" sind, wie die über den G80, dann würde ich mir die Zeit zum drüber nachdenken sparen *g*.
gibs noch kein presentations datum ?
Ailuros
2006-11-10, 05:26:20
Welche Quelle wenn ich fragen darf?
Fragen darfst Du schon, nur antworten darf ich leider nicht ;)
Mhh welche Taktraten müsste der R600 eigentlich haben um den G80 zu schlagen, wenn man jetzt von den treffenden Specs ausgeht?
Weit ueber 600MHz.
dargo
2006-11-10, 10:36:50
Weit ueber 600MHz.
Geht das auch vielleicht etwas genauer?
650? 700?
650Mhz müssten in 80nm eigendlich machbar sein oder?
DrumDub
2006-11-10, 10:52:37
Geht das auch vielleicht etwas genauer?
650? 700? ich denke eher über 700mhz... wobei natürlich die frage ist, wie ati das mit den streamprozessoren löst...
Ailuros
2006-11-10, 10:53:30
Nur haut dann eben die hohe Taktrate noch mehr auf den Stromverbrauch ein trotz 80nm und es ist auch nicht gerade ideal fuer yields/margins.
robbitop
2006-11-10, 10:56:52
Ohne genauere Kenntnisse über die Architektur und über deren pro Taktleistung läßt sich wohl schwerlich sagen, mit welchem Takt er G80 schlagen kann.
Hvoralek
2006-11-10, 11:00:55
650Mhz müssten in 80nm eigendlich machbar sein oder?Das hängt auch davon ab, wie groß der Chip ist.
dargo
2006-11-10, 11:39:10
Nur haut dann eben die hohe Taktrate noch mehr auf den Stromverbrauch ein trotz 80nm und es ist auch nicht gerade ideal fuer yields/margins.
Natürlich. Aber der G80 ist afaik ein 90nm Design. Und wenn der R600 ähnlich aufgebaut sein sollte könnte man mit 700Mhz eventuell trotzdem bei ~150W bleiben.
Edit:
Und wenn ich mir angucke wie gut der G80 mit erhöhten Taktraten skaliert sind vielleicht doch nicht soviel Mhz mehr beim R600 nötig?
ich denke eher über 700mhz... wobei natürlich die frage ist, wie ati das mit den streamprozessoren löst...
Meinst du die Taktrate und/oder die Anzahl?
DrumDub
2006-11-10, 12:06:46
Meinst du die Taktrate und/oder die Anzahl? sowohl die taktrate als auch den aufbau des r600 als usa. das konzept wird ja sehr wahrscheinlich anders sein, als beim g80...
Ohne genauere Kenntnisse über die Architektur und über deren pro Taktleistung läßt sich wohl schwerlich sagen, mit welchem Takt er G80 schlagen kann. grundsätzlich haste da recht, aber die andeutungen von ailuros haste aber schon gelesen, oder? ;)
Ailuros
2006-11-10, 12:09:51
Natürlich. Aber der G80 ist afaik ein 90nm Design. Und wenn der R600 ähnlich aufgebaut sein sollte könnte man mit 700Mhz eventuell trotzdem bei ~150W bleiben.
DrumDub hat Dir eigentlich schon geantwortet aber klingt Dir ein quasi hybrider chip zwischen R5x0 und Xenos wirklich nach Aehnlichkeiten der G80 Stream-Prozessoren?
Die ALUs auf R600 sind ziemlich interessant und flexibel aber G80 geht da schon noch ein Stueckchen weiter.
dargo
2006-11-10, 12:18:18
DrumDub hat Dir eigentlich schon geantwortet aber klingt Dir ein quasi hybrider chip zwischen R5x0 und Xenos wirklich nach Aehnlichkeiten der G80 Stream-Prozessoren?
Sorry, aber ich habe keine Ahnung vom Xenos.
Die ALUs auf R600 sind ziemlich interessant und flexibel aber G80 geht da schon noch ein Stueckchen weiter.
Du würdest also sagen, dass ein R600 ziemliche Schwierigkeiten (Performance) mit dem G80 bekommen kann?
The Jackal
2006-11-10, 12:25:53
ATi hat doch auf der X1950 Pro mit einem DPWM(Digital PWM) experimentiert um die Verlustleistung und Wärmeentwichklung zu reduzieren.
Ich hab das blöde Gefühl das die den R600 genau so trimmen werden das er gerade mal 0-3% mehr Leistung liefert als der G80 aber nur 2/3 seiner Leistungsaufnahme hat. Selbst wenn der Chip dann auch 5% langsamer ist, wenn er nur max 70% der Leistung frisst die ien G80 frisst wird das der renner.
ATi hat jetzt die Qual der Wahl. Entweder ein Design mit 512 breiten Interface das den G80 in Grund und Boden stampft mit einem Stromverbrauch der sein gleiches sucht oder ein konservatives Design mit immer noch 256 Bit SI das gerade die Leistung einer G80 erreicht, günsitger in der Herstellung ist und Energetisch besser da steht.
Der trend zu HighEnd GraKa's ist mitlerweile für alle Hersteller absehbar. Ich glaube das der momentane LowCost in der form wie wir ihn von der Leistung und Preis kennen nun wirklich aussterben wird, spätestens mit Vista.
Ailuros
2006-11-10, 12:27:03
Du würdest also sagen, dass ein R600 ziemliche Schwierigkeiten (Performance) mit dem G80 bekommen kann?
Nach den Aussagen der Entwickler sieht es so aus als ob die pro MHz Effizienz auf G80 hoeher ist.
AnarchX
2006-11-10, 12:27:38
Ich hab das blöde Gefühl das die den R600 genau so trimmen werden das er gerade mal 0-3% mehr Leistung liefert als der G80 aber nur 2/3 seiner Leistungsaufnahme hat. Selbst wenn der Chip dann auch 5% langsamer ist, wenn er nur max 70% der Leistung frisst die ien G80 frisst wird das der renner.
Das wäre ja bei ATI doch ein starker Kurswechsel, denn ich eher bezweifele.
The Jackal
2006-11-10, 12:31:53
Das ist nicht mehr ATi. Das ist AMD/ATi. Und AMD kann sich kein Stromfresser a la X1950XTX unter einem Grünem(anspielung auf Öko) Banner nicht leisten. Ich hab das gefühl die Verzögerungen in sachen R600 sind definitiv auf AMD zurückzuführen. AMD will etwas was Profit abwirgt und dan passt ein 256 Bit SI und gerade so schnell wie G80 mit weniger Watt besser.
Nehmen wir rein Theoretisch an wir hätten 2 Grafikkarten. Eine von der Firma X und eine von der Firma Z. Beide ungefähr gleich schnell bis auf einen kleinen Vorteil für die Firma X. Doch die Firma Z liefert ein besseres Preis/Leistungs/Verbrauchs Konzept mit. Was glaubt ihr wieveile dann von den für den Käufer relewanten Seiten die Firma X und wieveile die Firma Z anpreisen werden???
dargo
2006-11-10, 12:43:18
Ich hab das blöde Gefühl das die den R600 genau so trimmen werden das er gerade mal 0-3% mehr Leistung liefert als der G80 aber nur 2/3 seiner Leistungsaufnahme hat. Selbst wenn der Chip dann auch 5% langsamer ist, wenn er nur max 70% der Leistung frisst die ien G80 frisst wird das der renner.
Also, das ergibt für mich keinen Sinn.
Eine G8800GTX liegt bei ~140W. 70% davon wären 98W. Was sollte ATI davon abhalten den R600 höher zu takten wenn es die Kühlung zulässt?
Ich meine, wenn der R600 mit 70% Verlustleistung des G80 praktisch die gleiche Performance liefern sollte könnte ich es noch verstehen, aber nicht wenn er etwas langsamer dabei wäre.
ATi hat jetzt die Qual der Wahl. Entweder ein Design mit 512 breiten Interface das den G80 in Grund und Boden stampft mit einem Stromverbrauch der sein gleiches sucht oder ein konservatives Design mit immer noch 256 Bit SI das gerade die Leistung einer G80 erreicht, günsitger in der Herstellung ist und Energetisch besser da steht.
Welche Wahl? Das Design ist doch schon fertig. Ich glaube kaum, dass man in ~3 monaten noch ein SI ändern kann.
deekey777
2006-11-10, 12:45:05
sowohl die taktrate als auch den aufbau des r600 als usa. das konzept wird ja sehr wahrscheinlich anders sein, als beim g80...
Wieso? Beide sind nur R580+USA+D3D10. Der G80 ist nur etwas anders aufgebaut.
Ja, hirnlos.:biggrin:
Wenn der R600 ein Hybrid aus Xenos und dem R580 ist, dann bedeutet dies, dass der R580 nicht das Ende der R300-Fahnenstange ist: Der R300 lebt!
Im Ernst: Was kann vom R580 für den R600 überhaupt übernommen werden? Eigentlich nichts, es sei denn, der R520 (und somit der R580) war schon ein Hybrid aus dem R300/R420 (größter Teil) und der sich ständig weiterentwickelten R400-Technologie (das "Threading"-Konzept der R520, das das Phasen-Konzept des R420 ersetzte oder zumindest ergänzte). Jetzt geht man einen Schritt weiter. Die dedizierten Shader-Einheiten werden durch USA ersetzt, diese werden den D3D10-Anforderungen entsprechen, für den PC-Bereich könnten die Xenos' ALUs zu wenig sein, also werden dieser entsprechend aufgemotzt, oder es werden die R520-ALUs benutzt (wie das geht? Keine Ahnung).
Weitere Ideen?
Fragen darfst Du schon, nur antworten darf ich leider nicht ;)
Ach Bitte....^^ :)
Aber Scherz beiseite, warum sollte der G80 effektiver sein, als der R600?
Wenn ich davon ausgehe, dass der R600 96 USCs und einen Takt von etwa 750Mhz hat, ist der G80 in der Shaderleistung schwächer.
Da werdens nur etwa 520Gflops, der R600 dagegen schafft etwa 650Gflops.
Die Texel- und Pixelleistung ist dagegen aber schwächer, wenn es aber die Effizienz der R520/R580 Architektur hat, ist das kein Problem. Die kommt ja bekanntlich ohne viel Füllraten aus.
dargo
2006-11-10, 12:47:29
Nach den Aussagen der Entwickler sieht es so aus als ob die pro MHz Effizienz auf G80 hoeher ist.
Man, man, man. Bei dir ist es nicht einfach paar Details rauszukriegen. ;)
Die Frage ist jetzt wieviel höher?
Oder andersrum, wie hoch muss der R600 getaktet sein um mitzuziehen?
The Jackal
2006-11-10, 12:47:29
Wer sagt das man das ganze SI das in dem Chip ist auch sofort ausnutzen muß. In einem Chip ist der unterschied zwischen deinem 256 und 512 Bit SI doch nur 6-12 Mill Transistoren. Bei über 500 glaub ich nicht das das noch eine so große Rolle spielt. Das PCB ist eintscheidend. Das NV hat doch glaub ich schon 12 Layer. für 512 Bit bräuchte man warscheinlich 14-16 Layer.
Ailuros
2006-11-10, 12:48:22
Das ist nicht mehr ATi. Das ist AMD/ATi. Und AMD kann sich kein Stromfresser a la X1950XTX unter einem Grünem(anspielung auf Öko) Banner nicht leisten. Ich hab das gefühl die Verzögerungen in sachen R600 sind definitiv auf AMD zurückzuführen. AMD will etwas was Profit abwirgt und dan passt ein 256 Bit SI und gerade so schnell wie G80 mit weniger Watt besser.
Nehmen wir rein Theoretisch an wir hätten 2 Grafikkarten. Eine von der Firma X und eine von der Firma Z. Beide ungefähr gleich schnell bis auf einen kleinen Vorteil für die Firma X. Doch die Firma Z liefert ein besseres Preis/Leistungs/Verbrauchs Konzept mit. Was glaubt ihr wieveile dann von den für den Käufer relewanten Seiten die Firma X und wieveile die Firma Z anpreisen werden???
Man murmelt schon seit geraumer Zeit dass G80 frueher ankommt; haette sich dieser nicht leicht verspaetet waere es sogar ans halbe Jahr frueher gewesen.
Nur so ganz nebenbei die zeitige Version des R600 verbrennt mehr Strom als G80.
dargo
2006-11-10, 12:51:54
Das ist nicht mehr ATi. Das ist AMD/ATi.
Die ATI Übernahme ist viel zu kurz her als das irgendwelche Auswirkungen auf den R600 hätte.
Nehmen wir rein Theoretisch an wir hätten 2 Grafikkarten. Eine von der Firma X und eine von der Firma Z. Beide ungefähr gleich schnell bis auf einen kleinen Vorteil für die Firma X. Doch die Firma Z liefert ein besseres Preis/Leistungs/Verbrauchs Konzept mit. Was glaubt ihr wieveile dann von den für den Käufer relewanten Seiten die Firma X und wieveile die Firma Z anpreisen werden???
Ich könnte wetten Firma X. Den Otto-Normaluser interessiert (leider) der Stromverbrauch recht wenig.
Ailuros
2006-11-10, 12:52:01
Man, man, man. Bei dir ist es nicht einfach paar Details rauszukriegen. ;)
Die Frage ist jetzt wieviel höher?
Oder andersrum, wie hoch muss der R600 getaktet sein um mitzuziehen?
Und ich werde es Dir auch nicht leicht machen. Momentan liegt er auf dem Nivaeu der heutigen Generation; hoehere Frequenzen und Treiberfuchteleien sorgen dann schon fuer sehr konkurrenzfaehige Leistung und man wird hoffentlich den Stromverbrauch auch etwas kontrollieren koennen.
Zuerst schnappten ihnen die ROPs zurueck ins Gesicht und jetzt die Taktrate; falls sie es noch nicht in Griff haben sollten, wird es aber auch wohl nicht mehr lange dauern.
AnarchX
2006-11-10, 12:52:22
Die Texel- und Pixelleistung ist dagegen aber schwächer, wenn es aber die Effizienz der R520/R580 Architektur hat, ist das kein Problem. Die kommt ja bekanntlich ohne viel Füllraten aus.
Nur hat die G80-Architektur in diesem Bereich auch R5xx überholt.
dargo
2006-11-10, 12:55:10
für 512 Bit bräuchte man warscheinlich 14-16 Layer.
Waren es nicht 20?
Und ich werde es Dir auch nicht leicht machen. Momentan liegt er auf dem Nivaeu der heutigen Generation; hoehere Frequenzen und Treiberfuchteleien sorgen dann schon fuer sehr konkurrenzfaehige Leistung und man wird hoffentlich den Stromverbrauch auch etwas kontrollieren koennen.
.
Das ist schwach. 50% mehr Leistung einfach aus dem Treiber kitzeln ist nicht toll.
Ronny145
2006-11-10, 12:56:44
Nur so ganz nebenbei die zeitige Version des R600 verbrennt mehr Strom als G80.
Das gibt mir wenig Hoffnung, hoffentlich ändert sich das noch. klingt nämlich nicht so, als ob das nur 5 Watt wären.
Ailuros
2006-11-10, 12:57:53
Das ist schwach. 50% mehr Leistung einfach aus dem Treiber kitzeln ist nicht toll.
So schwach ist das gar nicht wenn man weiss mit welcher Frequenz das Ding momentan laeuft und was das finale Frequenz-Ziel ist.
Ailuros
2006-11-10, 12:58:28
Das gibt mir wenig Hoffnung, hoffentlich ändert sich das noch. klingt nämlich nicht so, als ob das nur 5 Watt wären.
Eine 0 fehlt Dir noch.
The Jackal
2006-11-10, 12:58:48
Irgendwie redet ihr von so einer tollen Pro/MHz leistung der G80.
Also ich finde da nix dolles wenn ich ein teil des Chips auf 1350 MHz hochjagen muß um da Leistung rauszuholen. Die 600 MHz für den restlichen Chip dürfen dann nicht mehr als Allgemeinmaßstab genommen werden.
Mich würde interessieren wie schnell der Chip währe wenn er komplett nur mit 600 MHz laufen würde.
So schach ist das gar nicht wenn man weiss mit welcher Frequenz das Ding momentan laeuft und was das finale Frequenz-Ziel ist.
Und welche Frequenz ist es denn?
... ;)
dargo
2006-11-10, 12:59:26
Nur so ganz nebenbei die zeitige Version des R600 verbrennt mehr Strom als G80.
Waren das nicht 400Mhz? Habe es, glaube ich, irgendwo schon mal gelesen.
The Jackal
2006-11-10, 13:02:12
Waren es nicht 20?
NV 5800 6 Layer
5900 8
Der 9700 hat ja 8 Layer Speicherinterface 256
9800
9800XT
X800
X850
10 Layer Generationen
6800
7800
7900
X1800
X1900
X1950
Tippe auf Experimentierphase mit dem X1950 Pro mit Digital PWM auf 12 Layer. <<<< kann mich auch irren, nicht hauen
Ronny145
2006-11-10, 13:02:53
Eine 0 fehlt Dir noch.
50 Watt :eek: Ist schon ein Batzen. NVIDIA scheint das besser in den Griff zu bekommen, obwohl größerer Fertigungsprozess.
dargo
2006-11-10, 13:03:42
Irgendwie redet ihr von so einer tollen Pro/MHz leistung der G80.
Also ich finde da nix dolles wenn ich ein teil des Chips auf 1350 MHz hochjagen muß um da Leistung rauszuholen. Die 600 MHz für den restlichen Chip dürfen dann nicht mehr als Allgemeinmaßstab genommen werden.
Mich würde interessieren wie schnell der Chip währe wenn er komplett nur mit 600 MHz laufen würde.
Also, das verstehe ich jetzt überhaupt nicht. Wo ist das Problem wenn die Shadereinheiten es zulassen?
Ich habe schon gesehen (falls es stimmt) was eine Übertaktung der Shadereinheiten um 24% bewirken kann. Das hat mir gereicht. Zwar wurde der GPU-Takt auch um 24% angehogen, Speicher um 13%, aber alleine der Shader-Takt sollte da schon eine große Rolle spielen.
Ailuros
2006-11-10, 13:04:00
Ach Bitte....^^ :)
Aber Scherz beiseite, warum sollte der G80 effektiver sein, als der R600?
Wenn ich davon ausgehe, dass der R600 96 USCs und einen Takt von etwa 750Mhz hat, ist der G80 in der Shaderleistung schwächer.
Da werdens nur etwa 520Gflops, der R600 dagegen schafft etwa 650Gflops.
Die Texel- und Pixelleistung ist dagegen aber schwächer, wenn es aber die Effizienz der R520/R580 Architektur hat, ist das kein Problem. Die kommt ja bekanntlich ohne viel Füllraten aus.
Nur laeuft der G80 momentan nur auf dem einen Gleis; nun ja nicht ganz so aber wenn ich die MUL Einheit abrechne sind es 346 GFLOPs. So und warum ist er jetzt trotz allem schneller als R580?
GFLOP Raten koennen einen viel zu leicht auf den falschen Pfad bringen ;)
Ailuros
2006-11-10, 13:05:46
Irgendwie redet ihr von so einer tollen Pro/MHz leistung der G80.
Also ich finde da nix dolles wenn ich ein teil des Chips auf 1350 MHz hochjagen muß um da Leistung rauszuholen. Die 600 MHz für den restlichen Chip dürfen dann nicht mehr als Allgemeinmaßstab genommen werden.
Mich würde interessieren wie schnell der Chip währe wenn er komplett nur mit 600 MHz laufen würde.
Tja Megahertz alleine bestimmen Dir gar nichts wie jede andere Zahl ohne eine Architektur generell in Betracht zu nehmen (siehe auch meinen vorigen Post).
dargo
2006-11-10, 13:06:12
NV 5800 6 Layer
5900 8
Der 9700 hat ja 8 Layer Speicherinterface 256
9800
9800XT
X800
X850
10 Layer Generationen
6800
7800
7900
X1800
X1900
X1950
Tippe auf Experimentierphase mit dem X1950 Pro mit Digital PWM auf 12 Layer. <<<< kann mich auch irren, nicht hauen
Das Problem ist aber das PCB. Für 512Bit SI sind 16 Speicherchips nötig die kein Platz auf dem PCB haben. Und um die Speicherchips zusätzlich auf die Rückseite zu packen wären 20 Layer nötig (meine ich gelesen zu haben, kann mich aber auch irren).
Ailuros
2006-11-10, 13:09:01
50 Watt :eek: Ist schon ein Batzen. NVIDIA scheint das besser in den Griff zu bekommen, obwohl größerer Fertigungsprozess.
Es ist so viel weil das Ding noch nicht Produktionsreif ist; Entwickler brauchen keine besondere Leistung um sich eine Architektur anzusehen und ihren code darauf zu vergleichen. Es geht auch locker mit vorzeitigen samples und IHVs verschicken stets halbfertiges Zeug. Vor dem G70 Launch gab's fuer die Entwickler 7800GTs (ja 5 quads) mit <<400MHz.
Das Endresultat duerfte oder sollte nicht so viel verbrauchen, er wird aber trotz allem nicht weniger als G80 verbraten.
The Jackal
2006-11-10, 13:09:56
Das Problem ist aber das PCB. Für 512Bit SI sind 16 Speicherchips nötig die kein Platz auf dem PCB haben. Und um die Speicherchips zusätzlich auf die Rückseite zu packen wären 20 Layer nötig (meine ich gelesen zu haben, kann mich aber auch irren).
Wer sagt das wir nicht eine wiedergeburt einer 7900 GX2 sehen würden.
Doch das 512 Bis SI kommt unter AMD's führung mit sicherheit nicht.
Das werden wir vieleicht mit dem R700 erst sehen fals AMD ATi nicht an die Wand fährt.
Hvoralek
2006-11-10, 13:10:01
Nur laeuft der G80 momentan nur auf dem einen Gleis; nun ja nicht ganz so aber wenn ich die MUL Einheit abrechne sind es 346 GFLOPs. So und warum ist er jetzt trotz allem schneller als R580?
GFLOP Raten koennen einen viel zu leicht auf den falschen Pfad bringen ;)In der Praxis sollte aber auch die sehr viel größere Füllrate (>3x) eine Rolle spielen :wink:
dargo
2006-11-10, 13:10:24
Nur laeuft der G80 momentan nur auf dem einen Gleis; nun ja nicht ganz so aber wenn ich die MUL Einheit abrechne sind es 346 GFLOPs.
Gilt das allgemein für den G80 oder nur für die GTX?
Bezogen auf das:
http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/page23.asp
Ailuros
2006-11-10, 13:11:25
In der Praxis sollte aber auch die sehr viel größere Füllrate (>3x) eine Rolle spielen :wink:
Ja schon; nur was ist mit rein synthetischen Shadertests? Hast Du digit-lifes review schon gelesen?
dargo
2006-11-10, 13:11:37
Wer sagt das wir nicht eine wiedergeburt einer 7900 GX2 sehen würden.
Ich. Aus einem einfachen Grund - die Verlustleistung lässt so eine Konstruktion nicht zu.
Ailuros
2006-11-10, 13:13:07
Gilt das allgemein für den G80 oder nur für die GTX?
Bezogen auf das:
http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/page23.asp
Da musst Du die Kerle bei B3D fragen, denn die haben das Ding ja auch entdeckt; oder eben jemand mit Erfahrung der auf einer 8800GTS GPUbench laufen lassen kann.
The Jackal
2006-11-10, 13:13:53
Ich. Aus einem einfachen Grund - die Verlustleistung lässt so eine Konstruktion nicht zu.
Ich meinte auch die länge des PCB's und nicht den Doppelwopper. :biggrin:
Auserdem, in sweet memories of ASUS Dual 7800 GT. Rein rechnerisch wahren da soch schon 512 Bit SI und eine ausreichen große GPU verglichbar mit dem utopischem R600 512Bit SI schon drauf.
Ailuros
2006-11-10, 13:15:35
Ich. Aus einem einfachen Grund - die Verlustleistung lässt so eine Konstruktion nicht zu.
Huh? Wieso? Also ich kann als Verbraucher zwei G80 in ein System stecken brauch 4 Stromstecker und ein Ueber-PSU und eine GX2 waere in absehbarer Zukunft nicht moeglich? Ab 80nm vielleicht schon wenn es ihnen zu eng wird.
Hvoralek
2006-11-10, 13:15:53
Ja schon; nur was ist mit rein synthetischen Shadertests? Hast Du digit-lifes review schon gelesen?Das nicht, aber bei xbitlabs (http://www.xbitlabs.com/articles/video/display/gf8800_17.html) liegt die GTX meist 60-120% vorne.
Was meinst Du damit, dass die GTX "momentan nur auf dem einen Gleis [laufe]"? Stimmt etwas mit der MUL- Einheit nicht?
Ailuros
2006-11-10, 13:17:09
Das nicht, aber bei xbitlabs (http://www.xbitlabs.com/articles/video/display/gf8800_17.html) liegt die GTX meist 60-120% vorne.
Was meinst Du damit, dass die GTX "momentan nur auf dem einen Gleis [laufe]"? Stimmt etwas mit der MUL- Einheit nicht?
http://www.beyond3d.com/reviews/nvidia/g80-arch/index.php?p=11
dargo
2006-11-10, 13:23:53
Ich meinte auch die länge des PCB's und nicht den Doppelwopper. :biggrin:
Ich meine die Breite/Höhe ist das Problem.
http://img92.imageshack.us/img92/2171/8800gtsxs2.jpg
Wo soll man hier noch zusätzlich 4 Speicherchips für 1GB Vram (512MB machen ja wohl keinen Sinn mehr) unterbringen?
Edit:
An dieser Stelle gleich ne Frage - sind in nächster Zeit 128MB GDDR4 Speicherchips geplant?
dargo
2006-11-10, 13:31:06
Huh? Wieso? Also ich kann als Verbraucher zwei G80 in ein System stecken brauch 4 Stromstecker und ein Ueber-PSU und eine GX2 waere in absehbarer Zukunft nicht moeglich?
Natürlich. Aber 2x G8800GTX ist nicht gleich 1x G8850GX2. ;)
Die GTXen haben einen Doppelslotkühler (sogar mit Heatpipes). Schauen wir uns mal eine G7950GX2 an.
http://pics.computerbase.de/1/4/6/4/7/53_m.jpg
Ich würde jetzt mal behaupten, dass bei so einer Konstruktion aus zwei G8800GTS GPUs die untere sich "auflösen" würde. Dafür hat der G80 einfach zu viel Verlustleistung. Selbst die obere GPU würde man nicht auf 100°C mit so einem Kühler halten können.
Ab 80nm vielleicht schon wenn es ihnen zu eng wird.
Ich tippe erst bei 65nm auf eine neue GX2. :)
Gaestle
2006-11-10, 14:09:00
Zuerst schnappten ihnen die ROPs zurueck ins Gesicht und jetzt die Taktrate; falls sie es noch nicht in Griff haben sollten, wird es aber auch wohl nicht mehr lange dauern.
Wie lange schätzt Du den Zeitraum, der ab jetzt noch für die Produktionsreife benötigt wird (wenn nichts mehr dazwischen kommt)? Ist das dann das/der finale Tape-out?
Wie lange dauert es üblicherweise von der Produktionsreife bis zu Karten im Laden?
gespanntt
2006-11-10, 14:26:13
Kann man von denn entwicklern und denn bedeutenen Leuten die schon ein sample vom R600 gekriegt haben feedback erwarten?Könnte da vielleicht was durchsickern wie gut der chip jetzt schon ist mit denn niedrigen taktraten?
[MK2]Mythos
2006-11-10, 14:34:31
Kann man von denn entwicklern und denn bedeutenen Leuten die schon ein sample vom R600 gekriegt haben feedback erwarten?Könnte da vielleicht was durchsickern wie gut der chip jetzt schon ist mit denn niedrigen taktraten?
Eher nicht, vorallem würde das nichts darüber aussagen, wie schnell dann die finale Version wird.
aylano
2006-11-10, 14:59:14
Also ich finde da nix dolles wenn ich ein teil des Chips auf 1350 MHz hochjagen muß um da Leistung rauszuholen. Die 600 MHz für den restlichen Chip dürfen dann nicht mehr als Allgemeinmaßstab genommen werden.
Gibts da Gerüchte, ob ATI bei der R600 die Shader doppelt so hoch takten wird, wie der restliche Chip??
Anderst gesagt, hat ATI schon bei der R580 die Shader schon höher takten lassen, als der restliche Chip´??
robbitop@work
2006-11-10, 15:02:04
grundsätzlich haste da recht, aber die andeutungen von ailuros haste aber schon gelesen, oder? ;)
Ich bin für meiner Einer eher skeptisch. Ailuros hat sicher gute Quellen, aber auch er weiß nicht alles (auch wenn es oftmals so wirkt). ;)
dargo
2006-11-10, 15:04:34
Anderst gesagt, hat ATI schon bei der R580 die Shader schon höher takten lassen, als der restliche Chip´??
Das wäre mir neu, afaik nein.
aylano
2006-11-10, 18:01:30
Ich bin gespannt, ob AMD/ATI Stromspar-Funktionien in den Refresh des R600 (oder R700) einbaut.
Immerhin hat AMD-Erfahrung mit C&Q und der neuen Stromsparfunktion, wo im Quad-Core je nach Bedarf die 4-Cores mit 100%/50%/0%/0% laufen.
Wie groß ist die Chance bzw. die Schwierigkeit, dass so was ähnliches umgesetzt werden kann???
Ailuros
2006-11-10, 18:40:41
Ich bin für meiner Einer eher skeptisch. Ailuros hat sicher gute Quellen, aber auch er weiß nicht alles (auch wenn es oftmals so wirkt). ;)
Ich hab nie behauptet dass ich alles weiss, ganz im Gegenteil. Meine Vorfahren hatte eine ziemlich unangenehme Gewohnheit; wenn einem die Nachricht nicht gefallen hat, verlor der Kurier seinen Kopf.
Und das heisst nur eines: behaltet Euren Humor und nehmt das Leben nicht zu ernst. Man liest etwas und sollte es durch seine eigene Logik filtern; Skeptizismus ist dann eine sehr gesunde Reaktion. Schon dass man es schafft jemand zum denken zu bringen reicht vollkommen aus.
Ich hab wie gesagt keine Sorgen fuer R600 denn ein bisschen wacher ist ATI in letzter Zeit schon geworden und ein paar mehr ISVs stehen diesmal auf ihrer Seite.
Hvoralek
2006-11-10, 23:48:56
Gibts da Gerüchte, ob ATI bei der R600 die Shader doppelt so hoch takten wird, wie der restliche Chip??Sicher, dass sich das nicht auf G80 bezog?
Anderst gesagt, hat ATI schon bei der R580 die Shader schon höher takten lassen, als der restliche Chip´??Bei R580 taktet der komplette Chip gleich. Bei G7x laufen zT die VS mit ein paar MHz mehr, das war es dann aber mW auch im letzten Jahr.
Ailuros
2006-11-11, 09:16:39
http://www.beyond3d.com/forum/showpost.php?p=871045&postcount=359
http://www.vr-zone.com/?i=4293
http://www.theinquirer.net/default.aspx?article=35614
Slipknot79
2006-11-11, 12:51:08
http://www.beyond3d.com/forum/showpost.php?p=871045&postcount=359
http://www.vr-zone.com/?i=4293
http://www.theinquirer.net/default.aspx?article=35614
>Therefore it will have a new 2x4 pin connector for additional power on top of the current 6-pin connector.
Wie ich sowas liebe, wieso können die es nicht so machen wie NV bei G80, einfach noch nen 6piningen Anschluss... Das hat mal wieder entweder ein neues Netzteil zur Folge oder einen neuen Adapter bei dem ein Molexstecker seitlich unsexy raushängt...
-------------------------------------------------------------------------------------------
Weiter geht's. (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=332313)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.