Archiv verlassen und diese Seite im Standarddesign anzeigen : NV50 / G80?
Ailuros
2006-02-22, 13:42:32
Warum?
Weil ein USC naeher an einer CPU liegt.
Man erspart sich nichts, aber man verschwendet auch nichts.
Nettes Oxymoron ;)
Und das R580 schneller ist, ist auch nicht wirklich verwunderlich, immerhin benötigt R580 380mio Transistoren, während Xenos mit 250mio auskommt. Alles andere wäre erbärmlich.
Dahinwieder fehlt im nicht nur der Speichercontroller sondern auch einige Einzelheiten eines PC chips die er dank der Bandbreite von eDRAM fuer MSAA nicht braucht. Optimiert fuer 720p und dafuer ist das Design auch gut genug. Auf dem PC waere Xenos so wie er jetzt ist eher erbaermlich und ja er wurde fuer eine Console zugeschnitten.
Ich bin hier mal so frei, und kopiere Quasars Beitrag aus einem anderen Thread:
C1: 48 Vec4+1-MADD-ALUs mit 500 MHz.
-> 48*(4+1)*(4+4)*500= 960.000
R520: 16*Vec4-MADD+16*Vec4-ADD+8*Vec4+1-MADD*625 MHz.
-> (16*4*(4+4))+(16*4*4)+(8*(4+1)*(4+4))*625= 680.000
Siehe nicht nur oben, aber erklaer mir erstmal warum man im zweiten Fall nicht die FLOPs der VS dazurechnen sollte. Ich will Deinen eigenen Beitrag und am liebsten etwas dass Du auch selber verstehst, sonst blubbere ich lieber direkt mit Quasar.
Also selbst wenn man die Taktfrequenz berücksichtigt, erreicht Xenos einen wesentlich höheren PS/VS-Output, hinzu kommt noch die bessere Lastverteilung.
Ich warte immer noch auf eine halbwegs logische Antwort warum R400 fuer den PC storniert wurde (und sich in Xenos umwandelte) und man stattdessen mit R4xx/5xx fuer den PC ankam. 500MHz sind ja sowieso ziemlich niedrig beim Xenos, ergo zeig mir erstmal das theoretische Monstrum dass ich auch in Echtzeit nicht sehen kann.
Okay, der fehlt natürlich. Trotzdem sehe ich keine Transistorenverschwendung bei Xenos.
Wo sagte ich das Transistoren auf Xenos verschwendet wurden? Xenos ist ein consolen chip fuer 720p + 4xMSAA optimiert, wenn man 3 viewports einlegt. Als ich meine Haende auf die XBox360 legte war mir bewusst dass Entwickler erstmal tiling einsetzen muessen fuer AA, aber wo zum Henker war/ist ein Schimmer von AF und wieso haut mir uebertriebenes Z-aliasing die Augen aus?
***edit: um Missverstaendnissen zu entgehen ich erwarte auch nichts besseres von PS3. Im Vergleich zu RSX ist Xenos sowieso technisch wesentlich interessanter. Sonst reduzieren ISVs sowieso weiss der Geier was alles dass sie auch 30 oder 60fps fuer 720p (je nach Fall) einhalten koennen und Benchmarks fuer Consolen gibt es ja sowieso nicht ;)
Der Logik nach würde auch ein US-Design Sinn machen, aber vermutlich hast du recht.
Tja wenn man eben nicht gleich auf einen vollen USC geht, dann ist dieses eine logische Loesung.
ShadowXX
2006-02-22, 13:46:17
Und das R580 schneller ist, ist auch nicht wirklich verwunderlich, immerhin benötigt R580 380mio Transistoren, während Xenos mit 250mio auskommt. Alles andere wäre erbärmlich.
Pack mal alles, was dem C1 gegenüber dem r580 fehlt mit in den C1 rein und zähle dann mal die Transistoren....würde mich nicht Wundern, wenn wie auf ähnliche Zahlen kommen würden.
Ich bin hier mal so frei, und kopiere Quasars Beitrag aus einem anderen Thread:
C1: 48 Vec4+1-MADD-ALUs mit 500 MHz.
-> 48*(4+1)*(4+4)*500= 960.000
R520: 16*Vec4-MADD+16*Vec4-ADD+8*Vec4+1-MADD*625 MHz.
-> (16*4*(4+4))+(16*4*4)+(8*(4+1)*(4+4))*625= 680.000
http://www.forum-3dcenter.de/vbulletin/showpost.php?p=3973170&postcount=66
Also selbst wenn man die Taktfrequenz berücksichtigt, erreicht Xenos einen wesentlich höheren PS/VS-Output, hinzu kommt noch die bessere Lastverteilung.
Theorie und Praxis......in der Theorie müsste ein G70 auch einen r520 vom Shaderpower her vernaschen...tut er aber nicht.
Und Lastverteilung hin und her....der r520 braucht diese Lastverteilung ja nicht mal, da er eben getrennte Einheiten hat und die VS eher unterlastet sind.
Anders gesagt: Die Lastverteilung bringt dem C1 keine Vorteile, sondern eher den Nachteil, das er nicht alle 48 ALUs als PS benutzen kann.
Okay, der fehlt natürlich. Trotzdem sehe ich keine Transistorenverschwendung bei Xenos.
Verschwendet wurde beim C1-Design bestimmt kein einziger Transistor....das Ding soll möglichst preiswert sein.
Ich könnte mir allerdings vorstellen, das da mehr als ein Kompromiss im Design gemacht wurde, die man allerdings solange man kein Dev-Kit hat und nur die theoretischen Specs liesst einfach nicht bemerkt.
Der Logik nach würde auch ein US-Design Sinn machen, aber vermutlich hast du recht.
Das kommt doch ganz darauf an.
Wenn ich beim Testen bemerke, das meine dedizierten PS-ALUs schneller sind als meine US-ALUs und dabei noch im Hinterkopf habe, das VS-Power sowieso mehr als genug vorhanden ist wenn ich 8-12 davon ins Design nehme, dann es durchaus sehr sinnvoll sein, das ganze in PS und VS/GS zu trennen.
Wenn US-ALUs wirklich zu diesem Zeitpunkt schon der Weißheit letzter Schluss gewesen wären, dann hätte ATI den C1 auch als Desktop-Chip anstatt r520 bzw. erst recht anstatt r580 gebracht.
Ailuros
2006-02-22, 13:52:05
Darin, das ich nie 48VS* benötige (im Gamingbereich...das hatte ich oben aber auch mit dazugeschrieben)
*48 jetzt einfach als Zahl für die Shadereinheiten...kann man auch 96 oder 128 einsetzen wenn man möchte.
Deshalb auch meine Anmerkung: "....bis zu dem Zeitpunkt, wo es Transistor, Budget & Performancemäßig gleichteuer/schnell ist ob man eine US-ALU oder eine PS-ALU einzusetzt..."
Das das ganze im Profi CAD/CAM-Markt etwas anderes aussieht, will ich gar nicht bestreiten....
Und meine heutigen 8 VS MIMDs werden fuer PC gaming heutzutage voll ausgereizt oder was? Lies nochmal mein Beispiel oben. Hab ich bei einer Architektur einen guten Thread-scheduler oder Arbeits-"Verteiler" steigt oder sinkt theoretisch meine Produktivitaet und Redundanz?
Schlecht abzuschätzen IMHO, da keine Mensch weiß, die Potent das C1-Design wirklich ist in relation zu einem PC-Design.
Auch wenn Reunion es nicht glauben will, ist ein x1800xt ja sogar lt. ATI selbst schneller als ein C1.
Ich hab keinen einzigen Zweifel dass es so ist wie ATI behauptet. Andersrum haben andere genauso eine Macke wenn sie glauben dass RSX schneller ist als ein G70. IMO stets.
Quasar ich hab's zwar 3x mal durchgelesen, aber ich hab nur Bahnhof verstanden. Worauf willst Du ueberhaupt hinaus mit der Rechnung?
Ganz einfach gesagt: Mit einem fixen Transistor-/Taktbudget bekommst du weniger Leistung bei traditionellen Spielen raus, wenn du US benutzt, als wenn du spezialisierte Einheiten hast.
Das selbe Spielchen, wie damals bei Hardware TnL vs. Vertexshadern.
Du brauchst erst eine oder zwei Generationen, bis die programmierbareren (Komparativ!!) Einheiten die Leistung der spezialisierteren Einheiten erreichen.
Nun kommst du aber:
Was mir hier aber Sorgen macht sind Geometrie/Vertex Texturen und die dementsprechende Latenz. Es wird sicher einen Weg geben es zu loesen, die Frage ist aber dann was es in HW genau kosten wuerde.
Und genau dort hast du den Riesenvorteil von US-Einheiten: Du kannst diese ganze VTMU-Scheisse damit "ordentlich" (so hoffe ich jedenfalls mal!!) lösen, du kannst gleichzeitig einen Praxis-Testlauf mit deinen US fahren und hast im Idealfall (Anwendungsspezifische Optimierung) auch noch mehr Pixelleistung, als wenn du reine VS+PS eingesetzt hättest.
Q
ShadowXX
2006-02-22, 14:05:31
Und meine heutigen 8 VS MIMDs werden fuer PC gaming heutzutage voll ausgereizt oder was? Lies nochmal mein Beispiel oben. Hab ich bei einer Architektur einen guten Thread-scheduler oder Arbeits-"Verteiler" steigt oder sinkt theoretisch meine Produktivitaet und Redundanz?
Nein.....eben gerade drum.
Ich gehe davon aus, das im Moment eine US-Unit teuer und langsamer ist als eine dedizierte Unit.
Und solange dieses gegeben ist, ist es IMHO sinniger nur dort US-Einheiten einzusetzen, wo es auch wirklich 100%igen Sinn macht (eben z.B. bei VS + GS).
Warum soll ich auf den Chip 48US-Einheiten raufknallen, wenn ich weiß, das 40-Units davon sowieso nie als VS benötigt werden würden...ich dagegen aber vorteile habe, wenn ich diese 40 Units nur als dedizierte (und damit schnellere, mächtigere) PS-Units einbaue.
Ich hätte dann für den Fall des Falles (in diesem also ein 40PS + 8US Design) im max. Fall immer noch 48 "PS" zur Verfügung, verschwende aber bei 40 Units keine VS+GS Transistoren, sondern könnte diese gesparte dazu nutzen schnellere PS-Units einzusetzen.
Ich behaupte ja nicht, das diese Lösung der weißheit letzter Schluss ist und das das ganze in ein zwei Jahren ganz anders aussieht, sondern sehe es nur von der momentanen Warte aus (also: Was brauchen wir jetzt).
Und genau dort hast du den Riesenvorteil von US-Einheiten: Du kannst diese ganze VTMU-Scheisse damit "ordentlich" (so hoffe ich jedenfalls mal!!) lösen, du kannst gleichzeitig einen Praxis-Testlauf mit deinen US fahren und hast im Idealfall (Anwendungsspezifische Optimierung) auch noch mehr Pixelleistung, als wenn du reine VS+PS eingesetzt hättest.
Und diesen Vorteil hab ich sogar noch völlig übersehen.....
Ailuros
2006-02-22, 14:08:19
Ganz einfach gesagt: Mit einem fixen Transistor-/Taktbudget bekommst du weniger Leistung bei traditionellen Spielen raus, wenn du US benutzt, als wenn du spezialisierte Einheiten hast.
Das selbe Spielchen, wie damals bei Hardware TnL vs. Vertexshadern.
Du brauchst erst eine oder zwei Generationen, bis die programmierbareren (Komparativ!!) Einheiten die Leistung der spezialisierteren Einheiten erreichen.
Wobei aber meine Frage bleibt: wieso wuerde ich mit theoretischen 380M mit einem USC nicht auf R580-Leistung kommen? Es gibt fuer mich bis jetzt keine guten Beispiele die mich zu einer logischen Schlussvolgerung fuehren wuerden. Nun gut ausgekapselt nur fuer Consolen Xenos vs. RSX; wobei beide IHVs (oder Sony und Microsoft) mit GFLOP Zahlen herumprotzen und es sieht wohl eher danach aus dass es sich um Gleichstand handelt, ohne dass der Transistor-budget der beiden einen grossen Unterschied vorzeigt. Zugegeben eDRAM fuer Xenos, hier hab ich aber das Gefuehl dass Xenos es um einiges leichter haben wird mit Multisampling wenn Entwickler tiling richtig einsetzen.
Nun kommst du aber:
Und genau dort hast du den Riesenvorteil von US-Einheiten: Du kannst diese ganze VTMU-Scheisse damit "ordentlich" (so hoffe ich jedenfalls mal!!) lösen, du kannst gleichzeitig einen Praxis-Testlauf mit deinen US fahren und hast im Idealfall (Anwendungsspezifische Optimierung) auch noch mehr Pixelleistung, als wenn du reine VS+PS eingesetzt hättest.
Wie gesagt ich koennte mir vorstellen dass es auf einem non-USC loesbar ist, aber umsonst in HW sicher erstmal nicht. Darauf zu beruhen dass man die Latenz des VT hinter sehr langen pixel shaders versteckt waere Schwachsinn; das haben wir schon heute seit dem NV40.
Ailuros
2006-02-22, 14:14:34
Nein.....eben gerade drum.
Ich gehe davon aus, das im Moment eine US-Unit teuer und langsamer ist als eine dedizierte Unit.
Und solange dieses gegeben ist, ist es IMHO sinniger nur dort US-Einheiten einzusetzen, wo es auch wirklich 100%igen Sinn macht (eben z.B. bei VS + GS).
Das beantwortet aber nicht meine Frage ob heutzutage meine VS Einheiten voll augelastet werden oder nicht.
Warum soll ich auf den Chip 48US-Einheiten raufknallen, wenn ich weiß, das 40-Units davon sowieso nie als VS benötigt werden würden...ich dagegen aber vorteile habe, wenn ich diese 40 Units nur als dedizierte (und damit schnellere, mächtigere) PS-Units einbaue.
Ich hätte dann für den Fall des Falles (in diesem also ein 40PS + 8US Design) im max. Fall immer noch 48 "PS" zur Verfügung, verschwende aber bei 40 Units keine VS+GS Transistoren, sondern könnte diese gesparte dazu nutzen schnellere PS-Units einzusetzen.
ALUs:
RSX = 48 PS + 8 VS (wenn ich vom G70 ausgehe)
Xenos = 48 PS/VS
Was verpasse ich gerade?
Und diesen Vorteil hab ich sogar noch völlig übersehen.....
*ahem*
Jetzt kombinier mal mit dem obrigen. Wollen wir fuer die ersten D3D10 GPUs nicht vielleicht etwas dass zumindest einen voll potentiellen SM3.0 chip darstellt, wobei das zusaetzliche Zeug fuer SM4.0 eher dekorativ auf der Featureliste steht damit Entwickler damit rumfummeln koennen?
Wobei aber meine Frage bleibt: wieso wuerde ich mit theoretischen 380M mit einem USC nicht auf R580-Leistung kommen? Es gibt fuer mich bis jetzt keine guten Beispiele die mich zu einer logischen Schlussvolgerung fuehren wuerden.
Gegenfrage: Wären die IHVs für einen Überhypten Next-Gen-Chip mit "nur" R580-Leistung zufrieden? Ich denke nicht – es muss schon deutlich mehr sein.
Allerdings glaube ich auch nicht, dass ein US-Design mit 380M Transistoren bereits R580 Leistung bei gleichem Takt erreicht. Dafür sind dort noch zuviele spezialisierte Einheiten vorhanden.
Wie gesagt ich koennte mir vorstellen dass es auf einem non-USC loesbar ist, aber umsonst in HW sicher erstmal nicht. Darauf zu beruhen dass man die Latenz des VT hinter sehr langen pixel shaders versteckt waere Schwachsinn; das haben wir schon heute seit dem NV40.
Das ist es ja eben: Du hast quasi schon USCs, kannst sie aber aus Performance- und Kostengründen noch nicht für alle Shader einsetzen, da besonders die Pixelteile noch schneller sind bzw. es dort eher klemmt, als im VS-Bereich.
Nun hast du die Wahl, entweder einen Testlauf mit Option auf erhöhte Pixelleistung mit deinen USC zu fahren, zusätzlich zu herkömmlichen PS-Einheiten oder für eine "Zwischengeneration" nochmals neue VS zu entwickeln, die du dann später beim reinen USC wieder wegwerfen kannst.
Q
ALUs:
RSX = 48 PS + 8 VS (wenn ich vom G70 ausgehe)
Xenos = 48 PS/VS
Was verpasse ich gerade?
Du verpasst, dass wir von einem hypothetischen Next-Gen Chip sprechen und nicht zwei völlig nicht vergleichbare Architekturen miteinander vergleichen, wie es Xenos und RSX/G70 darstellen.
Beschränke dich auf eine von beiden und schaue, ob du bei ansonstem gleichen Transistor- und Taktbudget innerhalb derselben Architektur mehr Leistung mit einem USC oder mit einem teilweise spezialisierten Shader erreichen kannst.
Q
Siehe nicht nur oben, aber erklaer mir erstmal warum man im zweiten Fall nicht die FLOPs der VS dazurechnen sollte. Ich will Deinen eigenen Beitrag und am liebsten etwas dass Du auch selber verstehst, sonst blubbere ich lieber direkt mit Quasar.
"(8*(4+1)*(4+4))"
Das sind bereits die VS. :)
Q
reunion
2006-02-22, 14:45:38
Auch wenn Reunion es nicht glauben will, ist ein x1800xt ja sogar lt. ATI selbst schneller als ein C1.
Daran zweifle ich nicht.
Weil ein USC naeher an einer CPU liegt.
Das bringt mich kein Stück weiter. Warum liegt ein USC näher an der CPU, und warum machen deshalb mächtigere ALUs keine Sinn?
Siehe nicht nur oben, aber erklaer mir erstmal warum man im zweiten Fall nicht die FLOPs der VS dazurechnen sollte. Ich will Deinen eigenen Beitrag und am liebsten etwas dass Du auch selber verstehst, sonst blubbere ich lieber direkt mit Quasar.
Wie Quasar schon anmerkte sind die 8MADDs am Ende bereits die VS.
Und was willst du da von mir? Xenos kann schafft 48 MADDs für PS + VS. R520 hat 16MADDs plus 16ADDs für PS und 8 MADDs für die VS, ist also zumindest auf dem Papier klar unterlegen.
reunion
2006-02-22, 14:51:44
Pack mal alles, was dem C1 gegenüber dem r580 fehlt mit in den C1 rein und zähle dann mal die Transistoren....würde mich nicht Wundern, wenn wie auf ähnliche Zahlen kommen würden.
Ohen zu wissen, was wieviel Transistoren kostet, ist das unmöglich.
Und Lastverteilung hin und her....der r520 braucht diese Lastverteilung ja nicht mal, da er eben getrennte Einheiten hat und die VS eher unterlastet sind.
Anders gesagt: Die Lastverteilung bringt dem C1 keine Vorteile, sondern eher den Nachteil, das er nicht alle 48 ALUs als PS benutzen kann.
Hä? Bei R520 muss ich 8 "Einheiten" als VS ofern, egal ob ich diese benötige oder nicht. Diesen Nachteil habe ich bei einen US-Chip nicht. Inwiefern das ein Nachteil sein soll, versteh ich jetzt wirklich nicht.
reunion
2006-02-22, 14:57:06
Ganz einfach gesagt: Mit einem fixen Transistor-/Taktbudget bekommst du weniger Leistung bei traditionellen Spielen raus, wenn du US benutzt, als wenn du spezialisierte Einheiten hast.
Das selbe Spielchen, wie damals bei Hardware TnL vs. Vertexshadern.
Du brauchst erst eine oder zwei Generationen, bis die programmierbareren (Komparativ!!) Einheiten die Leistung der spezialisierteren Einheiten erreichen.
Was zu beweisen wäre. Und wenn man so will, ist R600 bereits die dritte US-Generation von ATi.
Ailuros
2006-02-22, 15:08:55
Gegenfrage: Wären die IHVs für einen Überhypten Next-Gen-Chip mit "nur" R580-Leistung zufrieden? Ich denke nicht – es muss schon deutlich mehr sein.
Ich sehe im besten Fall 80nm fuer solche chips fuer 2006; jetzt kommen erstmal noch die uebermaessig grossen Vorraussetzungen fuer D3D10 dazu und da moechte ich wirklich wissen wieviel Platz fuer sehr viel mehr Leistung in heutigen Spielen uebrigbleibt.
Ausser 65nm ist eine Option fuer 2005 und ich hab es verpasst.
Allerdings glaube ich auch nicht, dass ein US-Design mit 380M Transistoren bereits R580 Leistung bei gleichem Takt erreicht. Dafür sind dort noch zuviele spezialisierte Einheiten vorhanden.
Es gibt aber kein handhaftes Beispiel fuer das exakte Gegenteil.
Du verpasst, dass wir von einem hypothetischen Next-Gen Chip sprechen und nicht zwei völlig nicht vergleichbare Architekturen miteinander vergleichen, wie es Xenos und RSX/G70 darstellen.
Xenos und RSX sind consolen chips; der eine ist ein USC und der andere ein non-USC. Beide sind SM3.0 kompliant. Wieso sind die beiden nicht vergleichbar?
Von dem abgesehen begrenzen bei D3D10 chips die hohen Vorraussetzungen erstmal das Transistoren-budget der IHVs. Ich schaetze an die 400M als Basis-Spekulation und mich wird auch keiner ueberzeugen dass es absolut keine Elemente aus der NV4x/G7x Generation geben wird. Rein theoretisch brauechte man die VS fuer GS erweitern, texture von ALU OPs entkoppeln, schnelles PS dynamisches branching, effizientes vertex/geometry texturing usw. (wenn auch nicht gleich einen neuen Speichercontroller...).
Also was schmeiss ich von den 302M des G7x raus und wieviel Luftraum hab ich rein theoretisch den obrigen bulk von Schnickschnacks einzubauen?
Ich versuche selber das Ganze momentan zu verstehen, aber eine klare Entscheidung was wirklich besser ist kann ich noch nicht treffen weil ich erstens keine guten Beispiele habe und viel zu viele Fragezeichen noch habe was die D3D10 Vorraussetzungen betrifft.
Beschränke dich auf eine von beiden und schaue, ob du bei ansonstem gleichen Transistor- und Taktbudget innerhalb derselben Architektur mehr Leistung mit einem USC oder mit einem teilweise spezialisierten Shader erreichen kannst.
Was aber nicht unbedingt leicht faellt mit so vielen Fragezeichen. Mit RSX vs Xenos bin ich zumindest auf einem sicherem Pfad. Woher soll ich um Gottes Willen als Laie wissen wieviel der oben erwaehnte Schnickschnack kosten wuerde in Transistoren?
"(8*(4+1)*(4+4))"
Das sind bereits die VS.
My bad then. Ich komm komischerweise nur auf ~18% Unterschied (fuer Xenos) und bei weitem keine 40+% wie bei Deiner Rechnung, aber ich bin auch ehrlich gesagt viel zu faul momentan mir darueber den Kopf zu zerbrechen.
Andersrum ich sehe 192GFLOPs fuer Xenos und 246GFLOPs fuer RSX (PS+VS), wobei jetzt aber im zweiten Fall gleich wieder die texture OPs mitspielen wuerden.
ShadowXX
2006-02-22, 15:11:57
Hä? Bei R520 muss ich 8 "Einheiten" als VS ofern, egal ob ich diese benötige oder nicht. Diesen Nachteil habe ich bei einen US-Chip nicht. Inwiefern das ein Nachteil sein soll, versteh ich jetzt wirklich nicht.
Du "opferst" Sie ja nicht, sondern Sie sind ja extra zu den PS verbaut.
Beim US musst du jeweils ein paar Units "opfern" um als VS zu fungieren.
(Wenn der r580 ein US-Design geworden wäre, dann hätten wir wohl 48US-Einheiten, aber bestimmt nicht 56).
Aber darum gehts in der Diskussion ja momentan gar nicht.
Es geht auch nicht darum, ob US nun die Zukunft ist oder nicht.....auch ich sehe US-Designs als Zukunft.
Die Frage ist nur: Ist ein reines US-Design für den nächsten Chip (also den ersten D3D10-Chip) schon die beste Lösung, oder ist die Lösung die Q bzw. auch ich vorschlagen nicht die bessere.
Speziell im Hinblick auf schon vorhandene und in nächster Zeit kommende Games, denn wie AiL indirekt schon anmerkte, werden die D3D10-Features wohl eher Checklisten-Features für die Devs sein.
(Und die eine oder andere ATI/nV-Demo + 3DMark07 wirds benutzen.)
reunion
2006-02-22, 15:13:14
Nein.....eben gerade drum.
Ich gehe davon aus, das im Moment eine US-Unit teuer und langsamer ist als eine dedizierte Unit.
Und solange dieses gegeben ist, ist es IMHO sinniger nur dort US-Einheiten einzusetzen, wo es auch wirklich 100%igen Sinn macht (eben z.B. bei VS + GS).
Warum soll ich auf den Chip 48US-Einheiten raufknallen, wenn ich weiß, das 40-Units davon sowieso nie als VS benötigt werden würden...ich dagegen aber vorteile habe, wenn ich diese 40 Units nur als dedizierte (und damit schnellere, mächtigere) PS-Units einbaue.
Ich hätte dann für den Fall des Falles (in diesem also ein 40PS + 8US Design) im max. Fall immer noch 48 "PS" zur Verfügung, verschwende aber bei 40 Units keine VS+GS Transistoren, sondern könnte diese gesparte dazu nutzen schnellere PS-Units einzusetzen.
Wenn es so wäre, dann wäre man wirklich blöd, einen US-Core zu bauen. Wenn es wirklich so wäre, dann würde ATi beim R600 wohl kaum ein solches Design wählen.
Offensichtlich ist man bei ATi aber im Gegensatz zu nV schon so weit, dass die Vorteile überwiegen.
Ailuros
2006-02-22, 15:18:56
Das bringt mich kein Stück weiter. Warum liegt ein USC näher an der CPU, und warum machen deshalb mächtigere ALUs keine Sinn?
Ist ein USC oder nicht verdammt naeher an einer GPGPU? (general purpose). Definier mal eine CPU.
Wie Quasar schon anmerkte sind die 8MADDs am Ende bereits die VS.
Und was willst du da von mir? Xenos kann schafft 48 MADDs für PS + VS. R520 hat 16MADDs plus 16ADDs für PS und 8 MADDs für die VS, ist also zumindest auf dem Papier klar unterlegen.
Was soll das MADD Gewarkel?
Xenos:
8 FLOPs/ALU * 48 * 0.5 GHz
R520:
12 FLOPs/ALU * 16 * 0.625 GHz
8 FLOPs/ALU * 8 * 0.625 GHz
Ailuros
2006-02-22, 15:23:43
Du "opferst" Sie ja nicht, sondern Sie sind ja extra zu den PS verbaut.
Beim US musst du jeweils ein paar Units "opfern" um als VS zu fungieren.
(Wenn der r580 ein US-Design geworden wäre, dann hätten wir wohl 48US-Einheiten, aber bestimmt nicht 56).
Aber darum gehts in der Diskussion ja momentan gar nicht.
Es geht auch nicht darum, ob US nun die Zukunft ist oder nicht.....auch ich sehe US-Designs als Zukunft.
Die Frage ist nur: Ist ein reines US-Design für den nächsten Chip (also den ersten D3D10-Chip) schon die beste Lösung, oder ist die Lösung die Q bzw. auch ich vorschlagen nicht die bessere.
Speziell im Hinblick auf schon vorhandene und in nächster Zeit kommende Games, denn wie AiL indirekt schon anmerkte, werden die D3D10-Features wohl eher Checklisten-Features für die Devs sein.
(Und die eine oder andere ATI/nV-Demo + 3DMark07 wirds benutzen.)
Ich will nur lesen wo die Vor- oder Nachteile ueberwiegen insgesamt (ja selbst theoretisch) fuer die eine oder andere Seite.
Zusammen haben wir schon einen nennenswerten Vorteil erkannt, was Textur-Latenzen betrifft. Wollen wir einen sehr effizienten und schnellen SM3.0 chip diesmal haben oder nicht?
reunion
2006-02-22, 15:24:50
Du "opferst" Sie ja nicht, sondern Sie sind ja extra zu den PS verbaut..)
Klar.
Beim US musst du jeweils ein paar Units "opfern" um als VS zu fungieren.
Logisch, dafür erspar ich mir die extra VS/GS. Ich sehe noch immer keinen Nachteil, sondern einen Vorteil, da ich nur soviel ALUs "opfern" muss, wie ich auch benötige, und nicht wie bei einem heute üblichen Design die Häfte der VS Däumchen drehen müssen.
(Wenn der r580 ein US-Design geworden wäre, dann hätten wir wohl 48US-Einheiten, aber bestimmt nicht 56).
Wie kommst du auf das jetzt bzw. wo ist der Zusammenhang?
Warum könnte R580 als US-Design nicht 64 ALUs haben?
Aber darum gehts in der Diskussion ja momentan gar nicht.
Es geht auch nicht darum, ob US nun die Zukunft ist oder nicht.....auch ich sehe US-Designs als Zukunft.
Die Frage ist nur: Ist ein reines US-Design für den nächsten Chip (also den ersten D3D10-Chip) schon die beste Lösung, oder ist die Lösung die Q bzw. auch ich vorschlagen nicht die bessere.
Speziell im Hinblick auf schon vorhandene und in nächster Zeit kommende Games, denn wie AiL indirekt schon anmerkte, werden die D3D10-Features wohl eher Checklisten-Features für die Devs sein.
(Und die eine oder andere ATI/nV-Demo + 3DMark07 wirds benutzen.)
Das kann man wohl erst beurteilen, wenn man weiß, wie schnell R600 bzw. G80 werden.
Ailuros
2006-02-22, 15:26:46
Wenn es so wäre, dann wäre man wirklich blöd, einen US-Core zu bauen. Wenn es wirklich so wäre, dann würde ATi beim R600 wohl kaum ein solches Design wählen.
Das einzige was man ueber R6xx wetten kann momentan ist dass es ein USC werden wird mit hoechster Wahrscheinlichkeit. Von dem abgesehen wird R6xx nicht nur von einem ganz anderem Team entwickelt sondern die interne Murmelei spricht von was "Xenos haette sein koennen". Bist Du weisser damit? Ich auf jeden Fall nicht.
Ailuros
2006-02-22, 15:28:54
Das kann man wohl erst beurteilen, wenn man weiß, wie schnell R600 bzw. G80 werden.
Ich erwarte keine massive Leistungsteigerung im Vergleich zu heutigen und noch nicht veroeffentlichten GPUs; ich lass mich aber gerne eines besseren belehren (und natuerlich mich mehr darauf freuen ;) ).
reunion
2006-02-22, 15:40:20
Ist ein USC oder nicht verdammt naeher an einer GPGPU? (general purpose). Definier mal eine CPU.
Okay, und warum machen deshalb mächtigere ALUs keine Sinn?
Was soll das MADD Gewarkel?
Xenos:
8 FLOPs/ALU * 48 * 0.5 GHz
R520:
12 FLOPs/ALU * 16 * 0.625 GHz
8 FLOPs/ALU * 8 * 0.625 GHz
So gehts natürlich auch.
Wobei die Taktfrequenz bei Xenos wohl nur aufgrund des Konsolendesigns so niedrig ist.
Ich sehe im besten Fall 80nm fuer solche chips fuer 2006; jetzt kommen erstmal noch die uebermaessig grossen Vorraussetzungen fuer D3D10 dazu und da moechte ich wirklich wissen wieviel Platz fuer sehr viel mehr Leistung in heutigen Spielen uebrigbleibt.
Ausser 65nm ist eine Option fuer 2005 und ich hab es verpasst.
Den Fertigungsprozess habe ich bewußt herausgelassen, da dessen Vorteile ja quasi 1:1 auch auf ein herkömmliches Design übertragbar wären.
Es gibt aber kein handhaftes Beispiel fuer das exakte Gegenteil.
Nein, aber es ist aufgrund der Erfahrungen der Vergangenheit und dem Schicksal des R400 doch wahrscheinlich, oder?
Xenos und RSX sind consolen chips; der eine ist ein USC und der andere ein non-USC. Beide sind SM3.0 kompliant. Wieso sind die beiden nicht vergleichbar?
Weil eine "Pipeline" von Nvidia und eine "Pipeline" von Ati deutlich unterschiedliche Transistorencounts haben. Und eben auch deutlich unterschiedliche Leistungscharakteristika besitzen.
Beispiele (Xenos):
- nur 16 TMUs
- GDDR3/4-Speicherinterface
- ROPs ausgelagert
- offenbar keine Hilfseinheiten
Ich denke, hier ist's schwierig, US und non-US zu vergleichen.
My bad then. Ich komm komischerweise nur auf ~18% Unterschied (fuer Xenos) und bei weitem keine 40+% wie bei Deiner Rechnung, aber ich bin auch ehrlich gesagt viel zu faul momentan mir darueber den Kopf zu zerbrechen.
Ich glaube, du rechnest beim Xenos mit Vec3+skalar, aber bei B3D oder so stand was von Vec4+skalar. Das sind mal locker 25% Unterschied.
Das ist auch eines der Probleme, die ich beim US sehe: Offenbar scheint es bei den VS sinnvoll zu sein, sich nicht auf Vec3+skalar zu beschränken, also müsste man alle US-Einheiten ebenfalls Vec4+skalar-tauglich auslegen. Das kostet wieder Transistoren und ich bin mir nicht sicher, ob diese zusätzliche SIMD-Breite für den Pixelbereich so sinnvoll genutzt werden könnte.
Q
Warum könnte R580 als US-Design nicht 64 ALUs haben?
Versteh ich auch irgendwie nicht
Einerseits wird behauptet, die R580 ALUs wären komplexer (~60 Millionen Transistoren/32 ALUs), andererseits soll man auf einem US keine grössere Anzahl von einfacheren ALUs unterbringen.
Ailuros
2006-02-22, 16:16:47
Den Fertigungsprozess habe ich bewußt herausgelassen, da dessen Vorteile ja quasi 1:1 auch auf ein herkömmliches Design übertragbar wären.
Es gibt Dir aber eine spekulative obere Grenze was und was nicht moeglich ist.
Nein, aber es ist aufgrund der Erfahrungen der Vergangenheit und dem Schicksal des R400 doch wahrscheinlich, oder?
Dann hasst Du meinen Kommentar was R6xx betrifft verpasst; "Xenos as it should have been".
Weil eine "Pipeline" von Nvidia und eine "Pipeline" von Ati deutlich unterschiedliche Transistorencounts haben. Und eben auch deutlich unterschiedliche Leistungscharakteristika besitzen.
Beispiele (Xenos):
- nur 16 TMUs
- GDDR3/4-Speicherinterface
- ROPs ausgelagert
- offenbar keine Hilfseinheiten
Ich denke, hier ist's schwierig, US und non-US zu vergleichen.
Ich sehe nicht ein warum ich bei quasi gleich geschaetzter Leistung nicht zwei SM3.0 Consolen-chips vergleichen koennte. Auf jeden Fall ist so ein Vergleich logischer als eine PC mit einer Consolen-Architektur zu vergleichen.
Ich glaube, du rechnest beim Xenos mit Vec3+skalar, aber bei B3D oder so stand was von Vec4+skalar. Das sind mal locker 25% Unterschied.
Die 192 GFLOPs stammen aus einem ATI Dokument.
Das ist auch eines der Probleme, die ich beim US sehe: Offenbar scheint es bei den VS sinnvoll zu sein, sich nicht auf Vec3+skalar zu beschränken, also müsste man alle US-Einheiten ebenfalls Vec4+skalar-tauglich auslegen. Das kostet wieder Transistoren und ich bin mir nicht sicher, ob diese zusätzliche SIMD-Breite für den Pixelbereich so sinnvoll genutzt werden könnte.
Keine blasse Ahnung. Ich kann Dir momentan auch nicht sagen warum intern bei ATI man R6xx als einen um einiges besseren Design klassifiziert. Natuerlich ist es eine Generation weiter und solche Kommentare sind zu erwarten, aber fuer einen optimalen USC wuerde ich Xenos auch nicht unbedingt nehmen, wenn ich fuer D3D10 spekulieren soll.
ShadowXX
2006-02-22, 16:17:18
Okay, und warum machen deshalb mächtigere ALUs keine Sinn?
Weil Sie nur dann retabel sind/wären, wenn alle Funktionalitäten der ALU (also PS, VS & GS) gleichermassen davon profitieren.
Wenn du an die ALU ein X für bessere PS-Performance, ein Y für bessere VS-Performance und dann noch ein Z für bessere GS-Performance dranhängst, werden die einzelnen Einheiten zu "schwer".
Man beschränkt sich bei GP deshlab meistens darauf sich auf das zu Konzentreien, was wirklich alle gebrauchen können....der Rest fällt weg und muss dann durch Masse "ausgeglichen" werden.
Dedizierte Einheiten sind nunmal immer schneller.
Versteh ich auch irgendwie nicht
Einerseits wird behauptet, die R580 ALUs wären komplexer (~60 Millionen Transistoren/32 ALUs), andererseits soll man auf einem US keine grössere Anzahl von einfacheren ALUs unterbringen.
Wären die US-ALUs denn wirklich ingesamt einfacher (Vom reinen Rechenpart wären Sie wohl einfacher, aber der Rest drumherum)?
Und wieviel mehr bräuchte man, um die Geschwindigkeit von dedizierten Alus zu erreichen.
Prinzipiel hat ATI schon die Antwort mit dem r520 und dem r580 gegeben....wenn US besser und/oder schneller wäre, hätten Sie es für diese Chips benutzt.
Ich will nur lesen wo die Vor- oder Nachteile ueberwiegen insgesamt (ja selbst theoretisch) fuer die eine oder andere Seite.
Zusammen haben wir schon einen nennenswerten Vorteil erkannt, was Textur-Latenzen betrifft. Wollen wir einen sehr effizienten und schnellen SM3.0 chip diesmal haben oder nicht?
Ich sehe die theoretischen Vorteile ein PS + VS/GS - Architektur darin, das das, was in der Lebenszeit des Chips benötigt wird (PS-Power), mit diesem Konzepet einfacher und preiswerter Hergestellt werden kann.
Den monströsen PS/GS-Power die ein reines US-Design bringen könnte, ist innerhalb des nächsten 1-1 1/2 Jahren wohl unnötig....PS-Power wird momentan immer wichtiger.
Dedizierte PS-Einheiten sind schneller als GPUS-Einheiten im PS-Bereich.
Zusätzlich wäre es Transistorverschwendung, wenn alle Einheiten VS/GS Rechnen können, wenn es bei 90% der Einheiten immer brach liegt.
Deshalb ja auch mein Satz:
Solange eine US-Einheit langsamer und/oder teurer als eine dedizierte Einheit ist, finde ich den Ansatz das ganze weiterhin zu trennen....am besten partiell (also eben 48PS + 12 US)...sinniger.
Ob der r600 denn nun wirklich eine vollständiger US-Architektur wird und wie schnell dieser ist, weiß momentan keiner.
Vielleicht bekommen wir bei r600 vs. G80 ja die Antwort....
Es gibt Dir aber eine spekulative obere Grenze was und was nicht moeglich ist.
Ja, aber eben, wie gesagt, nicht einem US-Design exklusiv vorbehalten. Die Vorteile von höherem Takt/mehr Transistoren kämen einem non-US-Design genauso zu Gute.
Die 192 GFLOPs stammen aus einem ATI Dokument.
Das glaube ich dir. Aber andererseits glaube ich auch, dass die Vec4+1 nicht aus der Luft gegriffen sind. Bei simplen VS-Aufgaben scheinen sie durchaus gut zu gebrauchen zu sein und bevor ich einen kompletten Pass für eine reine Skalar-Operation zusätzlich einlege, baue ich mir die Dinger doch lieber parallel ein.
Q
Wären die US-ALUs denn wirklich ingesamt einfacher (Vom reinen Rechenpart wären Sie wohl einfacher, aber der Rest drumherum)?
Und wieviel mehr bräuchte man, um die Geschwindigkeit von dedizierten Alus zu erreichen.
Wieviele? Keine Ahnung. Sag du es mir. :biggrin:
Prinzipiel hat ATI schon die Antwort mit dem r520 und dem r580 gegeben....wenn US besser und/oder schneller wäre, hätten Sie es für diese Chips benutzt.
ATI hat sich beim R5x0 die TMUs für den VS gespart.
Beim R600 müsste man diese nun einbauen. Vielleicht ist der Transistoraufwand dafür ja so groß, dass man stattdessen auch gleich einen US nutzen kann.
Btw.: Offizielle Angabe von ATI zu den Xenos-Alus ist 4+1.
Quelle (http://www.ati.com/developer/eg05-xenos-doggett-final.pdf)
Hatte eigentlich letztens nicht jemand behauptet zwischen GPU und Daughter-Die hätte man keine z-Compression? :|
Ailuros
2006-02-22, 16:39:24
Quasar,
Ich bin zu faul jetzt die oeffentliche Erklaerung fuer Xenos in den B3D boards zu finden (mir rennt auch die Zeit aus). Wenn ich's nicht vergesse und es finden sollte schick ich's Dir per e-mail rueber.
Shadow,
Ich sehe die theoretischen Vorteile ein PS + VS/GS - Architektur darin, das das, was in der Lebenszeit des Chips benötigt wird (PS-Power), mit diesem Konzepet einfacher und preiswerter Hergestellt werden kann.
Den monströsen PS/GS-Power die ein reines US-Design bringen könnte, ist innerhalb des nächsten 1-1 1/2 Jahren wohl unnötig....PS-Power wird momentan immer wichtiger.
Dedizierte PS-Einheiten sind schneller als GPUS-Einheiten im PS-Bereich.
Zusätzlich wäre es Transistorverschwendung, wenn alle Einheiten VS/GS Rechnen können, wenn es bei 90% der Einheiten immer brach liegt.
Was mir bei Deiner These nicht passt ist die angebliche Verschwendung wenn alle Einheiten ueber PS/GS/VS faehig sind. Dafuer brauchen USCs thread-scheduler damit die jeweiligen Arbeiten auch dementsprechend verteilt werden, im Idealfall hockt keine Einheit dumm rum und es darf auch zu keinem Leerlauf kommen.
Ich verstehe das Zeug mit der monstroesen PS Power nun auch wieder nicht, hier mal eine gute (leicht irrelevante) Lektuere:
http://www.st.cs.uni-sb.de/edu/seminare/2005/advanced-fp/docs/sweeny.pdf
In manchen Stellen wuerde ich schon wieder sagen dass Sweeney wieder spinnt, aber es gibt auch viele gute Punkte in dem Ding. Wie genau soll ich die 500GFLOPs fuer shading interepretieren denn ich bin fast vom Sessel gefallen?
reunion
2006-02-22, 16:40:56
Weil Sie nur dann retabel sind/wären, wenn alle Funktionalitäten der ALU (also PS, VS & GS) gleichermassen davon profitieren.
Wenn du an die ALU ein X für bessere PS-Performance, ein Y für bessere VS-Performance und dann noch ein Z für bessere GS-Performance dranhängst, werden die einzelnen Einheiten zu "schwer".
Man beschränkt sich bei GP deshlab meistens darauf sich auf das zu Konzentreien, was wirklich alle gebrauchen können....der Rest fällt weg und muss dann durch Masse "ausgeglichen" werden.
Danke, das leutet ein. Wobei es ja im Grunde egal ist, ob ich viele schwächere ALUs, oder weniger stärkere verbaue.
Prinzipiel hat ATI schon die Antwort mit dem r520 und dem r580 gegeben....wenn US besser und/oder schneller wäre, hätten Sie es für diese Chips benutzt.
Richtig, allerdings scheint man das bei R600 anders zu sehen. Offenbar ist man inzwischen schon so weit, dass die Vorteile der US-Architektur überwiegen.
Deshalb ja auch mein Satz:
Solange eine US-Einheit langsamer und/oder teurer als eine dedizierte Einheit ist, finde ich den Ansatz das ganze weiterhin zu trennen....am besten partiell (also eben 48PS + 12 US)...sinniger.
Das wird wohl niemand negieren. Nur wird man auch irgendwann einen Punkt erreichen, wo das nicht mehr, oder nur mehr bedingt zutrifft.
An so ein "Halbe-Halbe-Design" glaube ich allerdings nicht.
Ob der r600 denn nun wirklich eine vollständiger US-Architektur wird und wie schnell dieser ist, weiß momentan keiner.
Dass R600 ein USC wird, ist so gut wie sicher, Dave Orton deutete das bereits mehrmals an.
Der Geometry- und Vertexshader müssen unified sein. Weil da würde man sonst wirklich doppelt so viel ALUs benötigen um vergleichbare Leistung zu erhalten, weil sehr oft einer der beiden gar nichts macht.
Ailuros
2006-02-23, 04:02:46
Uebrigens mal ganz nebenher, afaik noch kein tape-out :rolleyes:
MadManniMan
2006-02-23, 04:50:18
Uebrigens mal ganz nebenher, afaik noch kein tape-out :rolleyes:
Hui, Paperlaunch ahoi? Wird ja auch langsam Zeit, daß man mal wieder was nich kaufen kann, was vorgestellt wird :D
Ailuros
2006-02-23, 08:58:40
Hui, Paperlaunch ahoi? Wird ja auch langsam Zeit, daß man mal wieder was nich kaufen kann, was vorgestellt wird :D
Wer sagte was von einem Paperlaunch? Es heisst wohl eher dass die Dinger vielleicht doch nicht so frueh antanzen wie erwartet.
Wieso? Für Oktober würde es wenn in den nächsten 2 Monaten das Tapeout passiert ja noch reichen
Ailuros
2006-02-23, 09:07:58
Wieso? Für Oktober würde es wenn in den nächsten 2 Monaten das Tapeout passiert ja noch reichen
Kommt ganz drauf an was jeder genau meint; fragst Du intern nach sagt man Dir "it's done", wobei man aber natuerlich nicht sagt was es genau bedeuten soll. Der chalkboard design war schon Anfang 2004 fertig, unter dem Sinn war er schon damals "done".
Mir sass der GTX512 Zwischenschieber schon irgendwie komisch; ob das Anzeichen und fuer was sind kann ich noch nicht sagen oder ob es sie bis Q3 noch schaffen.
MadManniMan
2006-02-23, 14:19:46
Achso, Oktober? Ich war von August ausgangen ;(
Sunrise
2006-02-23, 23:15:57
Das einzige was man ueber R6xx wetten kann momentan ist dass es ein USC werden wird mit hoechster Wahrscheinlichkeit. Von dem abgesehen wird R6xx nicht nur von einem ganz anderem Team entwickelt sondern die interne Murmelei spricht von was "Xenos haette sein koennen". Bist Du weisser damit? Ich auf jeden Fall nicht.
Man weiß ja bereits seit dem damaligen, und darüber hinaus auch sehr interessanten Interview, dass Orton bereits vor Einführung von R420 (also etwa dem Zeitpunkt, als R400 schon länger kein Thema mehr war - tatsächlich schon etliche Jahre her), ganz stolz mit dem Finger Richtung R600 zeigte.
Insofern ist auch die Aussage "What Xenos should have been" vollkommen nachvollziehbar. Schlauer wird man dadurch sicher nicht unbedingt, aber es macht doch deutlich, mit welchem Sprung (that is "generational leap") sie bereits damals schon liebäugelten.
In R400/Xenos wurde jedenfalls beträchtlich investiert, und das will natürlich auch möglichst umfangreich geerntet werden.
seahawk
2006-02-24, 08:34:02
VISTA kommt frühstens im Dezember. Wer seinen Chip zu früh auf den Markt schmeißt gibt der Konkurrenz die Möglichkeit zu reagieren udn trotzdem am Markt zu sein, wenn VISTA kommt. Man belauert sich.
mapel110
2006-02-24, 08:41:37
VISTA kommt frühstens im Dezember. Wer seinen Chip zu früh auf den Markt schmeißt gibt der Konkurrenz die Möglichkeit zu reagieren udn trotzdem am Markt zu sein, wenn VISTA kommt. Man belauert sich.
Man kann so schnell gar nicht reagieren, dass es viel ausmachen würde. Innerhalb einiger Monate bastelt man nicht mal eben hier und da noch Transistoren ein. Einzig bei den Taktraten und dem Speicher kann man variieren. Und solche Änderungen kann man auch noch mal schnell innerhalb einiger Wochen nachlegen.
Wenn der Chip fertig ist, bringt man ihn auch auf den Markt. Da wartet man nicht. Man wäre ja dämlich einen zeitlichen Vorsprung vor der Konkurrenz nicht zu nutzen.
Techdemos kann man ja auch entweder unter Opengl coden oder man zeigt einfach erstmal Videos der Techdemos, war ja bei der X1800 auch so.
robbitop@work
2006-02-24, 09:17:58
Hatte eigentlich letztens nicht jemand behauptet zwischen GPU und Daughter-Die hätte man keine z-Compression? :|
Steht doch alles im Xenos Report von B3D.
Steht doch alles im Xenos Report von B3D.
Da steht das selbe wie im ATI Dokument.
War vielleicht die Verbindung zwischen Rops und eDRAM gemeint?
Nunja egal.
robbitop@work
2006-02-24, 11:08:35
Da steht das selbe wie im ATI Dokument.
War vielleicht die Verbindung zwischen Rops und eDRAM gemeint?
Nunja egal.
Ist schon lang her, seit dem ich das letzte Mal in die Dokus geschaut habe (soeben nachgeholt). Jepp es ist die Verbindung zw ROPs und eDRAM.
Da würde Z-Kompression auch keinen Sinn machen, weil das erst die ROPs erledigen können.
robbitop@work
2006-02-24, 11:26:32
Da würde Z-Kompression auch keinen Sinn machen, weil das erst die ROPs erledigen können.
Ist mir, nach dem ich drüber nachgedacht habe, auch klar geworden. ;)
Steht doch alles im Xenos Report von B3D.
Zwischen GPU und Daughter Die gibt es sehr wohl Z-Compression, ansonsten würden 32GB/s auch nicht ausreichen.
All of this processing is performed on the parent die and the pixels are then transferred to the daughter die in the form of source colour per pixel and loss-less compressed Z, per 2x2 pixel quad. The interconnect bandwidth between the parent and daughter die is only an eighth of the eDRAM bandwidth because the source colour data value is common to all samples of a pixel here, and the Z is compressed.
- NV50-related...
- "Increasing flexibility of the programmability, enabling the artists to express themselves in a free way."
- "Our next generation product will just take [effects] to a brand new level"
- "Our next generation product is the combination of 3 years of heavy-duty work. We started architecting it about 4 years ago, and, you know, my best calculations have this investing $250M into it already, and by the time it launches as well as the entire product family, we will have invested about $500M in R&D."
- "It is a spectacular computing machine and, uhm, we can't wait to show it to you later this year".
- "And this year, along with Vista, is going to introduce a very important new API, it's called DX10"
- "And DX10 is just a giant leap forward in unifying the way people program graphics. Instead of, you know,"
"vertices, and shaders and textures, it's unified in a very elegant way. And it's unified in a way that
"makes it possible for us to abstract [GPU] programming to the next level."
- "Our DX10 [part] is nearly finished now, and uhm, it'll be rolled out this year sometime."
- "And, uhm, if I have my way, our next generation GPU will be the first DX10 GPU in the world."
http://www.rage3d.com/board/showthread.php?t=33847879
info
Was soll das auf Deutsch für normale Menschen heißen ?
ShadowXX
2006-03-09, 23:37:56
Was soll das auf Deutsch für normale Menschen heißen ?
Das die GPU laut nVidia ein "voll krasses Gerät" sein soll.
Da steht im Prinzip nicht mehr als das die GPU D3D10-tauglich ist, verdammt viel Geld in der Entwicklung gekostet hat, nV meint diese vor ATI zu bringen und das Sie lt. nV natürlich die beste, schönste und schnellste GPU sein wird.
Viel PR...ein paar Informationen. Nichts weltbewegenes.
Das hier:
"And DX10 is just a giant leap forward in unifying the way people program graphics. Instead of, you know,"
"vertices, and shaders and textures, it's unified in a very elegant way. And it's unified in a way that
"makes it possible for us to abstract [GPU] programming to the next level."
Hört sich IMHO aber tatsächlich so an, als wenn die Shader des G80 nicht vollkommen unified Shader sind, sondern eher das als Gerücht herumschwirrende PS als "Standalone" + einen unified VS/GS.
Was haltet ihr davon ?
Haltet ihr es, wie ich möglich, dass NVIDIA seit über 2 Jahren an einer Monsterkarte schraubt ?
Ich denke immernoch, dass der G80 ziwschen Mai und Julsi kommt.^^
Xptweaker
2006-03-11, 09:36:53
Gibts immer noch keine näheren Infos wann fer G80 erscheinen soll oder ... ?
Kladderadatsch
2006-03-11, 09:58:12
in manchen 7900gtx-tests steht 'in einem halben jahr'...
Ailuros
2006-03-11, 13:54:45
Man weiß ja bereits seit dem damaligen, und darüber hinaus auch sehr interessanten Interview, dass Orton bereits vor Einführung von R420 (also etwa dem Zeitpunkt, als R400 schon länger kein Thema mehr war - tatsächlich schon etliche Jahre her), ganz stolz mit dem Finger Richtung R600 zeigte.
Insofern ist auch die Aussage "What Xenos should have been" vollkommen nachvollziehbar. Schlauer wird man dadurch sicher nicht unbedingt, aber es macht doch deutlich, mit welchem Sprung (that is "generational leap") sie bereits damals schon liebäugelten.
In R400/Xenos wurde jedenfalls beträchtlich investiert, und das will natürlich auch möglichst umfangreich geerntet werden.
Xenos bekommt einen Abschlag fuer den PDA/mobile Markt afaik.
Egal ob USC oder nicht ich lege momentan mein Geld auf dual oder sogar triple issue ALUs.
Winter[Raven]
2006-03-11, 14:17:05
Xenos bekommt einen Abschlag fuer den PDA/mobile Markt afaik.
Egal ob USC oder nicht ich lege momentan mein Geld auf dual oder sogar triple issue ALUs.
beim G80?
Eigentlich erwarte ich von G80 ähnliches wie vom NV40 ;) NV40 war mehr als eindeutiges zurückmelden und NV40*2 = G80 *fg*
Ailuros
2006-03-11, 14:42:26
']beim G80?
Eigentlich erwarte ich von G80 ähnliches wie vom NV40 ;) NV40 war mehr als eindeutiges zurückmelden und NV40*2 = G80 *fg*
NV40:
16 * 12 FLOPs * 0.4 GHz = 76.8 GFLOPs
G71:
24 * 16 FLOPs * 0.65GHz = 250 GFLOPs
Selbst "NV40*4" waere viel zu wenig. Bist Du sicher dass Du das nicht nochmal ueberdenken willst?
Winter[Raven]
2006-03-11, 14:47:16
NV40:
16 * 12 FLOPs * 0.4 GHz = 76.8 GFLOPs
G71:
24 * 16 FLOPs * 0.65GHz = 250 GFLOPs
Selbst "NV40*4" waere viel zu wenig. Bist Du sicher dass Du das nicht nochmal ueberdenken willst?
Mensch, du hast mich falsch verstanden ^^, mit NV40*2 meinte ich doch nicht Rechenleistung oder ähnliches... sondern einfach nur die Hoffnung, dass der G80 so ähnlich einschlagen wird wie es der NV40 tat.
G80 = NV40*2 // rein namentlicher Zufall *gG*
Ailuros
2006-03-11, 14:52:43
']Mensch, du hast mich falsch verstanden ^^, mit NV40*2 meinte ich doch nicht Rechenleistung oder ähnliches... sondern einfach nur die Hoffnung, dass der G80 so ähnlich einschlagen wird wie es der NV40 tat.
G80 = NV40*2 // rein namentlicher Zufall *gG*
So ueberzeugt bin ich momentan noch nicht. Es kommt stets darauf an was die Konkurrenz vorzeigen wird.
Quasar
2006-03-11, 15:13:44
In Sachen Bildqualität scheint "die Konkurrenz" ja zumindest auf bestem Wege. Jetzt noch TMU und bessere Kühlung bzw. weniger Abwärme und Bingo.
Godmode
2006-03-11, 16:17:49
Ich frage mich, ob Nvidia überhaupt nochmal die Qualität des AFs anhebt? Also recht viel Rüge haben sie ja nicht bekommen, außer vielleicht von CB und 3DC. Es ist ja noch fast wie früher, FPS, FPS, FPS!
Hat eigentlich irgendwer das AF des g71 getestet?
Xptweaker
2006-03-11, 18:10:57
@bans3i ja leider FPS , FPS , FPS würde mir auch mehr bildquali wünschen aber die masse kauft das was die FPS bringt!
Ailuros
2006-03-12, 04:48:37
Ich frage mich, ob Nvidia überhaupt nochmal die Qualität des AFs anhebt? Also recht viel Rüge haben sie ja nicht bekommen, außer vielleicht von CB und 3DC. Es ist ja noch fast wie früher, FPS, FPS, FPS!
*kaut an Lorbeerblaettern auf einem Dreifuss* mmmm ja.....
Hat eigentlich irgendwer das AF des g71 getestet?
Was genau soll sich bei einem refresh geaendert haben?
Da waren doch auch einmal die Gerüchte im Umlauf, dass der G80 eine Dualcore GPU wäre.
Wenn dann jeder Core 32Pipes haben würde, was Heutzutage für High End Grakas durchs möglich sein müsste, dann wäre der G80 ein ziemlich brutales Kerlchen *g*
Oder wenigstens 2*24 Pipes, mit erhöhter Effizienz (siehe NV40-G70 Pipes).
Ich will jetzt endlich nen erscheinungstermin -.-
Ailuros
2006-03-17, 07:58:51
Ich will jetzt endlich nen erscheinungstermin -.-
Der Thread hat erst 16 Seiten. Nach 100 Seiten wird es erst interessant werden.
Vista kommt anscheinend in November ! Dann sollte der G80 August/September kommen denke ich mal
Ailuros
2006-03-17, 13:16:51
Vista kommt anscheinend in November ! Dann sollte der G80 August/September kommen denke ich mal
6-7 Μonate reichen aus fuer 100 Seiten :biggrin:
Angeblich arbeitet NVIDIA seit 2002 an der G80 technologie und hat schon extreme Summen da hineingesteckt.
www.pcgameshardware.de
Als ich verwette meine Rechten daumen darauf, dass der G80 den G71 wegflasht wie nicht's bzw. die die doppelt Leistung+dicke neuerungen besitzt (nich nur D3D10 sonder auch irgentwelche neuen Filter Techniken oder sowas xD )
Ich denke mal, das NVIDIA Ultra Shadow 3.0 einbauen wird und vllt starke optimierungen für HDR oder neues stärkeres AA oder sonstewas :)
So eine Entwicklungszeit ist eigentlich nicht ungewöhnlich. ATI hat sicherlich ähnliche Summen in das Unified-Shader-Projekt das mit R400 seinen Anfang nahm gesteckt.
Angeblich arbeitet NVIDIA seit 2002 an der G80 technologie und hat schon extreme Summen da hineingesteckt.
www.pcgameshardware.de
Als ich verwette meine Rechten daumen darauf, dass der G80 den G71 wegflasht wie nicht's bzw. die die doppelt Leistung+dicke neuerungen besitzt (nich nur D3D10 sonder auch irgentwelche neuen Filter Techniken oder sowas xD )
Ich denke mal, das NVIDIA Ultra Shadow 3.0 einbauen wird und vllt starke optimierungen für HDR oder neues stärkeres AA oder sonstewas :)
Der arme Daumen :)
Mancko
2006-03-18, 10:15:42
Ich frage mich, ob Nvidia überhaupt nochmal die Qualität des AFs anhebt? Also recht viel Rüge haben sie ja nicht bekommen, außer vielleicht von CB und 3DC. Es ist ja noch fast wie früher, FPS, FPS, FPS!
Mei ist genau das selbe wie mit ATI damals. Das beschissene AF des R200 und R300 hat da auch keinen interessiert. Warum solls jetzt anders sein. Ich hätte mich eher gewundert, wenn dem so wäre. Dann müsste man ja einigen eine gewisse Befangenheit unterstellen :)
Ailuros
2006-03-18, 12:47:10
So eine Entwicklungszeit ist eigentlich nicht ungewöhnlich. ATI hat sicherlich ähnliche Summen in das Unified-Shader-Projekt das mit R400 seinen Anfang nahm gesteckt.
$500M fuer die gesamte Produktlinie (top to bottom, alle bediente Maerkte ---> sales synergy) ist auch nicht gerade die Uebersumme fuer eins der beiden grossen IHVs heutzutage. Nur das mit den 4 Jahren ist etwas Quatsch. AFAIK war der chalkboard design Anfang 2004 dann festgenagelt.
Ailuros
2006-03-18, 12:48:16
Mei ist genau das selbe wie mit ATI damals. Das beschissene AF des R200 und R300 hat da auch keinen interessiert. Warum solls jetzt anders sein. Ich hätte mich eher gewundert, wenn dem so wäre. Dann müsste man ja einigen eine gewisse Befangenheit unterstellen :)
Never say never ;)
Sunrise
2006-03-18, 14:40:51
Nur das mit den 4 Jahren ist etwas Quatsch. AFAIK war der chalkboard design Anfang 2004 dann festgenagelt.Dass das Design 2004 "festgenagelt" wurde, mag ja durchaus sein, nur muss man dasselbige ja auch noch entwerfen und das sind natürlich Ereignisse, die vor dem eigentlichen "Festnageln" stattfinden.
Die 4 Jahre beziehen sich wohl auch nicht nur auf das Design an der Kreidetafel, sondern auch auf alles was damit rundherum zu tun hat. Ich halte das daher auch für alles andere als Quatsch, denn diese Aussage stammt ursprünglich von Jen-Hsun Huang persönlich und der dürfte im Gegensatz zu allen Außenstehenden wohl auch den besten Gesamtüberblick darüber haben.
Zu den Kosten:
Auf den ersten Blick mag das als relativ viel erscheinen, die geschätzte Gesamtinvestition in Summe von etwa 500 Mio. USD beinhaltet jedoch auch wirklich alle Kosten aller Produkte für jedes Segment bis hin zur Herstellung und Auslieferung. Ich will garnicht erst wissen, was ATi bereits in R400 an Kosten gesteckt hatte, bevor er "abgesägt" worden ist. Wenn wir dann noch alle möglichen Derivate dazurechnen dürfte man wohl problemlos auf ähnliche Summen kommen. Der ungefähre Betrag wurde glaube ich irgendwo mal beziefert (kann ein Quartalsbericht gewesen sein), ist mir aber inzwischen leider entfallen.
Godmode
2006-03-18, 15:44:51
Was genau soll sich bei einem refresh geaendert haben?
Ka, könnte ja ja sein, dass sie das Flimmern vermindert haben.
Gouvernator
2006-03-18, 17:29:27
also es wird bestimmt keine dual-core bei grafikkarten geben, hochstens wie jetzt bei gainward. es wird schlicht unmöglich sein die chips zu kühlen, es wird auch keine unendlich grosse piplines geben , weil die kosten auch viel strom/kühlung. in zukunft wird die leistung die ein highend chip liefern soll nicht in bestehende fertigungsprozesse passen (0.65nm und so... ) deshalb sehe ich die zukunft in quad-sli/sli , einfache grakas sind dann nur noch mainstream. oder wir bewegen uns eine zeit lang auf nicht allzu hohen niveau , bis neue fertigungsmethoden uns erlauben die chips schneller zu machen. soweit ich weiss gehts aktuell nur bis 0.29nm , jetzt nur noch berechnen was man daraus noch machen kann piplines/takt .
in zukunft wird die leistung die ein highend chip liefern soll nicht in bestehende fertigungsprozesse passen (0.65nm und so... )So ein Schwachsinn. 65nm lässt locker 64 Pixel-Pipelines zu, 45nm nochmal das doppelte.
Mit 30nm wären ggü. 90nm schon das 9x an Logik möglich also 288 Pixel-Pipelines - und nein da hört es vorraussichtlich noch nicht auf mit den Shrinks.
Grobblin
2006-03-18, 18:10:08
In der c't war glaube ich mal (so vor 1,5 Jahren) die Rede davon, dass es mit ~15nm um 2020 aufhoert.
MadManniMan
2006-03-18, 18:15:15
In der c't war glaube ich mal (so vor 1,5 Jahren) die Rede davon, dass es mit ~15nm um 2020 aufhoert.
Der Meinung war man bei 90nm auch schon - und erst bei 1GHz! Prognosen lassen sich in dieser Forschungsrichtung nicht ganz einfach formulieren ;)
Gouvernator
2006-03-18, 18:40:00
In der c't war glaube ich mal (so vor 1,5 Jahren) die Rede davon, dass es mit ~15nm um 2020 aufhoert.
Ja genau , weil dann die herstellung zu aufwändig bis gar nicht möglich wegen atomaren dimension wird.
So ein Schwachsinn. 65nm lässt locker 64 Pixel-Pipelines zu, 45nm nochmal das doppelte. Mit 30nm wären ggü. 90nm schon das 9x an Logik möglich also 288 Pixel-Pipelines - und nein da hört es vorraussichtlich noch nicht auf mit den Shrinks.
Das ist doch ganz allgemein . Wie willst du denn die 288 Piplines kühlen ? Wieviele Transistoren sind das, wieviel Storm werden sie ziehen ?
Ich habe mit meiner X1900@800mhz bereits Probleme, um sie zu kühlen muss ich einen 120mm Lüfter auf vollen 4500U/min laufen lassen. Und wenn eine Wakü mit mords Lüfter ihre Probleme hat... haha :uclap:
Ausserdem stelle ich mir folgendes vor , eine 9700/9800 wurde in 150nm hergestellt im Vergleich dazu die X1900 in 90nm . Die 60nm Unterschied sehen wir in der Leistung umgesetzt die eine X1900 jetzt liefert. So und jetzt die 90nm-60nm=30nm dann bei 30nm Vertigung gleicher Leistungsprung wie von 9700/9800 zu X1900 .
blade04
2006-03-18, 18:59:19
Da ich nicht 17 Seiten lesen möchte.
Gibts inzwischen irgendwelche anhaltspunkte / gerüchte wann der g80 kommt?
Also mein persöhnlicher tipp wäre september
Slipknot79
2006-03-18, 19:05:48
Da ich nicht 17 Seiten lesen möchte.
Gibts inzwischen irgendwelche anhaltspunkte / gerüchte wann der g80 kommt?
Also mein persöhnlicher tipp wäre september
Glaube Juni^^, frühestens versteht sich
Glaube Juni^^, frühestens versteht sich
das wäre ja zu schön ^^ ich bleib mal vorsichtig und sag september
Der Meinung war man bei 90nm auch schon - und erst bei 1GHz! Prognosen lassen sich in dieser Forschungsrichtung nicht ganz einfach formulieren ;)
nö nicht wirklich, eigentlich sollte es noch länger so weitergehen, wobei man auf cpu-seite entgegen der erwartungen zumindest taktmäßig schon einige zeit auf der stelle tritt.
15nm sind allerdings bei silizium wirklich die kleinste machbare struktur, kleiner geht es nicht mehr.
reunion
2006-03-18, 19:56:11
Das ist doch ganz allgemein . Wie willst du denn die 288 Piplines kühlen ? Wieviele Transistoren sind das, wieviel Storm werden sie .
Die Fertigungsprozesse werden ja nicht umsonst verkleinert.
Ausserdem stelle ich mir folgendes vor , eine 9700/9800 wurde in 150nm hergestellt im Vergleich dazu die X1900 in 90nm . Die 60nm Unterschied sehen wir in der Leistung umgesetzt die eine X1900 jetzt liefert. So und jetzt die 90nm-60nm=30nm dann bei 30nm Vertigung gleicher Leistungsprung wie von 9700/9800 zu X1900 .
Ich hoffe das meinst du nicht ernst.
30nm erlaubt gegenüber 90nm das neunfache an Die-Fläche, 90nm gegenüber 150nm nichtmal das dreifache.
Godmode
2006-03-18, 20:01:50
also es wird bestimmt keine dual-core bei grafikkarten geben, hochstens wie jetzt bei gainward. es wird schlicht unmöglich sein die chips zu kühlen, es wird auch keine unendlich grosse piplines geben , weil die kosten auch viel strom/kühlung. in zukunft wird die leistung die ein highend chip liefern soll nicht in bestehende fertigungsprozesse passen (0.65nm und so... ) deshalb sehe ich die zukunft in quad-sli/sli , einfache grakas sind dann nur noch mainstream. oder wir bewegen uns eine zeit lang auf nicht allzu hohen niveau , bis neue fertigungsmethoden uns erlauben die chips schneller zu machen. soweit ich weiss gehts aktuell nur bis 0.29nm , jetzt nur noch berechnen was man daraus noch machen kann piplines/takt .
Sorry, aber bis auf das, dass man irgendwan an die Grenzen der Halbleitertechnik kommt, ist alles andere aus dem Posting Bullshit.
Gouvernator
2006-03-18, 20:22:45
Sorry, aber bis auf das, dass man irgendwan an die Grenzen der Halbleitertechnik kommt, ist alles andere aus dem Posting Bullshit.
Sorry. Es war nicht als Experten Meinung gedacht . Ich kann nix dafür manchmal auch selbstständig denken zu können ;D
Gouvernator
2006-03-18, 20:30:42
Ich würde auch von euch gerne hören was ihr so von kommenden GPU´s erwartet. Und villeicht Experten Meinung was 1.5 Milliarden transistoren so verbrauchen könnten...
Ich erwarte einen Verbrauch von unter 20 Watt :biggrin:
blade04
2006-03-18, 21:14:19
Also ich hoffe das der trend wieder weg geht von SLI /quad sli.
Und die chips der high-end karten wieder so leistungfähig werden, das man alle aktuellen games in aller höchster einstellung problemlos zocken kan. Früher war alles besser :D
Zu den chips selber. Also ich erwarte auch jeden Fall weniger Verbrauch und Verlustleistung. Denke aber das eher das Gegenteil der Fall sein wird.
Deswegen will ich das man endlich Kühler tauschen kann ohne die garantie zu verlieren. Das es bei den Grakas wird wie bei CPU boxed und tray halt ^^
ansonsten wärn erstmal 48 pipes bei den kommenden GPU´s der nächsten 2 Jahre ganz nett. DX 10 und shader 4.0 sollten auch bald ma kommen, aber das is was anderes
Und ich warte auf die erste Graka die die 1GHz Marke beim Chiptakt knackt. Aber das is wohl eher wunschdenken :D
hm, leicht OT aber das ist die Fertigungstechnologiediskussion ja auch ;)
Ist bestimmt schonmal beantwortet worden:
Ab wann wird denn ein 256bit Speicherinterface nicht mehr ausreichen? Das ganze auf z.B. 512 zu vergrößern wäre ja ein tiefer "Einschnitt", 128->256 ist ja auch mit viel "Aufwand" verbunden.
Nightspider
2006-03-18, 23:04:36
Und da der G80 sicherlich auch im 80nm Prozess hergestellt wird, könnten 1Ghz Core Takt mit oc sicherlich drin sein, es seidenn er wird ein heißes Kerlchen. Der G71 wurde ja mittels -91°C auch auf 1Ghz gebracht.
Vllt hat Nvidia die innere Struktur und die Reihenfolge und was es alles im Kern gibt total umgekrempelt und alles ist viel modularer, benötigt weniger leistung in allen Zusatzfeatures
Vllt gibt es ja in 5 Jahren Speicher-Socken ;D , so ein Sockel GDDR-Sockel191 damit man dickere Ram dinger draufbumbsen kann ;D
Ich weiß jetzt gar nicht-haben Cores innen einen Cache ?
Vielleicht wird bald ein kleiner Speicher in die GPU Kerne integriert, damit zB. AA und AF schneller durchgeführt werden können, wenn die Texturdaten öfters 'durchgenommen' werden
Godmode
2006-03-18, 23:29:07
Und da der G80 sicherlich auch im 80nm Prozess hergestellt wird, könnten 1Ghz Core Takt mit oc sicherlich drin sein, es seidenn er wird ein heißes Kerlchen. Der G71 wurde ja mittels -91°C auch auf 1Ghz gebracht.
Vllt hat Nvidia die innere Struktur und die Reihenfolge und was es alles im Kern gibt total umgekrempelt und alles ist viel modularer, benötigt weniger leistung in allen Zusatzfeatures
Vllt gibt es ja in 5 Jahren Speicher-Socken ;D , so ein Sockel GDDR-Sockel191 damit man dickere Ram dinger draufbumbsen kann ;D
Ich weiß jetzt gar nicht-haben Cores innen einen Cache ?
Vielleicht wird bald ein kleiner Speicher in die GPU Kerne integriert, damit zB. AA und AF schneller durchgeführt werden können, wenn die Texturdaten öfters 'durchgenommen' werden
Ich denke so ein Speichersockel würde für die Signalequalität nicht gerade gut sein. Ja in einer GPU gibt es viele kleine Speicher, nicht solche wie bei CPUs, aber eben Register, Fifos, ....
Es gibt sehr wohl auch einen Texture-Cache (allerdings ist dieser nicht so furchtbar groß).
Ailuros
2006-03-19, 01:02:59
Dass das Design 2004 "festgenagelt" wurde, mag ja durchaus sein, nur muss man dasselbige ja auch noch entwerfen und das sind natürlich Ereignisse, die vor dem eigentlichen "Festnageln" stattfinden.
Die 4 Jahre beziehen sich wohl auch nicht nur auf das Design an der Kreidetafel, sondern auch auf alles was damit rundherum zu tun hat. Ich halte das daher auch für alles andere als Quatsch, denn diese Aussage stammt ursprünglich von Jen-Hsun Huang persönlich und der dürfte im Gegensatz zu allen Außenstehenden wohl auch den besten Gesamtüberblick darüber haben.
Chalkboard re-designs don't count ;) Unter der Logik lag auch NV30 4 Jahre unter Entwicklung nur hatte das originale Konzept nicht allzu viel mit dem bekannten zu tun.
Zu den Kosten:
Auf den ersten Blick mag das als relativ viel erscheinen, die geschätzte Gesamtinvestition in Summe von etwa 500 Mio. USD beinhaltet jedoch auch wirklich alle Kosten aller Produkte für jedes Segment bis hin zur Herstellung und Auslieferung. Ich will garnicht erst wissen, was ATi bereits in R400 an Kosten gesteckt hatte, bevor er "abgesägt" worden ist. Wenn wir dann noch alle möglichen Derivate dazurechnen dürfte man wohl problemlos auf ähnliche Summen kommen. Der ungefähre Betrag wurde glaube ich irgendwo mal beziefert (kann ein Quartalsbericht gewesen sein), ist mir aber inzwischen leider entfallen.
Ach so gigantische Unterschiede zu Xenos hatte der Ur-R400 nun auch wieder nicht. Man-hours in difference IMHO.
Ailuros
2006-03-19, 01:04:55
Und da der G80 sicherlich auch im 80nm Prozess hergestellt wird, könnten 1Ghz Core Takt mit oc sicherlich drin sein, es seidenn er wird ein heißes Kerlchen. Der G71 wurde ja mittels -91°C auch auf 1Ghz gebracht.
80nm? Sagt wer?
Ich weiß jetzt gar nicht-haben Cores innen einen Cache ?
Vielleicht wird bald ein kleiner Speicher in die GPU Kerne integriert, damit zB. AA und AF schneller durchgeführt werden können, wenn die Texturdaten öfters 'durchgenommen' werden
Gibt es schon seit einer Ewigkeit auf GPUs.
Expandable
2006-03-19, 01:05:39
hm, leicht OT aber das ist die Fertigungstechnologiediskussion ja auch ;)
Ist bestimmt schonmal beantwortet worden:
Ab wann wird denn ein 256bit Speicherinterface nicht mehr ausreichen? Das ganze auf z.B. 512 zu vergrößern wäre ja ein tiefer "Einschnitt", 128->256 ist ja auch mit viel "Aufwand" verbunden.
Dank den wesentlich höheren Taktraten von GDDR4 wird das wohl noch eine Weile dauern... VERMUTLICH.
Sunrise
2006-03-19, 01:27:13
Chalkboard re-designs don't count ;) Unter der Logik lag auch NV30 4 Jahre unter Entwicklung nur hatte das originale Konzept nicht allzu viel mit dem bekannten zu tun.Ich habe eigentlich kein Wort von einem "re-design" erwähnt, das hast du wohl falsch interpretiert. Gemeint war, dass man kein finales Design mal eben so auf die Kreidetafel zeichnet, ohne zu wissen, was man dort eigentlich zeichnet. Die komplette Entwicklungsdauer mit allen Haken und Ösen, seit der Stunde 0. Wie gesagt, die Aussage stammt von Jen-Hsun Huang persönlich und wurde von der PC Games Hardware nur zitiert.
Ach so gigantische Unterschiede zu Xenos hatte der Ur-R400 nun auch wieder nicht. Man-hours in difference IMHO.Es spricht ja keiner von großen Unterschieden, sondern von Derivaten. ;)
Derivate = to derive from = stammen von -> impliziert nicht unbedingt einschneidende, große Änderungen, aber doch schon die Basis, von der wir hier denke ich auch ausgehen.
Wie der Ur-R400 aussah, weiß ja niemand außer ATi selbst mit Sicherheit. Wenn ich "man-hours" höre, denke ich zudem eher an R300 -> R420 -> R480. R400 -> Xenos dürfte schon etwas mehr Zeit und R&D in Anspruch genommen haben, zudem müsste man hier natürlich auch noch R6XX hinzurechnen.
Sunrise
2006-03-19, 01:43:42
80nm? Sagt wer?
Na Nightspider. :P
Nightspider
2006-03-19, 03:05:48
;D
Ich schätze ja nur :biggrin:
Auch wenn es bei CPUs sowieso immer vie schneller geht, aber Intel is ja auch schon bei 60nm, da werden die im herbst auf jeden fall schon 80nm schaffen.(wenn sie wöllten) ;D
Ailuros
2006-03-19, 04:46:44
Ich habe eigentlich kein Wort von einem "re-design" erwähnt, das hast du wohl falsch interpretiert. Gemeint war, dass man kein finales Design mal eben so auf die Kreidetafel zeichnet, ohne zu wissen, was man dort eigentlich zeichnet. Die komplette Entwicklungsdauer mit allen Haken und Ösen, seit der Stunde 0. Wie gesagt, die Aussage stammt von Jen-Hsun Huang persönlich und wurde von der PC Games Hardware nur zitiert.
Also das uebliche Marketing-Geblubber kann man in dem Fall schon rauslesen. Mit so vielen Aenderungen und Verspaetungen fuer D3D10 mussten beide grosse IHVs zurueck zu den Kreideboards.
Ich sag es mal anders die komplette NV3x Linie soll ja auch $400 Mio gekostet haben wieder nach eigenen Angaben von NVIDIA. Da sind die $500 Mio vergleichsmaessig gar nicht mehr so imposant.
Wie der Ur-R400 aussah, weiß ja niemand außer ATi selbst mit Sicherheit. Wenn ich "man-hours" höre, denke ich zudem eher an R300 -> R420 -> R480. R400 -> Xenos dürfte schon etwas mehr Zeit und R&D in Anspruch genommen haben, zudem müsste man hier natürlich auch noch R6XX hinzurechnen.
Als Konsolen-Derivat ja, aber das gilt dann auch fuer G7x/RSX :)
Sonst sind die Unterschiede eher klein. R400 war schon immer quasi SM3.0 + fixed function tesselation unit.
R600 ist ein anderes Kapitel; anderes Design-team und nach eigenem internem Geblubber "what Xenos should have been....".
Ailuros
2006-03-19, 04:49:44
;D
Ich schätze ja nur :biggrin:
Auch wenn es bei CPUs sowieso immer vie schneller geht, aber Intel is ja auch schon bei 60nm, da werden die im herbst auf jeden fall schon 80nm schaffen.(wenn sie wöllten) ;D
Nicht dass digitimes immer den Nagel auf den Kopf trifft, aber ein muerbes Gefuehl hab ich momentan trotz allem:
http://www.digitimes.com/mobos/a20060316PR210.html
Obwohl ich meine Hand nicht ins Feuer legen moechte, afaik wurde G80 fuer 90nm ausgelegt.
Sunrise
2006-03-19, 10:02:32
Ich sag es mal anders die komplette NV3x Linie soll ja auch $400 Mio gekostet haben wieder nach eigenen Angaben von NVIDIA. Da sind die $500 Mio vergleichsmaessig gar nicht mehr so imposant.Eben, u.a. genau darauf wollte ich hinaus.
Als Konsolen-Derivat ja, aber das gilt dann auch fuer G7x/RSX :)
Sonst sind die Unterschiede eher klein. R400 war schon immer quasi SM3.0 + fixed function tesselation unit.
Ja, RSX könnte man (würde ich sogar) hier durchaus auch noch hinzurechnen. Alles andere natürlich wie bereits besprochen.
reunion
2006-03-29, 11:58:35
Nvidia G80 misses tape out (http://www.theinquirer.net/?article=30624)
Gouvernator
2006-03-29, 12:03:44
Ich erwarte nicht viel von Nvidia wird wieder so ein GF6/GF7/.. Nachfolger mit paar Piplines mehr und besserem Speicher.
mapel110
2006-03-29, 12:06:47
Ich erwarte nicht viel von Nvidia wird wieder so ein GF6/GF7/.. Nachfolger mit paar Piplines mehr und besserem Speicher.
Nö, der wird wesentlich mehr Änderungen haben. D3D10-compliance ist schon mal sicher.
ShadowXX
2006-03-29, 12:44:05
Nö, der wird wesentlich mehr Änderungen haben. D3D10-compliance ist schon mal sicher.
Mal sehen, ob die Änderungen wirklich soooo wesentlich sind.
Wenn Sie wirklich kein US-Design verwenden, müssten Sie nämlich ausser das Sie einen GS in den VS mitreindesignen, IMHO gar nicht mehr so extrem viel am G7x-Design ändern für D3D10-compliance.
Ailuros
2006-03-29, 14:02:38
Mal sehen, ob die Änderungen wirklich soooo wesentlich sind.
Wenn Sie wirklich kein US-Design verwenden, müssten Sie nämlich ausser das Sie einen GS in den VS mitreindesignen, IMHO gar nicht mehr so extrem viel am G7x-Design ändern für D3D10-compliance.
Und damit haetten sie eine DX9.0 GPU mit den etwa gleichen Nachteilen wie NV4x/G7x und eine ziemlich miese D3D10 GPU.
Waere das ganze Projekt wirklich so einfach als nur quasi GS Faehigkeiten in die VS MIMDs zu schmieren (mal ganz grob vereinfacht) dann sollte man sich wundern warum sie genau so viele Jahre an dem Ding herumfuchteln.
Ailuros
2006-03-29, 14:08:38
Nvidia G80 misses tape out (http://www.theinquirer.net/?article=30624)
Die Moechtegern Redakteure auf der Seite sollten sich gefaelligst erstmal einig werden was sie fuer einen Mist generell zusammenrauemen:
http://www.theinquirer.net/?article=30623
Beide newsblurbs wurden am gleichen Tag gepostet :rolleyes:
Godmode
2006-03-29, 14:33:52
Und damit haetten sie eine DX9.0 GPU mit den etwa gleichen Nachteilen wie NV4x/G7x und eine ziemlich miese D3D10 GPU.
Das denke ich auch:
-Verbesserung der Branchingperformance
-vielleicht nebeläufige TMUs
-AA/AF/HDR+AA
-D3D10 Features
und da wird wohl so einiges zum ändern gewesen sein.
edit: zu Inquierer: warum wird die Seite immer noch verlinkt? :|
DrumDub
2006-03-29, 15:06:28
edit: zu Inquierer: warum wird die Seite immer noch verlinkt? :| ist halt der running gag. ;)
Ich glaube der G80 kommt erst mit Vista im Januar
Ailuros
2006-03-30, 11:15:59
Ich glaube der G80 kommt erst mit Vista im Januar
Wenn beide IHVs erst dann mit den D3D10 GPUs ankommen, dann wird 2006 ein genauso langweiliges Jahr wie 2005 sein (von einer technologischen Perspektive).
Winter[Raven]
2006-03-30, 12:16:48
Das denke ich auch:
-Verbesserung der Branchingperformance
-vielleicht nebeläufige TMUs
-AA/AF/HDR+AA
-D3D10 Features
und da wird wohl so einiges zum ändern gewesen sein.
edit: zu Inquierer: warum wird die Seite immer noch verlinkt? :|
- Das ist doch logisch, oder?
- ^^
- Auch logisch, oder?
- Auch? Sonst wäre es kein D3D10 Chip odeR?
ShadowXX
2006-03-30, 12:39:49
Wenn beide IHVs erst dann mit den D3D10 GPUs ankommen, dann wird 2006 ein genauso langweiliges Jahr wie 2005 sein (von einer technologischen Perspektive).
Da ATI später im Jahr noch mit einem 80nm r580 kommen will, halte ich das gar nicht mal für so ausgeschlossen.
Nochmal zum G71+vereinigte VS/GS = G80:
Das Sie natürlich auch an ein zwei anderen Sachen noch was drehen müssen ist klar, aber momentan erwarte ich nicht wirklich viel mehr von den ersten D3D10-GPUs, als das Sie das ganze als Checklistenfeature anbieten werden.
Und ob z.B. AF wirklich soooo hoch auf dem Zettel von nV steht/stand ist wirklich die Frage (du sagts ja selbst, das das Design schon vor "urzeiten" gemacht wurde....sehr wahrscheinlich u.a. basierend auf G7x).
Genauso ob Sie wirklich grundlegend die Designphilosophie ändern umd dann nebenläufige TMUs einbacken zu können.
Da spricht u.a. ja auch gegen, das Sie sehr wahrscheinlich keine durchgehende US-Architektur anbieten werden.
Man wird sehen......ich verspreche mir zumindest von G80 & r600 noch nicht so viel.
Das Sie natürlich auch an ein zwei anderen Sachen noch was drehen müssen ist klar, aber momentan erwarte ich nicht wirklich viel mehr von den ersten D3D10-GPUs, als das Sie das ganze als Checklistenfeature anbieten werden.
Unwahrscheinlich. Dyn. Branching muss schnell sein, das ist eine D3D10-Vorraussetzung.
Unwahrscheinlich. Dyn. Branching muss schnell sein, das ist eine D3D10-Vorraussetzung.
Warum ist das so?
Q
ShadowXX
2006-03-30, 13:08:27
Unwahrscheinlich. Dyn. Branching muss schnell sein, das ist eine D3D10-Vorraussetzung.
Dyn. Branching muss vorhanden sein und es muss wohl eine gewisse Performance in gewissen MS-Tests erreicht werden.
Wie viel Performnace das ist, weiß wohl momentan kaum jemand, aber Demi machte AFAIR mal die Andeutung das das nicht allzuviel sein muss.
Es sollen ja auch noch andere Firmen D3D10-Fähige Chips bauen können, die nicht den monetären & technischen Stand von nV & ATI haben (z.B. S3 und selbst XGI war sehr wahrscheinlich noch bei der "Verabschiedung" der Specs dabei).
Und wie gesagt: Schnell ist relativ....nV bezeichnet jetzt schon Ihr dyn. Branching als Schnell.
Warum ist das so?
WHQL-Test. Ich denke den wollen die IHVs schon bestehen ;)
Wie viel Performnace das ist, weiß wohl momentan kaum jemand, aber Demi machte AFAIR mal die Andeutung das das nicht allzuviel sein muss.
Sicherlich über dem was G71 so bietet, da kannst du sicher sein. Allein schon wie die Shaderbeispiele im SDK aussehen muss es so sein. Da wird damit umgegangen als wärs selbstverständlich.
Wenn nVIDIA das wirklich bringt und das so beibehält dann haben sie wirklich verschissen bei den Devs. Kann ich mir beim besten Willen nicht vorstellen.
Es sollen ja auch noch andere Firmen D3D10-Fähige Chips bauen können, die nicht den monetären & technischen Stand von nV & ATI haben (z.B. S3 und selbst XGI war sehr wahrscheinlich noch bei der "Verabschiedung" der Specs dabei).
Und was hindert die daran dass so zu implementieren dass es relativ schnell ist? Bei NV4x ist das eindeutig angeflanscht mit der absolut minimalem Transistoraufwand.
Und wie gesagt: Schnell ist relativ....nV bezeichnet jetzt schon Ihr dyn. Branching als schnell.
Das Marketing tut das.
Ailuros
2006-03-30, 13:40:08
Da ATI später im Jahr noch mit einem 80nm r580 kommen will, halte ich das gar nicht mal für so ausgeschlossen.
Nochmal zum G71+vereinigte VS/GS = G80:
Das Sie natürlich auch an ein zwei anderen Sachen noch was drehen müssen ist klar, aber momentan erwarte ich nicht wirklich viel mehr von den ersten D3D10-GPUs, als das Sie das ganze als Checklistenfeature anbieten werden.
Und ob z.B. AF wirklich soooo hoch auf dem Zettel von nV steht/stand ist wirklich die Frage (du sagts ja selbst, das das Design schon vor "urzeiten" gemacht wurde....sehr wahrscheinlich u.a. basierend auf G7x).
Genauso ob Sie wirklich grundlegend die Designphilosophie ändern umd dann nebenläufige TMUs einbacken zu können.
Da spricht u.a. ja auch gegen, das Sie sehr wahrscheinlich keine durchgehende US-Architektur anbieten werden.
Man wird sehen......ich verspreche mir zumindest von G80 & r600 noch nicht so viel.
Der Zeitpunt der Definierung der Architektur hat sehr wenig damit zu tun was fuer Filterungs-Aspekte genau benutzt wurden. Als sie damals NV4x/G7x festlegten war noch nicht mal NV30 veroeffentlicht.
Erstens muessen D3D10 GPUs IMO verdammt effiziente DX9.0 GPUs sein (wobei D3D10 extra Vorraussetzungen tatsaechlich nur fuer die Entwickler da sein koennten und man kuemmert sich um Leistung spaeter), zweitens siehe Coda's Kommenter ueber DB und drittens erwarte ich verrueckt hohe GFLOP Zahlen mit dieser Runde.
Nach Sweeney's eigenem Geblubber braucht die UE3 engine fuer Shading alleine 500GFLOPs.
***edit: und da Du es mit indirekten Andeutungen wohl nicht herauslesen kannst: fundamentale Aenderungen was Filterung und Branching generell betrifft, HDR+MSAA und noch vieles anderes.
Ailuros
2006-03-30, 13:51:10
Dyn. Branching muss vorhanden sein und es muss wohl eine gewisse Performance in gewissen MS-Tests erreicht werden.
Wie viel Performnace das ist, weiß wohl momentan kaum jemand, aber Demi machte AFAIR mal die Andeutung das das nicht allzuviel sein muss.
Es sollen ja auch noch andere Firmen D3D10-Fähige Chips bauen können, die nicht den monetären & technischen Stand von nV & ATI haben (z.B. S3 und selbst XGI war sehr wahrscheinlich noch bei der "Verabschiedung" der Specs dabei).
Und wie gesagt: Schnell ist relativ....nV bezeichnet jetzt schon Ihr dyn. Branching als Schnell.
Ich versuche es mal etwas anders zu illustrieren: man hat eine Vision fuer z.B. DX9.0/SM3.0 und die 4-5 Jahre die das Zeug ueberlebte. Erster Versuch mit 2.0_extended war aus X Gruenden (die momentan egal sind) verkorkst und dann kam SM3.0 mit NV40.
Zwischen der bestimmten Vision und dem was in HW wirklich fuer jegliche Zeitspanne moeglich ist, werden jetzt Prioritaeten gelegt und je nachdem fliegt das eine oder andere raus damit man auch Transistoren sparen kann und wird fuer die naechste Generation versetzt.
Winkel-abhaengigeres AF? Spart Transistoren also her damit. PS dynamisches branching? Wir brauchen fuer schnelles db XYZ, lassen wir es so bleiben und wir kuemmern uns um Leistung spaeter usw usw.
Muss ich wirklich daran erinnern dass bei G71 und 6 quads@650MHz nur 278M Transistoren auf 90nm hat gegen die 4 quads@650MHz und 384M Transistoren auf 90nm? Ja NV hat ein winkelabhaengigeres AF, ja ihr AA-Algorithmus ist nicht so flexibel, ja ihr PS db ist fast fuer die Tonne und ja man kann float HDR nicht mit MSAA kombinieren; aber sie haben auch Vertex texturing dass bei der Konkurrenz fehlt, FP Filterung und effizienteres VS dynamisches branching.
XGi ist weg vom Fenster was den PC betrifft und ich sah nirgends eine Andeutung seitens S3 dass sie high end GPUs planen. D3D10 Komplianz kann auch im mainstream bzw. budget kommen.
reunion
2006-03-30, 13:57:31
Da ATI später im Jahr noch mit einem 80nm r580 kommen will, halte ich das gar nicht mal für so ausgeschlossen.
Denke ich auch. Selbst RV570 wird vermutlich erst irgendwann im August in den Regalen stehen, wenn alles nach Plan läuft. Und wann/ob dieser R580 in 80nm kommt, ist auch noch verdammt ungewiss. R600 erwarte ich zurzeit frühestens im Winter 2006, eher Anfang 2007 - dann allerdings schon in 80nm und natürlich mit US, sowie einigen gravierenden Verbesserungen. Dave Orton schwärmt ja schon seit geraumer Zeit vom R600.
Bei nV dürfte die Sache allerdings etwas anders aussehen. G71 ist ganz klar nur als kurzfristige Zwischenlösung konzipiert; keine Neuerungen, nur ein einfacher Shrink, um die Kosten zu senken, und wieder halbwegs konkurrenzfähig zu sein. Ich kann mir nicht vorstellen, dass diese Core bis 2007 bei nV das High-End-Segment darstellen soll, und an einen weiteren G7x-Aufguss glaube ich auch nicht. G80 dürfte vermutlich irgendwann im dritten Quartal - höchstwahrscheinlich noch in 90nm - kommen. Wie weit dieser dann Verbesserungen bringen wird, wird sich zeigen müssen, US zB scheinen ja nach den derzeitigen Aussagen verdammt unrealistisch.
Ailuros
2006-03-30, 14:01:58
Wie weit dieser dann Verbesserungen bringen wird, wird sich zeigen müssen, US zB scheinen ja nach den derzeitigen Aussagen verdammt unrealistisch.
Wenn die insgesamte Leistung stimmt, duerfte es sowohl den Entwicklern als auch den Verbrauchern egal sein wie die HW ausgelegt ist.
Klar kann ein USC Vorteile haben, das "aber" ist eben da genau dass es sich auch um einen ziemlich effizienten Design handeln muss. Man kann sowohl einen USC als auch einen non-USC verpatzen; USC ist keine Rettungsplanke hier.
reunion
2006-03-30, 14:06:20
Wenn die insgesamte Leistung stimmt, duerfte es sowohl den Entwicklern als auch den Verbrauchern egal sein wie die HW ausgelegt ist.
Klar kann ein USC Vorteile haben, das "aber" ist eben da genau dass es sich auch um einen ziemlich effizienten Design handeln muss. Man kann sowohl einen USC als auch einen non-USC verpatzen; USC ist keine Rettungsplanke hier.
Natürlich muss ein non-USC noch lange nicht schlechter sein als ein USC. Es könnte allerdings darauf hindeuten, dass man bei nV noch keine größeren Einschnitte in die Architektur vornehmen wollte/könnte. AFAIK war ja US zu beginn sogar einen Voraussetzung von D3D10, was wohl wegen nV geändert wurde.
Ailuros
2006-03-30, 14:10:39
Natürlich muss ein non-USC noch lange nicht schlechter sein als ein USC. Es könnte allerdings darauf hindeuten, dass man bei nV noch keine größeren Einschnitte in die Architektur vornehmen wollte/könnte. AFAIK war ja US zu beginn sogar einen Voraussetzung von D3D10, was wohl wegen nV geändert wurde.
Oder manche hatten einfach den falschen Eindruck frueher.
Dezember 2003:
As a result, all 4.0 shader models are identical in both syntax and feature set, allowing hardware to combine the different hardware units together into a single pool. This has the added benefit that any increase in shading power increases both vertex and pixel shading performance.
http://www.beyond3d.com/articles/directxnext/
reunion
2006-03-30, 14:13:29
Oder manche hatten einfach den falschen Eindruck frueher.
Dezember 2003:
http://www.beyond3d.com/articles/directxnext/
Das ist natürlich möglich. :)
Auf jeden Fall wurde davon früher ziemlich oft gesprochen.
Ailuros
2006-03-30, 14:15:52
Das ist natürlich möglich. :)
Auf jeden Fall wurde davon früher ziemlich oft gesprochen.
PowerVR Serie5 hatte afaik DX-Next als Ziel und das Stueck Vaporware hatte getrennte Einheiten afaik. Eurasia/SGX dass aus der gleichen Familie stammt ist natuerlich ein USC.
Auf jeden Fall wurde davon früher ziemlich oft gesprochen.
Ich habs schon im R600-Thread gesagt: Da hat einer Hardware-Unified-Shader und ein vereinheitlichtes Feature-Set der Shadereinheiten verwechselt.
Demirug
2006-03-30, 20:23:08
Natürlich muss ein non-USC noch lange nicht schlechter sein als ein USC. Es könnte allerdings darauf hindeuten, dass man bei nV noch keine größeren Einschnitte in die Architektur vornehmen wollte/könnte. AFAIK war ja US zu beginn sogar einen Voraussetzung von D3D10, was wohl wegen nV geändert wurde.
Ja MS wollte das mal so haben inzwischen bin ich mir allerdings nicht mehr so sicher ob das wirklich wegen nV gestrichen wurde. Inzwischen sind einfach zu viele US Patentschriften aufgetaucht die kommischerweise sehr gut zu dem ursprünglichen DX-Next entwurf passen.
Was glaubt ihr jetzt kommt der G80 im August/September ....
http://www.pcgames.de/?article_id=460720
Zitat vom Link : Windows Vista
Außerdem wollen Entwickler DX10-Referenzkarten abwarten.
Dann müssen die schon mal paar Monate vor Vista kommen oder sehe ich das falsch ?
Paul Brain
2006-03-31, 15:42:32
http://www.pcgames.de/?article_id=460720
"Dass Grafikdaten mit Windows Vista nicht nur im Video-, sondern auch im Hauptspeicher des Systems abgelegt werden können, sei ein entscheidender Faktor für den Fortschritt von Spielen am PC, heißt es in einem Artikel des US-Magazins Gamespot. Epic-Gründer Tim Sweeney (Unreal Tournament 2007) schwärmt vom "eliminierten Flaschenhals", man könne den zwei- bis vierfachen Speicherplatz für Texturen einräumen und müsse weniger herunterrechnen." - äääähm, geht das nicht schon seit AGP? Dieser Port wurde doch u.a. dafür entworfen, den Hauptspeicher als Grafikspeicher mitnutzen zu können! :confused:
Es ist so dass unter Vista der Grafikspeicher virtualisiert ist, d.h. die Resourcen werden automatisch in den RAM geswappt wenn der VRAM nicht mehr reicht, bzw. sogar bis auf die Festplatte.
Das heißt dass man bei einem Spiel mit rießiger Spielwelt (MMORPGs z.B.) einfach mal alles läd und den Rest Direct3D 10 erledigt.
mapel110
2006-03-31, 16:20:05
Und so toll sollte das auch selbst mit der PCIe-Bandbreite nicht sein. Onboard-Grafikram hat eine Bandbreite im High End derzeit von etwa 50 GB/s. Die Daten aus dem Systemram kommen mit PCIe-16x 4 GB/s. Das wäre dann etwa Geforce2 GTS Niveau. :ugly:
Und so toll sollte das auch selbst mit der PCIe-Bandbreite nicht sein. Onboard-Grafikram hat eine Bandbreite im High End derzeit von etwa 50 GB/s. Die Daten aus dem Systemram kommen mit PCIe-16x 4 GB/s. Das wäre dann etwa Geforce2 GTS Niveau. :ugly:
Das Problem ist eher, dass bestimmt 80% der Texturdaten im VRam nicht benötigt werden, weil nur niedrige Mipmappingstufen benutzt werden. Die können nun automatisch augelagert werden.
Eine zusätzliche eigene Verwaltung schadet imo aber trotzdem nicht um Hauptspeicher zu sparen. Dort ist aber eine ganz grobe Abschätzung mehr als ausreichend.
Laut der neuen PCGH (05/2006) soll der G80 eine Aufnahmeleistung von über 200W haben. Das nimmt echt beängstigende ausmaße an.
Ailuros
2006-04-02, 04:42:21
Laut der neuen PCGH (05/2006) soll der G80 eine Aufnahmeleistung von über 200W haben. Das nimmt echt beängstigende ausmaße an.
Das will ich ernsthaft bezweifeln.
mapel110
2006-04-02, 05:33:30
Das will ich ernsthaft bezweifeln.
So unwahrscheinlich ist das nun auch wieder nicht.
http://www.tweakpc.de/?news_id=7692&rdf=1
150 Watt braucht G70 :biggrin:
soll PCGH lieber schreiben wann der G80 kommt umd nicht was er verbraucht ...
Ailuros
2006-04-02, 11:12:44
So unwahrscheinlich ist das nun auch wieder nicht.
http://www.tweakpc.de/?news_id=7692&rdf=1
150 Watt braucht G70 :biggrin:
Schreib lieber dazu dass Du es sarkastisch meinst, denn ich will wetten dass es nicht alle auf Anhieb schnallen ;)
Laut der neuen PCGH (05/2006) soll der G80 eine Aufnahmeleistung von über 200W haben. Das nimmt echt beängstigende ausmaße an.
hm, dann bräuchte er aber 2 zusatzanschlüsse.
Das will ich ernsthaft bezweifeln.
PCGH will es von Netzteil Herstellern erfahren haben die angeblich erste spezifikationen zum G80 erhalten haben.
Laut der neuen PCGH (05/2006) soll der G80 eine Aufnahmeleistung von über 200W haben. Das nimmt echt beängstigende ausmaße an.
Den G80 wird es wohl wieder als Dual-Ausführung geben. Da sind 200W ja nicht sooo viel. ;)
Ailuros
2006-04-03, 06:10:21
PCGH will es von Netzteil Herstellern erfahren haben die angeblich erste spezifikationen zum G80 erhalten haben.
Gut dass die besagten Hersteller Spezifikationen angeblich bekommen von einem chip dass noch keinen finalen tape-out hatte. Mapel hat eigentlich den Nagel auf den Kopf getroffen:
http://users.otenet.gr/~ailuros/estimate.jpg
Der Graph stammt von NV. Irgend eine Idee warum NV40@475MHz 158W angeblich verbraucht?
Slipknot79
2006-04-03, 13:27:47
Gut dass die besagten Hersteller Spezifikationen angeblich bekommen von einem chip dass noch keinen finalen tape-out hatte. Mapel hat eigentlich den Nagel auf den Kopf getroffen:
http://users.otenet.gr/~ailuros/estimate.jpg
Der Graph stammt von NV. Irgend eine Idee warum NV40@475MHz 158W angeblich verbraucht?
Glaube eher dass die Leistungswerte nur theoretische Werte sind
ShadowXX
2006-04-03, 17:49:20
***edit: und da Du es mit indirekten Andeutungen wohl nicht herauslesen kannst: fundamentale Aenderungen was Filterung und Branching generell betrifft, HDR+MSAA und noch vieles anderes.
Och das hab ich durchaus da rausgelesen, aber......
Ich versuche es mal etwas anders zu illustrieren: man hat eine Vision fuer z.B. DX9.0/SM3.0 und die 4-5 Jahre die das Zeug ueberlebte. Erster Versuch mit 2.0_extended war aus X Gruenden (die momentan egal sind) verkorkst und dann kam SM3.0 mit NV40.
Zwischen der bestimmten Vision und dem was in HW wirklich fuer jegliche Zeitspanne moeglich ist, werden jetzt Prioritaeten gelegt und je nachdem fliegt das eine oder andere raus damit man auch Transistoren sparen kann und wird fuer die naechste Generation versetzt.
Winkel-abhaengigeres AF? Spart Transistoren also her damit. PS dynamisches branching? Wir brauchen fuer schnelles db XYZ, lassen wir es so bleiben und wir kuemmern uns um Leistung spaeter usw usw.
Muss ich wirklich daran erinnern dass bei G71 und 6 quads@650MHz nur 278M Transistoren auf 90nm hat gegen die 4 quads@650MHz und 384M Transistoren auf 90nm? Ja NV hat ein winkelabhaengigeres AF, ja ihr AA-Algorithmus ist nicht so flexibel, ja ihr PS db ist fast fuer die Tonne und ja man kann float HDR nicht mit MSAA kombinieren; aber sie haben auch Vertex texturing dass bei der Konkurrenz fehlt, FP Filterung und effizienteres VS dynamisches branching.
XGi ist weg vom Fenster was den PC betrifft und ich sah nirgends eine Andeutung seitens S3 dass sie high end GPUs planen. D3D10 Komplianz kann auch im mainstream bzw. budget kommen.
....mir fehlt momentan der glaube daran, das das so kommen wird.
Das gleiche gilt allerdings auch für ATI (auch wenn Orton vom r600 schwärmt, das tat er auch bei allen anderen Modellen).
Das nV und ATI mir G80/r600 "verdammt" schnelle DX9-GPUs bauen müssen, sehe ich auch noch nicht so......sie müssen eigentlich erstmal D3D10-Compilance irgendwie reinschustern und es würde mich nicht unbedingt wundern, wenn das nicht auch zu lasten von anderen Dingen gehen wird.
Sagen wir einfach ich bin diesmal extrem skeptisch was die Leistungsfähigkeit der Chips, die nV und ATI als D3D10-Launchchips raushauen werden, betrifft und erwarten fast den Worst-Case-Fall.
D3D10 Kompilance sehe ich bei beiden momentan mehr als "auf dem Papier vorhanden".
seahawk
2006-04-03, 18:09:33
200W - warum nicht. Mit 1 oder gar 2GB Speicher und / oder 2 GPUs on Board.
Och das hab ich durchaus da rausgelesen, aber......
....mir fehlt momentan der glaube daran, das das so kommen wird.
Das gleiche gilt allerdings auch für ATI (auch wenn Orton vom r600 schwärmt, das tat er auch bei allen anderen Modellen).
Das nV und ATI mir G80/r600 "verdammt" schnelle DX9-GPUs bauen müssen, sehe ich auch noch nicht so......sie müssen eigentlich erstmal D3D10-Compilance irgendwie reinschustern und es würde mich nicht unbedingt wundern, wenn das nicht auch zu lasten von anderen Dingen gehen wird.
Sagen wir einfach ich bin diesmal extrem skeptisch was die Leistungsfähigkeit der Chips, die nV und ATI als D3D10-Launchchips raushauen werden, betrifft und erwarten fast den Worst-Case-Fall.
D3D10 Kompilance sehe ich bei beiden momentan mehr als "auf dem Papier vorhanden".
denkst jetzt die bringen scheiß karten raus oder was ?
Sunrise
2006-04-03, 20:26:16
Das gleiche gilt allerdings auch für ATI (auch wenn Orton vom r600 schwärmt, das tat er auch bei allen anderen Modellen).
Ich finde leider das Interview von damals nichtmehr. Der Witz war nämlich, dass Orton persönlich (weit vor der Vorstellung von R520) - also zu einer Zeit, als R480 gerademal fertiggestellt war - R600 besonders hervorhob, als wäre dieser eine wahre "Bombe". Das war auch etwa die Zeit, als R400 "abgesägt" wurde.
Das hörte sich ungefähr so an:
"R520 is gonna be really fast, but what is definately gonna knock your socks off, is our R600-architecture".
Dass ein CEO die eigenen Produkte lobt ist natürlich absolut normal, nur bereits die Nennung und Hervorhebung von R600 bereits vor etwa 3-4?! Jahren, das empfand ich schon immer als "mutig" (so ganz ohne Grund wird er das wohl nicht getan haben).
Die aktuelle Aussage "What Xenos should´ve been" macht für mich schon Sinn und spricht für mich auch eine eindeutige Sprache. R520 wäre gemäß seiner Maßstäbe nur die Vorstufe der eigentlichen Rakete: R6XX.
D3D10 Kompilance sehe ich bei beiden momentan mehr als "auf dem Papier vorhanden".
Ganz sicher nicht. Schon gar nicht bei R600.
robbitop
2006-04-03, 23:00:47
Naja NV50 wurde ja IIRC auch von NV besonders hervorgehoben in der Vergangenheit. Und Destinantion von S3. Alle scheinen stolz auf ihr unified design zu sein.
NV50 ist aber kein unified design.
robbitop
2006-04-03, 23:33:28
Wie kannst du dir da so sicher sein?
NV hat ein Patent diesbezüglich.
deekey777
2006-04-03, 23:40:17
Wie kannst du dir da so sicher sein?
NV hat ein Patent diesbezüglich.
Das Patent gilt zum Unifizieren von VS und GS zu einer Einheit, wenn mich nicht alles täuscht. Erst der Nachfolger soll ein US-Chip werden.
Oops, falschen Knopf gedrückt.
Da ist zuviel geleakt von verschiedensten Quellen in diese Richtung um ein Zufall zu sein.
Nightspider
2006-04-04, 08:28:21
Nvidia hat doch offiziel zugegeben, dass der G80 noch keine US Architektur hat-OdEr ?
Das klingt ja schon wieder so als wäre das prinzipiel was schlechtes...
Nvidia hat doch offiziel zugegeben, dass der G80 noch keine US Architektur hat-OdEr ?
meines wissens nicht wirklich, allerdings hat man über US gesagt, dass man nicht wirklich viel davon hält (zumindest noch nicht)
Nightspider
2006-04-04, 15:17:07
Oh man...diese Aussagen der Marketing-Abteilung gehen mir auf die nerven. Man weiß nicht was glauben oder nicht glauben soll und weiß nicht was richtig ist. Dann später denkt man, dass das Denkzentrum im Kopf nachlässt weil man sich immer etwas merkt, was widerlegt wird oder anscheinend nie gesagt wurde
-_-'
Ich bin mir eigentlich ziemlich sicher gewesen, dass NV mit dem G80 noch KEINE US-ArSchitektur bringt... :| :( :D :) :| :(
Hat der Gast denn was Gegenteiliges behauptet? Es wird aber immerhin aller Vorraussicht nach auf Vertex-/Geometry-Shader-Level ein unified design sein (sollte es auch, sonst ist es wirklich ziemlich dämlich).
nVIDIA sagt (evtl. nicht ohne Grund), dass die Anforderungen an die Einheiten auf Pixelebene eine andere als auf Geometryeben sind.
Evtl. liegt machen sie so weiter wie bisher und lassen die TMUs in den Pixelshadern in der Pipeline während sie die Vertex-TMUs entkoppeln. Oder evtl. auch wegen SIMD vs. MIMD. Es wird schon einen Grund haben...
War der momentan aktuelle Spekulatius nicht dergestalt, daß G80/nv50 zwar noch dedizierte PS-Einheiten hat, VS/GS aber für ein paar US rausgeflogen sind? So hätte man bei geringer Geometrielast noch einen anständigen Boost bei der PS-Leistung und gleichzeitig eine Testphase für die US-Einheiten, bevor man später vollständig auf US für den ganzen Chip umschwenkt.
Evtl. liegt machen sie so weiter wie bisher und lassen die TMUs in den Pixelshadern in der Pipeline während sie die Vertex-TMUs entkoppeln. Die sind doch entkoppelt. Die Latenz muss aber vom VS-Programmierer überdeckt werden.
Evtl. liegt machen sie so weiter wie bisher
:rolleyes:
Ailuros
2006-04-08, 08:02:06
Glaube eher dass die Leistungswerte nur theoretische Werte sind
Oder die angegebenen 158W im Graph sind System-leistungswerte und nicht nur ausschliesslich die der GPU ;)
Ailuros
2006-04-08, 08:12:11
Och das hab ich durchaus da rausgelesen, aber......
....mir fehlt momentan der glaube daran, das das so kommen wird.
Es gibt Aenderungen aber da ich nur momentan das gruene Licht habe fuer HDR+MSAA Kombinationen auf G80, kann ich leider nicht auf weitere Einzelheiten eingehen.
Das gleiche gilt allerdings auch für ATI (auch wenn Orton vom r600 schwärmt, das tat er auch bei allen anderen Modellen).
Das nV und ATI mir G80/r600 "verdammt" schnelle DX9-GPUs bauen müssen, sehe ich auch noch nicht so......sie müssen eigentlich erstmal D3D10-Compilance irgendwie reinschustern und es würde mich nicht unbedingt wundern, wenn das nicht auch zu lasten von anderen Dingen gehen wird.
Und was genau wuerdest Du mit einer sehr effizienten D3D10 GPU Ende 2006 genau anrichten? Die paar techdemos von den IHVs werden die Dinger schon abspielen koennen, sonst zeig mir die wahren D3D10 Spiele fuer die absehbare Zukunft die ich nicht sehen kann.
Es war schon immer so dass bei einer neuen Generation man sich zuerst um die Basis-Implementierung und erst spaeter um die Leistung dieser kuemmert.
Sagen wir einfach ich bin diesmal extrem skeptisch was die Leistungsfähigkeit der Chips, die nV und ATI als D3D10-Launchchips raushauen werden, betrifft und erwarten fast den Worst-Case-Fall.
D3D10 Kompilance sehe ich bei beiden momentan mehr als "auf dem Papier vorhanden".
Siehe oben. Gib mir einen guten Grund warum IHVs in diesem Fall tonnenweise Resourcen verplempern sollten fuer theoretische GPUs die unbezahlbar und sehr schwer herzustellen sind. Nochmal wozu brauchen wir als Verbraucher genau mehr als D3D10-Papiertiger genau und wieso soll ich eine Uebersumme fuer eine GPU bezahlen fuer extra Funktionalitaeten die mir als User bis zu den echten D3D10 Spielen nur dumm rumhocken?
Und ich will jetzt bei bestem Willen nicht irgendeinen Quark lesen ueber "angebliche" D3D10 Spiele wie Crysis. Es geht hier im besten Fall um Spiele in 2007.
reunion
2006-04-08, 11:01:42
nVIDIA sagt (evtl. nicht ohne Grund), dass die Anforderungen an die Einheiten auf Pixelebene eine andere als auf Geometryeben sind.
Das ist doch ein alter Hut. Was ein Hersteller nicht hat, muss er in ein negatives Licht rücken. Im Endeffekt zeigen unzählige Patente von nV, dass man vermutlich schon mit G90 auch auf ein US-Design setzt, und damit hat sich das Thema für mich eigentlich erledigt.
Und was genau wuerdest Du mit einer sehr effizienten D3D10 GPU Ende 2006 genau anrichten? Die paar techdemos von den IHVs werden die Dinger schon abspielen koennen, sonst zeig mir die wahren D3D10 Spiele fuer die absehbare Zukunft die ich nicht sehen kann.
Es war schon immer so dass bei einer neuen Generation man sich zuerst um die Basis-Implementierung und erst spaeter um die Leistung dieser kuemmert.
Ich sehe das eigentlich anders. Nvidia und ATI haben in dieser Richtung unterschiedliche "Doktrin"
ATI implementiert neue Features meist in wirklich nutzbarer Form und Geschwindigkeit, Nvidia ist oft früher dran, hat aber viele "Caps" -Features, welche nicht wirklich in nutzbarer Geschwindigkeit implementiert sind.
Nvidia ist "blendet" gern mit langer Feature-Liste.
Mal ein Auszug aus einer NV-Präsentation:
Can output trisfrom GS to different slice
- Possibly not writing to all slices
- Adds extra VS/GS operations
Regular MRT writes to all MRTs
- Fixed B/W usage
- But lower GS/VS ops
Der GS scheint bei NV ja zu schon für primitivste Dinge zu langsam zu sein. Sonst müsste man nicht ständig auf die Handvoll VS/GS Ops hinweisen, die einiges an Bandbreite und PS-Leistung sparen.
Dass GS und VS immer zusammen genannt werden, könnte man auch als Bestätigung für die 2er Aufteiltung VS/GS und PS sehen.
Und ich will jetzt bei bestem Willen nicht irgendeinen Quark lesen ueber "angebliche" D3D10 Spiele wie Crysis. Es geht hier im besten Fall um Spiele in 2007.
Crisis wird das Zeug eh bloß zur Geschwindigkeitsoptimierung heranziehen, da kannst du dann ja entscheiden was überhaupt was bringt.
Das ist doch ein alter Hut. Was ein Hersteller nicht hat, muss er in ein negatives Licht rücken. Im Endeffekt zeigen unzählige Patente von nV, dass man vermutlich schon mit G90 auch auf ein US-Design setzt, und damit hat sich das Thema für mich eigentlich erledigt.
Es geht auch um Leistung/Transistor (vor allem deshalb, weil das Ding zu Lebzeiten primär mit DX9 beschäftigt sein wird). Das war eine einfache Erklärung dazu seitens nVIDIA. Du überinterpretierst schon wieder. Nirgends hat nVIDIA bisher gesagt dass US-Designs schlecht wären, sie meinten nur dass sie es erst machen werden wenn die Zeit für sie selber reif dazu wäre.
Falls der GS nichts taugt ist das eine andere Sache, das hat damit aber nicht unbedingt was zu tun, außer dass es evtl. dafür zu wenige Geometrieprozessoren gibt durch die Trennung.
ATI implementiert neue Features meist in wirklich nutzbarer Form und Geschwindigkeit
Schon richtig, aber zu R4xx-Zeiten haben sie es untertrieben und das war ihnen auch bewusst. Notlösung halt.
Überhaupt wären die Features von NV40 auch zu Lebzeiten sehr wohl nutzbar gewesen (abgesehen von dyn. branching, das ist es heute noch nicht), es gab nur leider keine Hardwarebasis dafür.
Ich wüsste nicht warum man ihnen vorhalten soll die nützlichen SM3-Features zu unterstützen und dyn. branching halt mal rudimentär einzubauen, weil es die Spec eben verlangt. Immer noch besser als das PS2.b-Verbrechen.
Überhaupt wären die Features von NV40 auch zu Lebzeiten sehr wohl nutzbar gewesen (abgesehen von dyn. branching, das ist es heute noch nicht), es gab nur leider keine Hardwarebasis dafür.
Ich wüsste nicht warum man ihnen vorhalten soll die nützlichen SM3-Features zu unterstützen und dyn. branching halt mal rudimentär einzubauen, weil es die Spec eben verlangt. Immer noch besser als das PS2.b-Verbrechen.
Ich Rede ja auch nicht vom nur vom NV40, das zieht sich ja durch das gesamte Lineup seit Gründung des Unternehmens. Ich behaupte auch nicht daß das generell so ist, aber eine starke Tendenz läßt sich in der Produktpolitik schon ausmachen.
Die einzigen "Caps" Features die nicht brauchbar waren sind eigentlich FP-Shader auf NV3x und das dyn. branching auf NV4x/G7x. "Zieht sich durch das gesamte Lineup" kann ich also nicht nachvollziehen.
reunion
2006-04-08, 16:03:13
Es geht auch um Leistung/Transistor (vor allem deshalb, weil das Ding zu Lebzeiten primär mit DX9 beschäftigt sein wird).
Tut es das nicht immer?
Oder konkret: Tut es das bei G90 nicht mehr?
Und natürlich wird der Chip primär mit DX9 beschäftigt sein, aber auch da kann ein USC seine Stärken ausspielen.
Das war eine einfache Erklärung dazu seitens nVIDIA. Du überinterpretierst schon wieder. Nirgends hat nVIDIA bisher gesagt dass US-Designs schlecht wären, sie meinten nur dass sie es erst machen werden wenn die Zeit für sie selber reif dazu wäre.
Ich überinterpretiere überhaupt nicht, und ich habe auch nirgends behauptet, dass nV gesagt haben soll, dass ein USC "schlecht" ist. Man versucht halt logischerweise seine, aus welchen Gründen auch immer getroffene Entscheidung als die Einzig richtige darzustellen. Da kommen dann solche schwammigen Aussagen, wonach die Zeit noch nicht reif sei, etc. - ähnlich handhabte es im übrigen auch ATI mit SM3.
Und natürlich wird der Chip primär mit DX9 beschäftigt sein, aber auch da kann ein USC seine Stärken ausspielen.
Und seine Schwächen. Das Konzept hat nämlich welche, stell dir vor.
ähnlich handhabte es im übrigen auch ATI mit SM3.
Nicht US oder US wird für den Kunden außer in Performancefragen aber keinen Unterschied machen, deshalb finde ich es reichlich dämlich das direkt als Vor- oder Nachteil darzustellen.
reunion
2006-04-08, 18:13:28
Und seine Schwächen. Das Konzept hat nämlich welche, stell dir vor.
Nicht US oder US wird für den Kunden außer in Performancefragen aber keinen Unterschied machen, deshalb finde ich es reichlich dämlich das direkt als Vor- oder Nachteil darzustellen.
Ich habe nirgends behauptet, dass ein USC nur Vorteile hat, und ich habe dies auch nirgends direkt als Vor- oder Nachteil dargestellt. Es ging mir einzig und alleine um das verhalten von Herstellern bei nicht vorhandenen "Dingen". Aber da du offensichtlich ohnehin nunoch darauf aus bist, mir krampfhaft den Fanboy-Stempel aufzudrücken, hat es wirklich keine Sinn mehr, auf deine Beiträge einzugehen.
Ich habe nirgends behauptet, dass ein USC nur Vorteile hat, und ich habe dies auch nirgends direkt als Vor- oder Nachteil dargestellt. Es ging mir einzig und alleine um das verhalten von Herstellern bei nicht vorhandenen "Dingen".
Soso, wenn das so ist...
Aber da du offensichtlich ohnehin nunoch darauf aus bist, mir krampfhaft den Fanboy-Stempel aufzudrücken, hat es wirklich keine Sinn mehr, auf deine Beiträge einzugehen.
Uh, da hast du mich jetzt aber hart getroffen.
Winter[Raven]
2006-04-08, 19:42:54
Coda und Reunion ... eure Streiteren und immer dieses Fanboy ankreiden ist echt läßtig. Ich will jetzt weder dir Coda noch dir Reunion nah tretten, aber setzt euch auf die Ignorlist oder ignoriert einfach die BEiträge des anderen.
Meine two cents.....
Ailuros
2006-04-09, 02:42:14
Ich sehe das eigentlich anders. Nvidia und ATI haben in dieser Richtung unterschiedliche "Doktrin"
ATI implementiert neue Features meist in wirklich nutzbarer Form und Geschwindigkeit, Nvidia ist oft früher dran, hat aber viele "Caps" -Features, welche nicht wirklich in nutzbarer Geschwindigkeit implementiert sind.
Nvidia ist "blendet" gern mit langer Feature-Liste.
Weil 3 TMUs oder TruForm wirklich nutzbar waren in der Vergangenheit?
Was genau ist VST auf R5x0 wenn es nicht ein "Caps-Feature" ist oder deren VS dynamisches branching?
IHVs legen ihre eigene Prioritaeten je nach dem jeweiligen Transistoren-budget bei jeglicher Generation und danach werden auch Entscheidungen getroffen. Das Endresultat ist eben Vor- und Nachteile auf beiden Seiten; der Rest nur daemliche Entschuldigungen der Marketing-Abteilung was auch hier ohne Ausnahmen fuer beide gilt.
Ailuros
2006-04-09, 02:48:17
Mal ein Auszug aus einer NV-Präsentation:
Der GS scheint bei NV ja zu schon für primitivste Dinge zu langsam zu sein. Sonst müsste man nicht ständig auf die Handvoll VS/GS Ops hinweisen, die einiges an Bandbreite und PS-Leistung sparen.
Dass GS und VS immer zusammen genannt werden, könnte man auch als Bestätigung für die 2er Aufteiltung VS/GS und PS sehen.
Dass der GS auf G80 nichts wert sein koennte, ueberrascht mich kein bisschen.
Der Ironie zuliebe R6xx als USC hat bei weitem bessere Chancen einen anstaendigeren GS von Anfang an zu praesentieren; bleibt eben nur noch eine logische Erklaerung dazu dass ATI angeblich nur Features einsetzt wenn sie auch Sinn machen. Was mir als Verbraucher ein effizienter GS gut sein sollte ist mir fremd.
Um Missverstaendnissen zu entgehen, natuerlich ist es besser wenn man zu effizienteren Implementierungen kommt; es geht mir eher um die Widersprueche idiotischer Mythen die oefters kursieren. Wenn ein IHV kann, dann wird er es auch realisieren.
Ailuros
2006-04-09, 03:03:39
Und natürlich wird der Chip primär mit DX9 beschäftigt sein, aber auch da kann ein USC seine Stärken ausspielen.
Da es momentan keinen relevanten PC chip gibt, kannst Du ja mal versuchen die jeweiligen Vor- und Nachteile zwischen RSX und Xenos aufzuzaehlen. Mal verdammt vereinfacht: ich erwarte ueberhaupt kein AF fuer beider Lebzeiten zu sehen, MSAA wird es hier und da unter Bedingungen geben und die arithmetische Leistung liegt mehr oder weniger auf dem gleichen Nivaeu.
Ich überinterpretiere überhaupt nicht, und ich habe auch nirgends behauptet, dass nV gesagt haben soll, dass ein USC "schlecht" ist. Man versucht halt logischerweise seine, aus welchen Gründen auch immer getroffene Entscheidung als die Einzig richtige darzustellen. Da kommen dann solche schwammigen Aussagen, wonach die Zeit noch nicht reif sei, etc. - ähnlich handhabte es im übrigen auch ATI mit SM3.
Natuerlich ist das Konzept eines USC nicht schlecht; ganz im Gegenteil. Das einzige Problem hier ist dass es noch verdammt frueh ist ueber solche Angelegenheiten zu spekulieren, ohne dass man wenigstens weiss wofuer "G80" oder "R600" genau steht.
NV's Aussagen sind nur dann "schwammig" wenn sich R6xx rundum als ein effizienterer Design behauptet und das natuerlich vom high end bis zum budget der gesamten Produkt-Familie.
deekey777
2006-04-09, 15:21:11
Coda und reunion, bleibt sachlich. Wenn ihr euch besonders gern habt, nutzt die PN-Funktion, diese Sticheleien haben hier nichts zu suchen.']Coda und Reunion ... eure Streiteren und immer dieses Fanboy ankreiden ist echt lästig. Ich will jetzt weder dir Coda noch dir Reunion nah tretten, aber setzt euch auf die Ignorlist oder ignoriert einfach die Beiträge des anderen.
Meine two cents.....
Auch so etwas hat hier nichts zu suchen, dafür gibt's die PN-Funktion.
wann soll denn jetzt mal der tapeout erfolgen ..... wenn die GPU noch dieses Jahr kommen soll wird ja eng
die 7900gtx ein zeichen dafür das die kommende karte ein wirklich stark überarbeitetes design ?
mit der 7900gtx haben die ja so derb an der taktschraube gedreht ,damit man überhaupt ne chance gegen ati hat,das man mit dem chip wohl nichts mehr groß tun könnte.
Der G71 ist in erster Linie ein günstiger herzustellender G70, mit nur einer minimalen technischen Verbesserung.
Godmode
2006-04-13, 01:15:52
die 7900gtx ein zeichen dafür das die kommende karte ein wirklich stark überarbeitetes design ?
mit der 7900gtx haben die ja so derb an der taktschraube gedreht ,damit man überhaupt ne chance gegen ati hat,das man mit dem chip wohl nichts mehr groß tun könnte.
Naja man hätte noch einiges machen können, zb die ALUs verdoppeln, TMUs nebenläufig schalten... aber anscheinend wollte Nvidia einfach einen kostengünstigen Chip haben.
mapel110
2006-04-13, 01:19:57
Naja man hätte noch einiges machen können, zb die ALUs verdoppeln, TMUs nebenläufig schalten... aber anscheinend wollte Nvidia einfach einen kostengünstigen Chip haben.
Oder man wollte 2 Quads dranpappen und hat dann doch festgestellt, dass der Chip nicht sonderlich gut performen wird, auch nicht kostengünstig herzustellen ist und hat das Tapeout dafür gecancelt.
LordDeath
2006-04-13, 01:38:41
Oder man wollte 2 Quads dranpappen und hat dann doch festgestellt, dass der Chip nicht sonderlich gut performen wird, auch nicht kostengünstig herzustellen ist und hat das Tapeout dafür gecancelt.
wär der chip vielleicht an der speicherbandbreite verhungert?
Ailuros
2006-04-13, 06:05:40
Naja man hätte noch einiges machen können, zb die ALUs verdoppeln, TMUs nebenläufig schalten... aber anscheinend wollte Nvidia einfach einen kostengünstigen Chip haben.
Bei refreshes gibt es normalerweise keine Zeit fuer so fundamentale Aenderungen. Mit den Beispielen bewegst Du Dich schon im G80 Bereich.
Ailuros
2006-04-13, 06:10:50
Oder man wollte 2 Quads dranpappen und hat dann doch festgestellt, dass der Chip nicht sonderlich gut performen wird, auch nicht kostengünstig herzustellen ist und hat das Tapeout dafür gecancelt.
Leistung war leicht hoeher als G71/heute. Der Stromverbrauch war aber zu hoch und es waere eine ziemlich schlechte Idee fuer den notebook Markt gewesen. Ein Simulator kann solche Einzelheiten angeben und man kann sich den tapeout sparen falls das bisherige Resultat nicht passen sollte.
Ailuros
2006-04-13, 06:14:48
wär der chip vielleicht an der speicherbandbreite verhungert?
Man haette so ein Ding sowieso mit >800MHz GDDR3 getaktet.
Nightspider
2006-04-13, 20:40:24
Mal ne andere Frage:
Hat jemand etwas von einer neuen Multi-Chip-on-one-PCB gehört ?
Von ASUS, GIGABYTE oder so ?
Es gab doch eine Dual-7800 GT
Wäre es nicht möglich 2 7900 GT mit höherem Chiptakt (zwischen GT und GTX) zu bauen ?
So das es dann 8GPU - PC's geben kann ?
[sry4offtopic]
mapel110
2006-04-13, 20:45:07
Mal ne andere Frage:
Hat jemand etwas von einer neuen Multi-Chip-on-one-PCB gehört ?
Von ASUS, GIGABYTE oder so ?
Es gab doch eine Dual-7800 GT
Wäre es nicht möglich 2 7900 GT mit höherem Chiptakt (zwischen GT und GTX) zu bauen ?
So das es dann 8GPU - PC's geben kann ?
[sry4offtopic]
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4083165#post4083165
Dazu gibts zum Beispiel diesen Thread.
Leistung war leicht hoeher als G71/heute. Der Stromverbrauch war aber zu hoch und es waere eine ziemlich schlechte Idee fuer den notebook Markt gewesen. Ein Simulator kann solche Einzelheiten angeben und man kann sich den tapeout sparen falls das bisherige Resultat nicht passen sollte.
den stromverbrauch kannst du aber im simulator sicher nicht feststellen.
Demirug
2006-04-13, 21:48:15
den stromverbrauch kannst du aber im simulator sicher nicht feststellen.
Genügen Rechenleistung vorrausgesetzt aber sehr genau vorhersagen.
Genügen Rechenleistung vorrausgesetzt aber sehr genau vorhersagen.
naja, der simulator kann aber nicht feststellen welche spannung man tatsächlich für die erhoffte taktfrequenz braucht, damit werden vorhersagen vom stromverbauch schon sehr schwer.
Godmode
2006-04-13, 22:37:21
Bei refreshes gibt es normalerweise keine Zeit fuer so fundamentale Aenderungen. Mit den Beispielen bewegst Du Dich schon im G80 Bereich.
War gar nicht auf den Refresh bezogen, sondern einfach was man, wenn man wollte aus dem G70 hätte machen können.
Ailuros
2006-04-14, 00:20:36
War gar nicht auf den Refresh bezogen, sondern einfach was man, wenn man wollte aus dem G70 hätte machen können.
Wollen koennten IHVs vieles, nur gibt es bei Refreshes eben nicht genug Zeit dazu. Oder glaubst Du vielleicht dass die Textur-samplers zu trennen und ALU Anzahl weiter zu erhoehen nur mit einer Handdrehung geht? Es handelt sich hierbei um Aenderungen fuer die man eine neue Generation braucht und genau dieses u.a. wird auch auf G80 vorhanden sein.
Godmode
2006-04-14, 01:33:36
Nein das ist mir schon klar dass man das nicht im Handumdrehen macht, aber ich wollte eigentlich sagen: wenn man einen starken DX9 Chip haben möchte, könnte man den G70 ordentlich aufboren, aber egal ist eh OT hier.
Ailuros
2006-04-14, 07:44:47
Nein das ist mir schon klar dass man das nicht im Handumdrehen macht, aber ich wollte eigentlich sagen: wenn man einen starken DX9 Chip haben möchte, könnte man den G70 ordentlich aufboren, aber egal ist eh OT hier.
So OT ist es gar nicht. Damit man zu den beiden Aenderungen kommt muesste man auch den Design fundamentaler umkrempeln; dass versuche ich schon die ganze Zeit zu sagen aber ich hab es wohl nicht ausdruecklich genug erlaeutert. G80 hat mehr ALUs pro Kanal, nur verdaechtige ich dass diese eher in MIMD diesmal organisiert sind. Hilft das zumindest? ;)
robbitop
2006-04-14, 09:29:00
@AiL
Was ist bei dir ein "Kanal"? (ich kenne z.B. RGBA als Kanäle)
Und wobei soll deine MIMD Aussage helfen?
Vermutlich ein SIMD-Kanal, sprich eine nur zusammen ansteuerbare Einheit von Rechenwerken.
robbitop
2006-04-14, 11:21:35
Der Vorteil an MIMD ist ja, dass jeder Kanal seinen eigenen Operator hat. Es ist also als hätte jede ALU 4 getrennte skalare ALUs. Meint AiL vieleicht, dass jede dieser Teile 2x Operationen ausführen kann?
Ailuros
2006-04-14, 20:58:59
Es ist noch viel zu frueh fuer solche Einzelheiten.
naja, der simulator kann aber nicht feststellen welche spannung man tatsächlich für die erhoffte taktfrequenz braucht, damit werden vorhersagen vom stromverbauch schon sehr schwer.
Klar kann er das anhand des Transistormodells der Fab.
So OT ist es gar nicht. Damit man zu den beiden Aenderungen kommt muesste man auch den Design fundamentaler umkrempeln; dass versuche ich schon die ganze Zeit zu sagen aber ich hab es wohl nicht ausdruecklich genug erlaeutert. G80 hat mehr ALUs pro Kanal, nur verdaechtige ich dass diese eher in MIMD diesmal organisiert sind. Hilft das zumindest? ;)
Du weißt was MIMD bedeutet? Führen die Pixelshader in G70 wirklich immer zusammen die gleiche Op aus (SIMD)?
Ailuros
2006-04-15, 07:21:12
Du weißt was MIMD bedeutet? Führen die Pixelshader in G70 wirklich immer zusammen die gleiche Op aus (SIMD)?
Die PS auf NV4x/G7x sind in ihrer Basis SIMD.
robbitop
2006-04-15, 09:39:56
Das sind bisher alle PS Rechenwerke gewesen.
Die PS auf NV4x/G7x sind in ihrer Basis SIMD.
MIMD würde wohl die Branch-Performance verbessern, aber sonst ist es eigentlich kein großer Vorteil.
Demirug
2006-04-15, 13:16:58
Die PS auf NV4x/G7x sind in ihrer Basis SIMD.
Genau genomen sind es Vektorrechner und zwar jeder Quad Block ein eigener. Das trifft aber auch auch auf die R5XX Chips zu nur sind dort die Vektoren kürzer.
Ailuros
2006-04-16, 02:31:41
MIMD würde wohl die Branch-Performance verbessern, aber sonst ist es eigentlich kein großer Vorteil.
G80 wurde des oefteren als massiver multi-threaded Design beschrieben.
Uebrigens ist die Branch-Leistung auf NV4x/G7x so uebertoll, dass eine jegliche solche Massnahme ziemlich nebensaechlich waere ja? :|
Ailuros
2006-04-16, 02:34:03
Genau genomen sind es Vektorrechner und zwar jeder Quad Block ein eigener. Das trifft aber auch auch auf die R5XX Chips zu nur sind dort die Vektoren kürzer.
Vereinfacht auf einzelner quad-Basis SIMD und auf dem gesamten Design dann quasi MIMD oder nicht?
Demirug
2006-04-16, 10:47:03
Vereinfacht auf einzelner quad-Basis SIMD und auf dem gesamten Design dann quasi MIMD oder nicht?
In gewiesser Weisse schon aber man muss eine GPU IMHO ja eher als ein Netzwerk aus vielen einzelnen Prozessoren sehen. Das ganze geht duraus schon in die Richtung Supercompuer Design.
Du weißt was MIMD bedeutet? Führen die Pixelshader in G70 wirklich immer zusammen die gleiche Op aus (SIMD)?Innerhalb jeder einzelnen Quadpipe: Natürlich.
Innerhalb jeder einzelnen Quadpipe: Natürlich.
Das war nicht meine Frage.
Dann präzsiere deine Frage.
Ich sagte die Pixelshader (= alle).
Da offensichtlich jede Quadpipe für sich branchen kann, gilt das SIMD-Prinzip wohl nur innerhalb der einzelnen Quadpipe.
Da offensichtlich jede Quadpipe für sich branchen kann
Kann sie das wirklich? Es könnte bei der miserablen Leistung von G70 nämlich auch so sein, dass dann alle Quads beide Pfade nehmen müssen wenn es nur eine tut.
Kann sie das wirklich? Es könnte bei der miserablen Leistung von G70 nämlich auch so sein, dass dann alle Quads beide Pfade nehmen müssen wenn es nur eine tut.Ich kann das mit der "miserablen" Leistung ehrlich gesagt nicht mehr hören. Ja, der G70 kann – genau wie der NV40 – beim Branchen sogar Leistung verlieren, da Instruktionen für die Kontrollstrukturen bei der GF einige Takte kosten. Er kann aber auch Leistung gewinnen. Bei einer Granularität, wo X1900 etwa 50% rausholt, schafft der G70 nur ca. 25%, aber immerhin.
Tridam hat erst über die Branchinggranularität die (wahrscheinliche) Quadgröße bei der NV40/G70-Architektur ausgemessen. Die Granularität ändert sich eben nicht mit der Zahl der Pipelines, außer beim NV40 unter bestimmten Umständen (NV43 kann da also schneller sein als NV40.)
Da man offenbar einzelne Quadpipes deaktivieren kann liegt sowieso nahe, dass die Quadpipes unabhängig voneinander arbeiten können. Sie haben ihren eigenen Textur-L1-Cache, ihre eigene Quad-TMU, ihren eigenen Register-FIFO – warum sollten alle Quadpipes pro Takt am selben Befehl arbeiten müssen?
Ich kann das mit der "miserablen" Leistung nicht mehr hören. Ja, der G70 kann – genau wie der NV40 – beim Branchen sogar Leistung verlieren, da Instruktionen für die Kontrollstrukturen bei der GF einige Takte kosten. Er kann aber auch Leistung gewinnen. Bei einer Granularität, wo X1900 etwa 50% rausholt, schafft der G70 nur ca. 25%, aber immerhin.
Aths, ich hab es selber ausprobiert. Es ist einfach unbrauchbar, so leid es mir tut. Bei Screen-Aligned-Quads hätte man noch irgendwie Chancen da was zu reißen, aber bei Real-Life-Polygonen trifft man mit ziemlicher Sicherheit immer beide Pfade auf G70.
Aths, ich hab es selber ausprobiert. Es ist einfach unbrauchbar, so leid es mir tut. Bei Screen-Aligned-Quads hätte man noch irgendwie Chancen da was zu reißen, aber bei Real-Life-Polygonen trifft man mit ziemlicher Sicherheit immer beide Pfade auf G70.Tridam hats auch ausgemessen. http://www.behardware.com/medias/photos_news/00/15/IMG0015654.gif
Was ist da denn bitte die x-Achse?
Was ist da denn bitte die x-Achse?
Quads?
Was ist da denn bitte die x-Achse?
Da ist der Text dazu:
http://www.behardware.com/articles/605-3/the-radeon-x1900-xtx-x1900-xt-and-x1900-crossfire-in-tests.html
Da wurden ja auch Screen-Aligned-Polygone verwendet. Das ist doch kein realistischer Testfall. Bei G70 fällt viel zu viel Zeug in die -10%-Stellen.
"One column out of 2 has to display a complex shader and the other can skip this part of rendering. Average sized triangles in motion are displayed on the monitor and cross the areas that use different branches. The triangle size, their position and the column size have an influence on branching efficiency. This is close to real situations."
Da steht "triangles in motion". (Die Übersetzung aus dem Französischen hat ein Nicht-Tech-Guy gemacht, daher das schlechte Englisch im gesamten Artikel.)
Ailuros
2006-04-18, 09:55:25
Nur die VS Einheiten auf G7x sind 100% MIMD. Wie es jetzt mit den quads an fuer sich wirklich aussieht koennte man stundenlang Haare spalten, aber auf dem quad-level verfolgt das Ganze das SIMD Prinzip.
Fuer das was ich generell ueber G80 bisher gehoert habe machen mir als Laien solche Aenderungen eigentlich Sinn. Den "Texturing Prozessor" wuerde ich im besten Fall als merkwuerdig bezeichnen, falls die bisherigen Infos stimmen sollten.
na alle so still .... keiner mehr am spekulieren ?
Nvidia’s Transition to Unified Shader Architecture Will Be Gradual – Chief Scientist.
Nvidia Set to Take ATI-Like Approach to Unified Shader Architecture
http://www.xbitlabs.com/news/video/display/20060418170458.html
Ich habe jetzt nicht alles gelesen, möchte aber trotzdem gerne was fragen: Wie sieht's beim G80 mit HQ-AF und HDR+AA aus? Ist da schon was bekannt?
Rente
2006-05-16, 12:59:43
Gast[/POST]']Ich habe jetzt nicht alles gelesen, möchte aber trotzdem gerne was fragen: Wie sieht's beim G80 mit HQ-AF und HDR+AA aus? Ist da schon was bekannt?
IMO steht das ausser Frage! Wenn NV das in der nächsten Generation nicht bieten kann, dann wäre es ziemlich peinlich.
Für HQ-AF müssten die ingeneure bei nvidia gar nicht mal viel ihren grips benutzen - sie müssten nur die "möchtegern optimierungen" in den treibern deaktivieren... somit hätte man bei schlecht programmierten spielen vielleicht sogar weniger probleme, denn manche spiele reagieren etwas empfindlich mit diesen optmierungen (resultat waäre z.B felehafte dargestellte texturen)
mfg
Rente
2006-05-16, 14:42:38
Gast[/POST]']Für HQ-AF müssten die ingeneure bei nvidia gar nicht mal viel ihren grips benutzen - sie müssten nur die "möchtegern optimierungen" in den treibern deaktivieren... somit hätte man bei schlecht programmierten spielen vielleicht sogar weniger probleme, denn manche spiele reagieren etwas empfindlich mit diesen optmierungen (resultat waäre z.B felehafte dargestellte texturen)
mfg
Entschuldigung, aber das ist falsch. HQ-AF bedeutet nicht nur AF ohne Flimmern, sondern auch noch vollkommen winkelunabhägiges AF wie bei Geforce 4, FX. Das lässt sich aber AFAIK nicht einfach durch die Deaktivierung bestimmter Optimierungen bewerkstelligen, weil NV ab Geforce6 nur winkelabhängiges AF in Hardware kann, zumindestens meines Wissens nach.
will jetzt endlich mal neuigkeiten wann die gpu kommen soll ... gibts ja nicht 0(
deekey777
2006-05-16, 16:40:41
Gast[/POST]']will jetzt endlich mal neuigkeiten wann die gpu kommen soll ... gibts ja nicht 0(
Es bringt nichts, den Thread zu pushen, wenn es keine News gibt. Sollte es doch was Neues geben, wird es hier auch gepostet. ;(
Ob-1[/POST]']Entschuldigung, aber das ist falsch. HQ-AF bedeutet nicht nur AF ohne Flimmern, sondern auch noch vollkommen winkelunabhägiges AF wie bei Geforce 4, FX. Das lässt sich aber AFAIK nicht einfach durch die Deaktivierung bestimmter Optimierungen bewerkstelligen, weil NV ab Geforce6 nur winkelabhängiges AF in Hardware kann, zumindestens meines Wissens nach.
naja, aber die optimierungen in den treibern müssen trotzdem raus...denn diese verschlechtern in der regel nur die bildqualität für mehr speed.
und was mit winkelunabhängiges Af angeht, da müssen die ingeneure nur "back to the roots" was sie früher konnten, müssen sie heute nicht neu entwickeln! (ich gehe davon aus, dass sie die winkelabhängige af erst entwickeln und "einbauen" mussten in die hardware")
mfg
LordDeath
2006-05-16, 17:33:27
ich erwarte, dass die treiber beim G80 auch schön in sachen nview weiterentwickelt werden. etwas stabiler könnte es noch sein...
hoffentlich wird dann nicht alles auf vista konzentriert und xp wird noch einpaar jahre weiter mit treibern beglückt...
HDR+AA ist sowieso Pflichtprogramm für D3D10.
wird es auch wieder einen so guten refresh chip geben?
finde den G71 ja extremst gelungen und einen DER besten refreshes überhaupt
bin ja noch imemr dazu genaigt mir einen 7900GT zu kaufen
AnarchX
2006-05-25, 21:42:07
Gast[/POST]']wird es auch wieder einen so guten refresh chip geben?
Bevor man über den Refresh nachdenkt, sollte ja erstmal der G80 kommen ;)
Aber es ist anzunehmen das G80 noch in 90nm kommen wird und beim G81 könnte auch schon 65nm zum Einsatz kommen, über das NV schon spricht.
Paul Brain
2006-05-26, 12:55:27
Gast[/POST]']finde den G71 ja extremst gelungen und einen DER besten refreshes überhaupt
bin ja noch imemr dazu genaigt mir einen 7900GT zu kaufen
Sicher?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=298043
Winter[Raven]
2006-05-26, 13:01:56
Paul Brain[/POST]']Sicher?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=298043
Und was willst du uns damit sagen? Die Statistik sagt nunmal aber aus, dass die Chips vollkommen ok sind, und die Ausfälle nicht unbedingt chiptechnisch bedingt sind.
Ich will ja nicht damit anfangen wieviele ATI Karten scho verreckt sind.
Paul Brain[/POST]']Sicher?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=298043
0,4% defekt sind doch noch normal wenn man bedenkt was die Leute hier so alles mit ihren Karten anstellen.
reunion
2006-05-26, 13:19:45
Gast[/POST]']0,4% defekt sind doch noch normal wenn man bedenkt was die Leute hier so alles mit ihren Karten anstellen.
Wenn du die 71.6%, die überhaupt keine 7900 GT(X) haben abziehst, und noch die defekten 7900GTX dazuzählst (3.6%), kommst du auf einen recht beachtlichen Prozentsatz. Wobei die Umfrage natürlich in keinster Weise representativ ist.
darkvader
2006-05-26, 13:24:08
Klar, wenn ich meinen Nachbar frage dessen Karte nicht geht, und mich abziehe weil ich keine habe, dann bin ich bei 100% Ausfall.
Aus der Umfrage besorgnissergende Ausfallzahlen hochzurechnen halte ich für ziemlich gewagt.
reunion
2006-05-26, 13:26:22
darkvader[/POST]']Klar, wenn ich meinen Nachbar frage dessen Karte nicht geht, und mich abziehe weil ich keine habe, dann bin ich bei 100% Ausfall.
Aus der Umfrage besorgnissergende Ausfallzahlen hochzurechnen halte ich für ziemlich gewagt.
Natürlich ist das wenig sinnvoll, allerdings sollte auch klar sein, dass man Leute, welche die Karte nichtmal besitzten, nicht dazuzählen kann.
seahawk
2006-05-26, 13:31:19
Topic ?
reunion[/POST]']Wenn du die 71.6%, die überhaupt keine 7900 GT(X) haben abziehst, und noch die defekten 7900GTX dazuzählst (3.6%), kommst du auf einen recht beachtlichen Prozentsatz. Wobei die Umfrage natürlich in keinster Weise representativ ist.
Da hast du natürlich Recht, da hätte ich doch etwas genauer hinsehen sollen. Die Umfrageoption "Ich habe keine 7900 GT(X)" ist aber auch wirklich dämlich. So sind dann schon ca. 3,5% defekt.
Winter[Raven]
2006-05-26, 14:11:01
reunion[/POST]']Wenn du die 71.6%, die überhaupt keine 7900 GT(X) haben abziehst, und noch die defekten 7900GTX dazuzählst (3.6%), kommst du auf einen recht beachtlichen Prozentsatz. Wobei die Umfrage natürlich in keinster Weise representativ ist.
Du legst natürlich alles so aus wie es dir passt, gelle? :| :mad: :P
Kladderadatsch
2006-05-26, 14:12:04
Gast[/POST]']Da hast du natürlich Recht, da hätte ich doch etwas genauer hinsehen sollen. Die Umfrageoption "Ich habe keine 7900 GT(X)" ist aber auch wirklich dämlich.
wenn ich die nicht hinzugefügt hätte, hätte die hälfte derer einfach was anderes angeklickt, um den 'umfrage anzeigen'-klick einzusparen. das wäre dann wirklich nicht representativ (in diesem forum).
wenn du willst, helf ich dir ein bisschen bei der subtraktion 250-179:comfort:
insane in the membrane[/POST]']
wenn du willst, helf ich dir ein bisschen bei der subtraktion 250-179:comfort:
Was soll das denn heißen? 1/29~=0,0345~=3,45%; wie ich ja auch schon schrieb.
reunion
2006-05-26, 15:13:14
'Winter[Raven]'[/POST]']Du legst natürlich alles so aus wie es dir passt, gelle? :| :mad: :P
Natürlich (als ob man sich da irgendetwas zurechtlegen könnte :rolleyes:).
Gast[/POST]']Was soll das denn heißen? 1/29~=0,0345~=3,45%; wie ich ja auch schon schrieb.
Das sind aber nur die GTs, bei den GTXen ist die Ausfallrate laut dieser Umfrage um einiges höher.
Jetzt aber genug OT.
reunion[/POST]']Natürlich (als ob man sich da irgendetwas zurechtlegen könnte :rolleyes:).
Das sind aber nur die GTs, bei den GTXen ist die Ausfallrate laut dieser Umfrage um einiges höher.
Jetzt aber genug OT.
Der Gast oben wollte sich ja auch eine GT kaufen und keine GTX.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.