Archiv verlassen und diese Seite im Standarddesign anzeigen : R600 schon im dritten Quartal 2006?
http://www.gamestar.de/news/hardware/32852/
interessant ! news zum R600
Gamestar schreibt wie immer irgend nen Bullshit ab.
robbitop
2006-04-13, 11:56:48
@coda
denkst du es werden mehr als 64 ALUs?
Nö das mit der Physik.
Das klingt so als würde dafür spezielle Hardware verbaut werden.
reunion
2006-04-13, 12:23:35
@coda
denkst du es werden mehr als 64 ALUs?
Ich bin zwar nicht Coda, aber ich erlaube mir trotzdem meinen Senf dazuzugeben: 64 "Xenos-ALUs", also mit jeweils eine MADD pro ALU werden jedenfalls zu wenig sein IMO. Immerhin erreicht schon ein R580 48 MADDs plus 48ADDs, und an der Taktrate wird man auch nicht mehr großartig schrauben können. Außerdem erwartet man für die ersten D3D10-GPUs einen kräftigen Anstieg der arithmetischen Leistung. Ich spekulieren (völlig ohne Grundlage) auf mindestens 96, eher 128 US-ALUs, welche jeweils eine MADD4 berechnen können. "Mini-ALUs" dürften durch die Zusammenlegung von PS und VS ja nicht mehr viel Sinn machen, da das Anforderungsprofil einfach zu verschieden ist. Nicht umsonst wurde bei Xenos auf diese Kleinigkeiten verzichtet.
Ailuros
2006-04-13, 16:34:30
Es spricht nichts gegen dual issue ALUs auf einem USC; nichtdestominder ob jetzt theoretisch 64*16 FLOPs oder 128*8 FLOPs das Resultat ist das gleiche.
Im Vergleich zu heutigen GPUs ist das zwar ein gewaltiger Sprung aber sonst fuer die Generation eine Rate die man leicht erraten koennte.
Winter[Raven]
2006-04-13, 16:37:00
Es spricht nichts gegen dual issue ALUs auf einem USC; nichtdestominder ob jetzt theoretisch 64*16 FLOPs oder 128*8 FLOPs das Resultat ist das gleiche.
Im Vergleich zu heutigen GPUs ist das zwar ein gewaltiger Sprung aber sonst fuer die Generation eine Rate die man leicht erraten koennte.
Und was gibts du für den G80 an? Ähnliche Zahlen? :biggrin:
Hvoralek
2006-04-13, 16:39:17
Ich spekulieren (völlig ohne Grundlage) auf mindestens 96, eher 128 US-ALUs, welche jeweils eine MADD4 berechnen können.Müsste das nicht ein MADD5 sein? Die Teile müssen auch Vertex- Berechnungen können.
Entweder dass oder wirklich ein ganzes Quad mehr.Das glaube ich nicht. Und mehr ALUs – wo sollen die sein? Ein Quad ist auch räumlich eine Einheit, da hat man nicht Platz, irgendwo auf den Chip Ersatz-ALUs zu packen.
Müsste das nicht ein MADD5 sein? Die Teile müssen auch Vertex- Berechnungen können.Vertex-Berechnungen sind MAD4-Berechnungen.
Ich bin zwar nicht Coda, aber ich erlaube mir trotzdem meinen Senf dazuzugeben: 64 "Xenos-ALUs", also mit jeweils eine MADD pro ALU werden jedenfalls zu wenig sein IMO. Immerhin erreicht schon ein R580 48 MADDs plus 48ADDs, und an der Taktrate wird man auch nicht mehr großartig schrauben können. Außerdem erwartet man für die ersten D3D10-GPUs einen kräftigen Anstieg der arithmetischen Leistung. Ich spekulieren (völlig ohne Grundlage) auf mindestens 96, eher 128 US-ALUs, welche jeweils eine MADD4 berechnen können. "Mini-ALUs" dürften durch die Zusammenlegung von PS und VS ja nicht mehr viel Sinn machen, da das Anforderungsprofil einfach zu verschieden ist. Nicht umsonst wurde bei Xenos auf diese Kleinigkeiten verzichtet.Mit 64 ALUs könnte man auch schon eine Menge machen. Mit dem R580 gabs erst einen fetten ALU-Anstieg, dass gleich in der nächsten Generation so weiter geht ist nicht gesagt. Es könnte genauso gut, sein, dass man sich das für den Refresh aufhebt.
Es spricht nichts gegen dual issue ALUs auf einem USC; nichtdestominder ob jetzt theoretisch 64*16 FLOPs oder 128*8 FLOPs das Resultat ist das gleiche.
Wua... Nein!
Ein Quad ist auch räumlich eine Einheit
Mann kann trotzdem Logik redundant auslegen auch wenn es nicht die ganze ALU ist, sondern nur besonders kritische Teile.
Vertex-Berechnungen sind MAD4-Berechnungen.
ATI verwendet bisher aber ein Vec4+Scalar in den Vertexshadern. Kann gut sein dass sie das für die Unified-ALUs weiterverwenden.
Hvoralek
2006-04-13, 17:05:56
Vertex-Berechnungen sind MAD4-Berechnungen.Korrigiere mich, aber eine Vertex- Pipeline verfügt doch über eine Vec4- und eine Skalareinheit, insgesamt also fünf Kanäle. Ist das dann nicht MADD5?
ATI verwendet bisher aber ein Vec4+Scalar in den Vertexshadern. Kann gut sein dass sie das für die Unified-ALUs weiterverwenden.
Nachdem sie es auch so bei Xenos beibehalten haben, halte ich es auch für den R600 für sehr wahrscheinlich.
Korrigiere mich, aber eine Vertex- Pipeline verfügt doch über eine Vec4- und eine Skalareinheit, insgesamt also fünf Kanäle. Ist das dann nicht MADD5?Das ist MAD4+MAD1.
Vertexrechnungen sind XYZW-Rechnungen. Der skalare Kanal kommt daher, dass ATI früher viele SFUs (Special Functions) via MAD berechnete, und ein MAD1 kann ja in vier Takten noch ein MAD4 beisteuern, falls man keine SFUs hat.
NV hatte im skalaren Kanal früher nur die SFU-Unit, bietet dort heute aber auch noch ein MAD. Jetzt wo ATI für die SFUs ebenfalls Spezialunits hat, wäre auch bei ATI das MAD entbehrlich. Die Frage ist ob es billiger ist, den skalaren Kanal MAD-fähig zu machen oder stattdessen eine komplette zusätzliche Vertex-Pipe einzubauen.
Mann kann trotzdem Logik redundant auslegen auch wenn es nicht die ganze ALU ist, sondern nur besonders kritische Teile.Und die will man dann gezielt abschalten? Fehler können im Chip überall auftreten, die eigentlichen ALUs nehmen nicht so viel Platz ein.
Ailuros
2006-04-13, 22:09:30
Wua... Nein!
Ich will Dir ja glauben, nur leider sagte man mir als ich bei 2 Stellen fragte woher ich den Quatsch eigentlich habe. Beide haben USCs in Hardware schon vorgestellt.
Hvoralek
2006-04-13, 23:59:38
Das ist MAD4+MAD1.Aha, danke.
Die Frage ist ob es billiger ist, den skalaren Kanal MAD-fähig zu machen oder stattdessen eine komplette zusätzliche Vertex-Pipe einzubauen.Der skalare Kanal kann doch schon ein MADD? :confused:
Meinst du, die Frage sei, ob es sich lohnt, die Skalareinheiten zu streichen und dafür 1/4 mehr komplette Pipelines (mit vec4) zu bauen?
Genau.
Wie gesagt war ATIs MAD im skalaren Teil eher ein Notbehelf, um z.B. SINCOS in 8 Takten zu berechnen. Jetzt wo auch ATI eine SFU hat, die alle SFUs übernimmt (btw seit R420, während sich da im Pixelshader nichts änderte) könnten sie auf das MAD im skalaren Teil verzichten.
Aber ATIs Vertexshader sind ja volle SIMD-Pipes, es gibt keine 8 VS, sondern einen 8x-VS. Das ist zumindest bei dynamic branching ungünstig. NV hat trotzdem mit dem MAD im skalaren Teil nachgezogen. Vertexshader gibts deutlich weniger als Pixelshader, insofern treibt das den Transitorcount auch nicht allzu weit in die Höhe.
reunion
2006-04-15, 21:44:01
Mit 64 ALUs könnte man auch schon eine Menge machen. Mit dem R580 gabs erst einen fetten ALU-Anstieg, dass gleich in der nächsten Generation so weiter geht ist nicht gesagt. Es könnte genauso gut, sein, dass man sich das für den Refresh aufhebt.
Ich weiß nicht. IMO wird sich ATi davor hüten, dass R600 vom Vorgängerchip gerade in dieser wichtigen Hinsicht geschlagen werden könnte. Und dieser fette ALU-Anstieg mit R580 war schon lange überfällig.
Was man dabei auch nicht vergessen sollte, ist, dass diese hypotetischen 64ALUs auch noch für Vertexberechnungen herhalten müssten.
mapel110
2006-04-15, 21:57:43
Was man dabei auch nicht vergessen sollte, ist, dass diese hypotetischen 64ALUs auch noch für Vertexberechnungen herhalten müssten.
Und gerade da werden dann doch Resourcen frei. Die Vertexshader sind doch derzeit in Spielen nie ausgelastet und überdimensioniert; wohl um keinen Flaschenhals zu den Pixelpipes zu bekommen. Wenn diese Pipes nun auch Pixelshader übernehmen können, steigt doch die Performance.
Demirug
2006-04-15, 23:08:12
Und gerade da werden dann doch Resourcen frei. Die Vertexshader sind doch derzeit in Spielen nie ausgelastet und überdimensioniert; wohl um keinen Flaschenhals zu den Pixelpipes zu bekommen. Wenn diese Pipes nun auch Pixelshader übernehmen können, steigt doch die Performance.
Nur wenn es an der Rechenleistung hängt. Aber bereits die 3 ALUs pro TMU sind bei den meisten Spielen überdimensioniert.
Ich will Dir ja glauben, nur leider sagte man mir als ich bei 2 Stellen fragte woher ich den Quatsch eigentlich habe. Beide haben USCs in Hardware schon vorgestellt.
Ich schreib dir sehr schnell ein Programm das auf der 128x1 Konfiguration deutlich schneller läuft als auf der 64x2.
Es ist einfach nicht möglich die Einheiten jeden Takt mit 2 Ops zu versorgen bei manchen Programmstellen, deshalb ist Ersteres auf jedenfall effizienter.
StefanV
2006-04-16, 00:40:04
Ich schreib dir sehr schnell ein Programm das auf der 128x1 Konfiguration deutlich schneller läuft als auf der 64x2.
Es ist einfach nicht möglich die Einheiten jeden Takt mit 2 Ops zu versorgen bei manchen Programmstellen, deshalb ist Ersteres auf jedenfall effizienter.
Öhm, ist das nicht prinzipiell das gleiche wie bei 8x1 zu 4x2 TMUs??
Oder aber die (2/)4x4 Dingsda der Parhelia :ugly:
Ailuros
2006-04-16, 02:27:30
Ich schreib dir sehr schnell ein Programm das auf der 128x1 Konfiguration deutlich schneller läuft als auf der 64x2.
Es ist einfach nicht möglich die Einheiten jeden Takt mit 2 Ops zu versorgen bei manchen Programmstellen, deshalb ist Ersteres auf jedenfall effizienter.
Und auf welchem hypothetischen USC soll ich das Ganze genau testen?
Und auf welchem hypothetischen USC soll ich das Ganze genau testen?
Wenn beide ALUs einer Pipe nicht alle Instructions können ist das eine notwendige Schlussfolgerung - und selbst wenn sie es täten kommt es trotzdem öfters zu Stalls als mit einer ALU und doppelt so vielen Pipes.
Das ganze kannst du mit nVIDIAs ShaderPerf auf G70 sehr einfach sehen, da kommt nie der maximale theoretische Durchsatz raus bei normalen Shadern.
Bei CPUs hat man das gleiche Problem, da kannst auch nicht einfach beliebig viele Recheneinheiten ranflanschen und eine lineare Leistungssteigerung erwarten.
reunion
2006-04-16, 11:29:41
Und gerade da werden dann doch Resourcen frei. Die Vertexshader sind doch derzeit in Spielen nie ausgelastet und überdimensioniert; wohl um keinen Flaschenhals zu den Pixelpipes zu bekommen. Wenn diese Pipes nun auch Pixelshader übernehmen können, steigt doch die Performance.
Natürlich, doch darum ging es (mir) nicht. Das sollte nur verdeutlichen, dass 64 ALUs für PS+VS(+GS) zu wenig sind für R600, wenn man nicht unter Umständen von R580 geschlagen werden will. Immerhin hat ein R580 zusätzliche zu den 48 Vec4-MADD plus 48 Vec4-ADD auch noch 8 Vec4+1-MADD in den VS, die ja bei R600 wegfallen.
Wenn dann würde ich auch eher von "dickeren" ALUs als bei Xenos ausgehen, wenn es wirklich nur 64 werden.
reunion
2006-04-16, 11:56:35
Du schreibst doch selber, dass dickere ALUs ineffizient werden. Warum also nicht 128 "Xenos-ALUs"?
Speziell bei einem USC müssen die ALUs verschiedensten Anforderungen gerecht werden, und daher spekuliere ich auch nur mit einer einfachen MADD pro ALU. ATi hat bei Xenos mit Sicherheit nicht ohne Grund die zusätzliche ADD und andere Spielereien über Board geworfen.
Du schreibst doch selber, dass dickere ALUs ineffizient werden. Warum also nicht 128 "Xenos-ALUs"?
aber viele kleine ALUs brauchen verhältnismäßig mehr platz.
man muss eben ein gesundes mittelmaß finden, so dass man die ALUs noch ordentlich auslaten kann und möglichst wenig transitoren für die gewünschte rechenleistung braucht.
Super-S
2006-04-16, 12:56:04
:cool: Ich kenne mich zwar mit der Materie nicht so gut aus, aber der Anstieg beim R580 mit 48 Pixel-Shader Einheiten...ist doch schon ne Menge. Mann sagt doch das der Chip mit den Spielen wachsen wird, was ja bedeutet das die 48 Einheiten noch lange nicht ausgereizt sind, oder ?
Werden die 48 PSE schon in heutigen 3D-Anwendungen voll ausgereizt ?
Du schreibst doch selber, dass dickere ALUs ineffizient werden. Warum also nicht 128 "Xenos-ALUs"?
Braucht deutlich weniger Kontrolllogik.
LordDeath
2006-04-16, 15:52:44
Werden die 48 PSE schon in heutigen 3D-Anwendungen voll ausgereizt ?
die X1900er haben 200% mehr pixelshaderleistung. aber in spielen sind sie nicht 200% schneller als die X1800er. bei einer vollauslastung wären sie es, solange der rest nicht auch limitiert
mapel110
2006-04-16, 16:02:31
die X1900er haben 200% mehr pixelshaderleistung. aber in spielen sind sie nicht 200% schneller als die X1800er. bei einer vollauslastung wären sie es, solange der rest nicht auch limitiert
Jup, also sollte es eine Menge bringen, andere Flaschenhälse zu beseitigen, bevor man nochmal die Shaderpower erweitert, welche man ja ohnehin durch höheren Takt auch steigern kann.
Super-S
2006-04-16, 16:40:47
:cool: Die Situation muss ich grad mal ausnutzen und noch ne Frage stellen...
Bremst den jetzt die Karte das 256Bit-SpeicherInterface aus, oder wo liegt denn jetzt der Flaschenhals?
Ist der 512Bit RingBus beim R580 was Sinnvolles, oder nur Marketing-Gebluber ? :)
Das Interessiert mich brennend....
Werden die 48 PSE schon in heutigen 3D-Anwendungen voll ausgereizt ?
nicht mal im ansatz, selbst 32 alus würden heutzutage mehr als ausreichen.
Ist der 512Bit RingBus beim R580 was Sinnvolles, oder nur Marketing-Gebluber ?
beides, ein 8-fach unterteilter speichercontroller ist sicher nicht schlecht, wieviel die effizienz gegenüber einem 4-fach unterteilten controller ansteigt ist sicher fraglich.
allerdings wäre ein 8-fach crossbar schneller als der ringbus-controller (aber wohl nicht mehr mit dem transistorbudget vereinbar), aber schneller als ein 4-fach crossbar wird er wohl sein.
:cool: Die Situation muss ich grad mal ausnutzen und noch ne Frage stellen...
Bremst den jetzt die Karte das 256Bit-SpeicherInterface aus, oder wo liegt denn jetzt der Flaschenhals?
Ist der 512Bit RingBus beim R580 was Sinnvolles, oder nur Marketing-Gebluber ? :)
Das Interessiert mich brennend....Das kann man nicht isoliert betrachten.
Eine Karte mit 256-Bit-DDR-Interface hat natürlich einen 512-Bit-Speichercontroller. ATI spricht vom Ringbus, obwohl es gar kein echter Ringbus ist.
Beim Rendering kommt es darauf an, dass die Daten zur richtigen Zeit an der richtigen Stelle sind. Da ist der Speichercontroller das Rückgrad, aber auch das Chip-interne Caching spielt eine Rolle.
Ailuros
2006-04-16, 22:04:45
Wenn beide ALUs einer Pipe nicht alle Instructions können ist das eine notwendige Schlussfolgerung - und selbst wenn sie es täten kommt es trotzdem öfters zu Stalls als mit einer ALU und doppelt so vielen Pipes.
Das ganze kannst du mit nVIDIAs ShaderPerf auf G70 sehr einfach sehen, da kommt nie der maximale theoretische Durchsatz raus bei normalen Shadern.
Gut dann wird G80 wohl ein totales Disaster sein :| . Fuer das was G70 entwickelt wurde, schafft er es ziemlich gut ausser natuerlich dem PS db woran sich aber sowieso nicht viel aendern liess seit NV4x.
Zu dem sind scheduler auf USCs da, damit solche Einzelheiten kontrolliert werden. So wie ich es sehe gibt es genug Situationen wo man etwas anderes bearbeiten moechte fuer das gleiche Fragment oder Vertice im gleichen Takt. Ich sehe nicht ein warum 2 math OPs generell ein Problem sein sollten unter den idealen Vorrausetzungen natuerlich und hier ist es im Grund auch egal ob USC oder non-USC.
Gut dann wird G80 wohl ein totales Disaster sein :|
Wohl kaum. So schlimm ist es dann auch wieder nicht, es gibt aber definitiv einen Unterschied.
So wie ich es sehe gibt es genug Situationen wo man etwas anderes bearbeiten moechte fuer das gleiche Fragment oder Vertice im gleichen Takt.
Natürlich gibt es "genug zu tun", nur gibt es eben manchmal Dinge in einem Programm die Parallelität ausschließen.
Ailuros
2006-04-16, 23:19:01
Wohl kaum. So schlimm ist es dann auch wieder nicht, es gibt aber definitiv einen Unterschied.
Der Haken ist eben dass man nicht nur texturing entkoppelt sondern noch einen Schritt weitergeht als dual issue.
Natürlich gibt es "genug zu tun", nur gibt es eben manchmal Dinge in einem Programm die Parallelität ausschließen.
Es kommt immer noch auf die HW bzw. den jeweiligen Prozessor an, ob und wie er jegliche Aufgabe behandeln kann. Es darf sowieso im Idealfall nie etwas lehrlaufen.
wie steht die chance das der r600 so einen großen sprung macht wie früher die 9700pro ?
ob die schon auf 512bit gehn,der vista start wäre doch en grund oder nicht :D oder kann man aus 256bit noch viel rausholen ?
Ailuros[/POST]']Es kommt immer noch auf die HW bzw. den jeweiligen Prozessor an, ob und wie er jegliche Aufgabe behandeln kann. Es darf sowieso im Idealfall nie etwas lehrlaufen.
Schau mal.
a = b + c
d = e + a
Nix parallelisierbar, check? ATi hat die Probleme nicht in R5xx.
Gast[/POST]']ob die schon auf 512bit gehn
Wohl kaum.
Hvoralek
2006-05-12, 14:12:14
Die Karten werden wohl GDDR4 nutzen, was allein schon ein beträchtliches Mehr an Bandbreite bedeuten dürfte. 512bit- Interfaces wird man da erst einmal nicht brauchen.
Will ja nix sagen aber bekannt is noch überhaupt nichts ......
und wann der G80 und R600 überhaupt kommen werden ....
Vista verspätet sich somit auch die Grafikkarten
Denke mal Mitte 2007
mapel110
2006-05-14, 09:32:05
Gast[/POST]']
Vista verspätet sich somit auch die Grafikkarten
Nö, den Schluss kann man nicht ziehen. Wenn die Karten fertig sind, dann kommen sie auch auf den Markt. In erster Linie sind G80 und R600 schnelle SM3-Karten und erst in zweiter Linie D3D10-Karten.
SM3 sahen die X800-Käufer ja auch nicht als Kaufkriterium. Auf sowas stehen dann eben nur ein paar Techfanboys, OEMs und Devs.
TSCM produziert ab jetzt (http://www.heise.de/newsticker/meldung/73278) im 65nm Verfahren. Bedeutet das, dass der R600 schon bald
in dieser Grösse hergestellt wird :confused:
Ailuros
2006-05-20, 01:12:17
Gmax[/POST]']TSCM produziert ab jetzt (http://www.heise.de/newsticker/meldung/73278) im 65nm Verfahren. Bedeutet das, dass der R600 schon bald
in dieser Grösse hergestellt wird :confused:
Nein; zumindest nicht was den ersten Schub betrifft.
Jetzt hätte ich mal eine Frage an euch Grafikkartenexperten: Wieso setzt ATI mehrmals auf 16 pipes, wenn die Konkurrenz schon 24 hat?
Ist der Chip dafür nicht ausgelegt oder woran liegt das?
Wo liegt überhaupt das Limit bei den Grafikkarten?
Also ein 512 bit Speicherinterface ist möglich, nur halt noch zu teuer. GDDR4 mit 1,6 GHz soll auch bald kommen.
Gibt es da überhaupt ein Ende?
Ne Karte mit 32 pipes, 512 bit SI und 1,6 GHz GDDR4 würde alle aktuellen Modelle ja irgendwie sehr alt aussehen lassen und das dürfte schon in sehr absehbarer Zeit technisch kein Problem darstellen, wenn man den ankündigungen glauben darf.
512 bit SIs wirds wahrscheinlich nie geben.
leg' dich nicht auf Pipes fest.......
Eine "eigentliche" Pipleine besteht aus 1 ALU einer TMU und einer ROP.
Nun bestehen aber die Pipes beim R580 aus 3 statt einer ALU.....
also kann man eigentlich gar ned sagen 16 Pipes sondern 16 "erweiterte Pipes".
Desweiteren solle man Grafikchips auch ned alleine aus Pipes + Takt festlegen, das geht genauso wenig wie man CPUs nur auf Piplenelänge und Ghz festlegen kann.... auch von der Architektur gibts Verbesserungen
Coda[/POST]']512 bit SIs wirds wahrscheinlich nie geben.
Kann ich mir ehrlich gesagt nicht vorstellen, das diese Aussage so stimmt. Warum sollten es das nie geben?
Was ist z.B. mit dieser Karte?
http://www.geizhals.at/eu/a121975.html
http://www.3dlabs.com/products/product.asp?prod=293&page=6
Gast[/POST]']Warum sollten es das nie geben?
Viel zu teuer auf Consumer-PCBs.
Gast[/POST]']Was ist z.B. mit dieser Karte?
Das sind zwei 256-Bit-Interfaces. Das erhöht die Layerzahl nicht, nur die Länge der Karte. Außerdem ist das Profizeug.
Coda[/POST]']Viel zu teuer auf Consumer-PCBs.
Das sagte man vor Jahren auch vom 256 bit SI und davor vom 128 bit SI...
Ich kann mir beim besten Willen nicht vorstellen, das dies zutreffen wird, zumal Technologie immer weiter vorranschreitet und somit auch die Kosten sinken werden. Nicht jetzt, aber in ein paar Jahren...
Die Profikarte kostet auch nur 1500,- und das bereits jetzt und heute.
Das sind zwei 256-Bit-Interfaces.
Auch gut, dann baut man es halt so, wäre ja immer noch besser, als ein einzelnes 256 bit Interface. :)
Gast[/POST]']Das sagte man vor Jahren auch vom 256 bit SI und davor vom 128 bit SI...
Die Komplexität erhöht sich quadratisch.
Gast[/POST]']Ich kann mir beim besten Willen nicht vorstellen, das dies zutreffen wird, zumal Technologie immer weiter vorranschreitet und somit auch die Kosten sinken werden. Nicht jetzt, aber in ein paar Jahren...
Möglich. Zur Zeit sind die PCB-Preis aber sehr stabil.
Gast[/POST]']Auch gut, dann baut man es halt so, wäre ja immer noch besser, als ein einzelnes 256 bit Interface. :)
Multichip wird auch nie wirtschaftlich sein.
Mal abgesehen davon, daß 512 Bit Si momentan zu teuer ist; was würde es denn bringen?
Gmax[/POST]']Mal abgesehen davon, daß 512 Bit Si momentan zu teuer ist; was würde es denn bringen?
na dann leg mal zahlen vor wie teuer es ist gegenüber 256,einfach was daher sagen kann jeder.
ShadowXX
2006-05-21, 22:34:00
Gast[/POST]']na dann leg mal zahlen vor wie teuer es ist gegenüber 256,einfach was daher sagen kann jeder.
Es scheint zumindest teurer zu sein, als um die 750MHz getakteten Speicher mit einem 256 SI zu benutzen.
Denn sonst hätten ATI/nV dies wohl schon längst genutzt......
Gast[/POST]']Jetzt hätte ich mal eine Frage an euch Grafikkartenexperten: Wieso setzt ATI mehrmals auf 16 pipes, wenn die Konkurrenz schon 24 hat?
Ist der Chip dafür nicht ausgelegt oder woran liegt das?
Wo liegt überhaupt das Limit bei den Grafikkarten?
Also ein 512 bit Speicherinterface ist möglich, nur halt noch zu teuer. GDDR4 mit 1,6 GHz soll auch bald kommen.
Gibt es da überhaupt ein Ende?
Ne Karte mit 32 pipes, 512 bit SI und 1,6 GHz GDDR4 würde alle aktuellen Modelle ja irgendwie sehr alt aussehen lassen und das dürfte schon in sehr absehbarer Zeit technisch kein Problem darstellen, wenn man den ankündigungen glauben darf.
Schonmal gemerkt das ATI seine/ihre "Pipelines" besser auslasten als die Konkurrenz. Generell ist das Zählen der s.g. Pipelines unterschiedlicher Hersteller eher ein DAU-Sport als ein Indikator für die Leistung.
@ #307
mh warum verbaut man bei ner 79600gt teure 1,4 ode 1,2ns speicher wenn man doch billigst ddr1 speicher nehmen könnte
ach ja da war was, 256bit si ist irgendwie teuer
ShadowXX
2006-05-22, 01:26:51
Gast[/POST]']Schonmal gemerkt das ATI seine/ihre "Pipelines" besser auslasten als die Konkurrenz. Generell ist das Zählen der s.g. Pipelines unterschiedlicher Hersteller eher ein DAU-Sport als ein Indikator für die Leistung.
Das sowieso....aber selbst das Zählen der Shader-Einheiten ist irgendwie für die Katz (ROPs und TMUs ebenso).
Man kann daraus höchsten versuchen abzulesen, was die Architektur vielleicht können kann.....
Ich bin auf r600 vs. G80 gespannt, da dann wohl 2 verschiedene DX10 (oder D3D10 oder wie auch immer inzwischen)-Philosophien/Architekturen dahinterstehen.
Fetza
2006-05-22, 03:24:42
Gast[/POST]']Schonmal gemerkt das ATI seine/ihre "Pipelines" besser auslasten als die Konkurrenz. Generell ist das Zählen der s.g. Pipelines unterschiedlicher Hersteller eher ein DAU-Sport als ein Indikator für die Leistung.
schonmal gemerkt, das jemand der von der materie eben nicht so viel versteht, trotzdem seine frage hier posten können sollte, ohne von anderen gästen mit unhöflichen posts bedacht zu werden?
greetz
Fetza
betasilie
2006-05-22, 04:17:42
ShadowXX[/POST]']Ich bin auf r600 vs. G80 gespannt, da dann wohl 2 verschiedene DX10 (oder D3D10 oder wie auch immer inzwischen)-Philosophien/Architekturen dahinterstehen.
Ohja, das wird sicher sehr interessant werden. Ich hoffe nur, dass eine Karte wirklich deutlich stärker ist, damit das Forum nicht zum Battlefield der ATI- und NV-Anhänger wird. ;)
ollix
2006-05-22, 09:56:38
betareverse[/POST]']Ich hoffe nur, dass eine Karte wirklich deutlich stärker ist, damit das Forum nicht zum Battlefield der ATI- und NV-Anhänger wird. ;) Was soll das ändern? Das hat höchstens Einfluß auf den wie-weit-aus-dem-Fenster-lehn-Faktor.
:wink:
reunion
2006-05-22, 18:28:59
INQ: ATI's R600 to be the biggest graphic chip ever: A lot of shaders, power, with DDR 4
(http://www.the-inquirer.net/?article=31862)
Botcruscher
2006-05-22, 18:53:08
reunion[/POST]']INQ: ATI's R600 to be the biggest graphic chip ever: A lot of shaders, power, with DDR 4
(http://www.the-inquirer.net/?article=31862)
Inhalt der inqnews = 0 und du hast das :biggrin: vergessen.
robbitop
2006-05-22, 19:00:44
reunion[/POST]']INQ: ATI's R600 to be the biggest graphic chip ever: A lot of shaders, power, with DDR 4
(http://www.the-inquirer.net/?article=31862)
64 ShaderALUs. Mehr hätte ich persönlich bei 80nm auch nicht erwartet. Gegenüber den 48x vom R580 ist es ja kein besonders starker anstieg, zumal beim R600 noch die VS von den ShaderALUs abgehen. Beim C1 entfällt ja das ADD4 der MiniALU. Wenn das beim R600 auch der Fall ist, wäre es aus aritmetischer Sicht ein eher unbeeindruckendes Update.
reunion
2006-05-22, 19:30:13
robbitop[/POST]']64 ShaderALUs. Mehr hätte ich persönlich bei 80nm auch nicht erwartet.
Ich eigentlich schon. Zumal bereits Xenos 48ALUs in ca. 250mio Transistoren unterbringt. Mit 80nm sollten gut und gerne 500mio Transistoren möglich sein, bei einer ähnliche Die-Größe wie R580.
Gegenüber den 48x vom R580 ist es ja kein besonders starker anstieg, zumal beim R600 noch die VS von den ShaderALUs abgehen. Beim C1 entfällt ja das ADD4 der MiniALU. Wenn das beim R600 auch der Fall ist, wäre es aus aritmetischer Sicht ein eher unbeeindruckendes Update.
Ohne zu wissen, wieviel eine ALU genau leistet, und vorallem ohne zu wissen, ob dieser INQ-Blub überhaupt der Realität entspricht, lässt sich hier kaum etwas ableiten. Wobei mehr als 64 MADDs aktuell wohl auch ziemlich nutzlos wären. Selbst die Shaderpower eines R520 scheint in heutigen Anwendungen noch ausreichend zu sein. Wichtiger wäre ein kräftiger Anstieg der Füllrate.
halte ich für zu wenig
das wären ja noch immer 16 pipes?
da müsste ati dann schon mit 1 ghz nachlegen und abstand zum R580 zu wahren
kann auch irgendwie nicht glaube dass die normale rechenleistung stagnieren soll zumal der R600 ja ein neuer chip sein soll
reunion
2006-05-22, 19:40:29
Die klassische Pipeline ist schon lange obsulet.
aber nötig um die rohleistung zu vergleichen
reunion
2006-05-22, 20:24:59
Gast[/POST]']aber nötig um die rohleistung zu vergleichen
Nein, Xenos hat zB im Grunde nur eine Pipeline, wobei das natürlich ansichtssache ist. Daraus sollte man schon lange nichts mehr ableiten.
Hvoralek
2006-05-22, 20:31:41
reunion[/POST]']Ich eigentlich schon. Zumal bereits Xenos 48ALUs in ca. 250mio Transistoren unterbringt. Mit 80nm sollten gut und gerne 500mio Transistoren möglich sein, bei einer ähnliche Die-Größe wie R580.Wie kommst Du darauf? 80nm spart gegenüber 90nm afaik knapp 25% Platz. 500 Mio Transistoren müsste also eher auf die Größe eines R580 hinauslaufen.
deekey777
2006-05-22, 20:37:42
reunion[/POST]']INQ: ATI's R600 to be the biggest graphic chip ever: A lot of shaders, power, with DDR 4
(http://www.the-inquirer.net/?article=31862)
It might have as many as sixty four Shader units that would easily make it much more powerful than the Xbox 360 graphics. There may be a lot of 'mights', but there can be no doubt that it will end up faster than the current generation of consoles. And, don’t forget that it can, and will, support the upcoming DDR4-four memory format.
Vierundsechzig, vierundsechzig, wo habe ich das schon mal gehört? Auf der ersten Seite? :|
Und DDR4 unterstützt der R600 auch noch. Der R520 kann das auch.
reunion[/POST]']Nein, Xenos hat zB im Grunde nur eine Pipeline, wobei das natürlich ansichtssache ist. Daraus sollte man schon lange nichts mehr ableiten.
Die andere Ansicht sagt, es sind 3. ;) :D
Ein MIMD-Kanal oder drei SIMD-Kanäle oder so.
Und 16 TMUs hat der Xenos/C1 auch noch.
Ailuros
2006-05-25, 06:31:24
Xenos = 3-way 16 SIMD.
R580 = 48 PS + 8 VS ALUs
R6x0 =
a) SIMD oder MIMD?
b) 8, 12 oder 16 FLOPs pro Takt pro ALU?
c) =/>700MHz?
ShadowXX
2006-05-25, 09:51:55
Ailuros[/POST]']Xenos = 3-way 16 SIMD.
R580 = 48 PS + 8 VS ALUs
R6x0 =
a) SIMD oder MIMD?
b) 8, 12 oder 16 FLOPs pro Takt pro ALU?
c) =/>700MHz?
64 Shader Units (falls wahr) hört sich stark nach 4-way 16 SMID (bzw. Xenos 1.5 ) an.
Das wäre IMHO aber zu wenig......man wird sehen.
deekey777
2006-05-25, 11:42:29
Ailuros[/POST]']Xenos = 3-way 16 SIMD.
R580 = 48 PS + 8 VS ALUs
R6x0 =
a) SIMD oder MIMD?
b) 8, 12 oder 16 FLOPs pro Takt pro ALU?
c) =/>700MHz?
Der Xenos/C1 schafft 432 FLOPs/Takt (9 per ALU).
http://www.beyond3d.com/forum/showpost.php?p=664042&postcount=665
ShadowXX[/POST]']64 Shader Units (falls wahr) hört sich stark nach 4-way 16 SIMD (bzw. Xenos 1.5 ) an.
Das wäre IMHO aber zu wenig......man wird sehen.
Die Frage ist dann, inwieweit die einzelnen ALUs aufgebohrt wurden.
mapel110
2006-05-25, 20:25:43
http://www.xbitlabs.com/news/video/display/20060525104243.html
Nochmal prollen seitens ATI zusammengefasst.
AnarchX
2006-05-25, 20:30:03
mapel110[/POST]']http://www.xbitlabs.com/news/video/display/20060525104243.html
Nochmal prollen seitens ATI zusammengefasst.
Wieder nur 16 TMUs?
Hmm.. ob man damit gegen einen potentiellen G80 mit 32 Pipelines mit 32TMUs und vielleicht diesmal echten 64 ALUs bestehen kann?
“The R600 will be [absolutely] the fastest DirectX 9 chip that we had ever built”
Wäre auch schlimm wenn es nicht so wäre... ;D
Evtl. mal doch mehr als Bi-TMUs. Aber da bin ich inzw. sehr vorsichtig geworden.
mapel110
2006-05-25, 20:33:06
Ich würd mal sagen, dass sie spekulieren bei der Zahl.
However, there may be a slight problem for ATI: Microsoft is not going to release DirectX 10 API for Windows XP, but only for Windows Vista, which may mean that ATI’s R600 hardware will be able to show itself in all its glory only when used in conjunction with Microsoft’s new operating system.
Opengl anyone?! ;(
mapel110[/POST]']Ich würd mal sagen, dass sie spekulieren bei der Zahl.
Opengl anyone?! ;(
Stimmt das überhaupt? Ich hatte hier mal gehört, dass das Load-Balancing bei einer Unified-Shader-Architektur auch problemlos unter Windows XP über den Treiber geregelt werden kann.
Natürlich geht das. Das ist eher darauf bezogen, dass man ohne D3D10 die Features nicht ausreizen kann.
Demirug
2006-05-25, 20:48:35
Ja sie spekulieren. Huddy hat nämlich kein Wort über die technischen Details des R600 verloren. Darf er nämlich gar nicht.
Wann hat ATI zum letzten mal OpenGL Demos programmiert?
Demirug
2006-05-25, 20:50:15
Gast[/POST]']Stimmt das überhaupt? Ich hatte hier mal gehört, dass das Load-Balancing bei einer Unified-Shader-Architektur auch problemlos unter Windows XP über den Treiber geregelt werden kann.
Wenn der Treiber das machen muss taugt der Chip nichts. Das Load Balancing muss rein in der Hardware ablaufen. Ist also vollkommen unabhängig von OS.
reunion
2006-05-25, 20:59:01
Also wenn sich ATi nicht vollkommen lächerlich machen will, muss R600 wirklich eine Bombe sein. Immerhin hört man jetzt schon Jahre von verschiedensten ATi-Leute, um was für einen grandiosen Chip es sich bei R600 handelt. So arg war es ja nicht mal bei R300.
Ailuros
2006-05-25, 22:00:52
deekey777[/POST]']Der Xenos/C1 schafft 432 FLOPs/Takt (9 per ALU).
http://www.beyond3d.com/forum/showpost.php?p=664042&postcount=665
Dann wahr ATI aber schoen bloed den originalen "R400" fuer R520/580 zu stornieren :| (und ja es ist verdammt sarkastisch gemeint; so langsam hab ich irgendwo genug mit dem unendlichen Xenos Weihrauch. Das Ding ist zwar aeusserst imposant als Consolen-chip aber es ist auch nicht das 8. GFLOP-Wunder wie Marketing-Gefusel es darstellen will).
reunion[/POST]']Also wenn sich ATi nicht vollkommen lächerlich machen will, muss R600 wirklich eine Bombe sein. Immerhin hört man jetzt schon Jahre von verschiedensten ATi-Leute, um was für einen grandiosen Chip es sich bei R600 handelt. So arg war es ja nicht mal bei R300.
Vielleicht gefällt den Leuten ja auch einfach nur die Unified-Shader-Idee so gut.
Demirug
2006-05-25, 22:04:27
Ailuros[/POST]']Dann wahr ATI aber schoen bloed den originalen "R400" fuer R520/580 zu stornieren :|
Das war die Schuld von MS weil Direct3D9 nicht für US ausgelegt worden ist. ;)
Ailuros
2006-05-25, 22:04:37
AnarchX[/POST]']Wieder nur 16 TMUs?
Hmm.. ob man damit gegen einen potentiellen G80 mit 32 Pipelines mit 32TMUs und vielleicht diesmal echten 64 ALUs bestehen kann?
Wo steht dass G80 8 quads bzw. 32 TMUs haben wird?
AnarchX
2006-05-25, 22:16:04
Ailuros[/POST]']Wo steht dass G80 8 quads bzw. 32 TMUs haben wird?
Aus meiner Sicht eine ist das eine realistische Spekulation.
Immerhin hat man mit G71 gezeigt, dass man selbst 6Quads mit sehr wenigen Transistoren realisieren kann.
Warum sollte man dann nicht im 90nm-Prozess, denn man nichteinmal im entferntesten an den Grenzen nutzt, eine 8Quad-Chip auf die Beine stellen können?
deekey777
2006-05-25, 22:17:12
Ailuros[/POST]']Dann wahr ATI aber schoen bloed den originalen "R400" fuer R520/580 zu stornieren :| (und ja es ist verdammt sarkastisch gemeint; so langsam hab ich irgendwo genug mit dem unendlichen Xenos Weihrauch. Das Ding ist zwar aeusserst imposant als Consolen-chip aber es ist auch nicht das 8. GFLOP-Wunder wie Marketing-Gefusel es darstellen will).
Du hast mich falsch verstanden. Es ging mir nur um den zweiten Punkt in deiner Spekulation, dass der Xenos/C1 schon 9 FLOPs/Takt pro ALU schafft, auf mehr wollte hier gar nicht hinaus.
StefanV
2006-05-25, 22:35:25
AnarchX[/POST]']Aus meiner Sicht eine ist das eine realistische Spekulation.
Immerhin hat man mit G71 gezeigt, dass man selbst 6Quads mit sehr wenigen Transistoren realisieren kann.
Warum sollte man dann nicht im 90nm-Prozess, denn man nichteinmal im entferntesten an den Grenzen nutzt, eine 8Quad-Chip auf die Beine stellen können?
Dir ist schon bekannt, das man bei einem DX10 Chip 'ein paar' Transistoren mehr braucht, für die ganzen Funktionen, die vorgeschrieben sind? :|
AnarchX
2006-05-25, 22:53:28
StefanV[/POST]']Dir ist schon bekannt, das man bei einem DX10 Chip 'ein paar' Transistoren mehr braucht, für die ganzen Funktionen, die vorgeschrieben sind? :|
Der Schritt vom NV35 auf den NV40(222) hat 90Mill Transistoren gekostet und der G71(278) hat 50Mill Transistoren mehr als der NV40, bei 24Pipelines die sogar noch leistungsfähiger sind.
DX10 ist imo doch auch nicht so extrem viel mehr als DX9.
Also sind imo doch 32 Pipelines mit SM4.0 im Bereich des Möglichen, wenn ATI, die jetzt schon bei 378Mill Transis sind einen leistungsfähigeren Chip in 90nm herausbringen möchte.
Aber wenn diese Vermutung falsch sind und konkrete Gegenbeweise existieren, würde ich meine Meinung auch revidieren.
StefanV
2006-05-25, 23:09:13
AnarchX[/POST]']Der Schritt vom NV35 auf den NV40(222) hat 90Mill Transistoren gekostet und der G71(278) hat 50Mill Transistoren mehr als der NV40, bei 24Pipelines die sogar noch leistungsfähiger sind.
DX10 ist imo doch auch nicht so extrem viel mehr als DX9.
Also sind imo doch 32 Pipelines mit SM4.0 im Bereich des Möglichen, wenn ATI, die jetzt schon bei 378Mill Transis sind einen leistungsfähigeren Chip in 90nm herausbringen möchte.
Aber wenn diese Vermutung falsch sind und konkrete Gegenbeweise existieren, würde ich meine Meinung auch revidieren.
Ja, die Vermutungen sind falsch, da der nV40 nicht soo weit vom nV35 entfernt ist, von dem Funktionsumfang her...
Und ja, es ist doch erheblich mehr als bei DX9, Coda hat irgendwo mal aus dem SDK zitiert, was alles unterstützt werden 'darf'...
Naja. Man braucht im wesentlichen mal Integer-fähige ALUs. Da kann man aber für vieles die gleichen Schaltkreise nehmen wie für das Float-Zeug. Für andere Sachen wiederrum nicht (bitshifts).
Alles in allem würde ich jetzt auch nicht tippen dass es unglaublich viel Transistoren braucht, sondern vor allem nicht so einfach zu implementieren war für die Chipdesigner.
Ailuros
2006-05-25, 23:18:17
AnarchX[/POST]']Aus meiner Sicht eine ist das eine realistische Spekulation.
Immerhin hat man mit G71 gezeigt, dass man selbst 6Quads mit sehr wenigen Transistoren realisieren kann.
Warum sollte man dann nicht im 90nm-Prozess, denn man nichteinmal im entferntesten an den Grenzen nutzt, eine 8Quad-Chip auf die Beine stellen können?
Erstens hat G7x absolut gar nichts in diesem Sinn mit G80 zu tun, zweitens gab es einen simulierten G7x@90nm mit 8 quads der schon bei 550MHz bruehend heiss wurde und drittens wie waere es mit entkoppelten texture/ALU OPs als Einstieg fuer sinnvollere Spekulationen?
Ailuros
2006-05-25, 23:24:36
AnarchX[/POST]']Der Schritt vom NV35 auf den NV40(222) hat 90Mill Transistoren gekostet und der G71(278) hat 50Mill Transistoren mehr als der NV40, bei 24Pipelines die sogar noch leistungsfähiger sind.
DX10 ist imo doch auch nicht so extrem viel mehr als DX9.
Also sind imo doch 32 Pipelines mit SM4.0 im Bereich des Möglichen, wenn ATI, die jetzt schon bei 378Mill Transis sind einen leistungsfähigeren Chip in 90nm herausbringen möchte.
Aber wenn diese Vermutung falsch sind und konkrete Gegenbeweise existieren, würde ich meine Meinung auch revidieren.
NV4x und G7x gehoeren zur gleichen Generation (den NV3x-FLOP zaehl ich schon gar nicht mehr mit).
Momentan ist der Gedanke noch etwas aus der Luft gegriffen, aber mich wuerde es kein bisschen wundern wenn G80 "nur" 16 TMUs haben wuerde.
Entkoppelte ALUs, ein "Ruecktritt" was AF betrifft, HDR+MSAA, Geometry Shader und noch ein paar andere "Kleinigkeiten". So "wenig" verschieden wird in etwa G80 sein....
AnarchX
2006-05-25, 23:27:49
Ailuros[/POST]']zweitens gab es einen simulierten G7x@90nm mit 8 quads der schon bei 550MHz bruehend heiss wurde und drittens
Das kann ich mir kaum vorstellen und erscheint mir auch nicht wirklich logisch.
Selbst mit 8Quads wäre man ja noch knapp unter dem Transistorcount des R580.
Ailuros[/POST]']
wie waere es mit entkoppelten texture/ALU OPs als Einstieg fuer sinnvollere Spekulationen?
Ist diese etwa ein Grund für die hohe Transistorzahl beim R580?
Ailuros
2006-05-25, 23:37:12
AnarchX[/POST]']Das kann ich mir kaum vorstellen und erscheint mir auch nicht wirklich logisch.
Selbst mit 8Quads wäre man ja noch knapp unter dem Transistorcount des R580.
Gibt es eine Formel die sagt dass pro Transistor so und so viel Strom verbraucht wird egal welche Architektur man verwendet oder was?
Der 8 quad G7x wurde nie zum tapeout gefuehrt weil er zu viel Strom verbrauchte und ueberhaupt fuer notebook chips. Welchen Vorteil vermarktet NVIDIA genau momentan mit G71?
Ist diese etwa ein Grund für die hohe Transistorzahl beim R580?
Das Zeug war schon seit R3xx entkoppelt.
reunion
2006-05-26, 15:44:31
Widermal etwas FUAD-Blabla:
ATI's R600 reaches for 1000MHz clock (http://www.theinq.com/?article=31968)
Ailuros
2006-05-27, 06:47:06
reunion[/POST]']Widermal etwas FUAD-Blabla:
ATI's R600 reaches for 1000MHz clock (http://www.theinq.com/?article=31968)
Maximal 800MHz und selbst das ist optimistisch bei der Komplexitaet. Ich hab nicht die blasseste Ahnung warum ATI wieder auf sehr hohe Frequenzen setzt....
So kann man den Transistornachteil relativ gut ausgleichen, man lässt den Chip einfach schneller arbeiten...
Hvoralek
2006-05-27, 12:47:15
Zumindest passt die Meldung zu den von Fuad behaupteten 64 Arithmetik- Einheiten. Damit wäre der Chip wohl kleiner als bisher erwartet, was natürlich höhere Taktfrequenzen ermöglichen würde.
Sollte der R600 tatsächlich in 65nm gefertigt werden, ist 1GHz mMn zumindest denkbar. Das kann ich Fuad aber irgendwie nicht so recht glauben. Afaik solle für R/V6xx sowohl 80nm als auch 65 genutzt werden, und da wird man wohl kaum augerechnet bei den ersten High- End- Chips die kleinere Fertigung testen.
Warum nicht? Wie es aussieht wird, der R600 erst später kommen als erwartet, Ati muss versuchen den Chip in 65Nm oder zumindestens 80Nm zu produzieren, das wäre ein ziemlicher großer Vorteil gegenüber Nv.
Außerdem wissen wir überhauptnichts über die Große von Unifies Shaders...
Hvoralek
2006-05-27, 13:16:39
Gast[/POST]']Warum nicht?Wenn eine Chipgeneration in unterschiedlichen Prozessen gebaut wird (Bei R6xx scheint das so zu sein (http://www.beyond3d.com/#news29612)), testet man die neuen eigentlich immer erst einmal an den weniger komplexen Mittelklasse- und Low- End- Modellen. Das hat ATI z.B. auch bei R3xx und R4xx so gemacht; die R5xx wurden hingegen bisher alle in 90m gefertigt.
Wie es aussieht wird, der R600 erst später kommen als erwartet, Ati muss versuchen den Chip in 65Nm oder zumindestens 80Nm zu produzieren, das wäre ein ziemlicher großer Vorteil gegenüber Nv.Wahrscheinlich weiß selbst bei ATI noch niemand genau, wann die Chips kommen werden. Im Moment scheint wohl ein Termin um den Jahreswechsel herum am wahrscheinlichsten. Dass die Generation nicht mehr in 90nm gefertigt wird, ist wohl sicher, aber es kommen wohl auch nicht alle Modelle vom Start weg in 65nm.
Außerdem wissen wir überhauptnichts über die Große von Unifies Shaders...Wenn die Teile eine vergleichbare Leistung haben sollen wie heutige Fragment- Units, müssen sie auf jeden Fall größer sein. Wenn die Shader des R600 denen des R500/C1 ähneln sollten, riskiert ATI bei insgesamt nur 64 Shadern sogar eine geringere Leistung pro Takt als bei R580, was schon peinlich wäre. Außerdem brauchst Du bei einer USA auch noch eine "Verteilereinheit", die noch um einiges komplexer sein dürfte als der Dispatch Processor bei R520.
Ailuros
2006-05-28, 00:06:26
Gast[/POST]']So kann man den Transistornachteil relativ gut ausgleichen, man lässt den Chip einfach schneller arbeiten...
Das Problem ist dass sich diese Strategie bisher nur als schlecht bewiesen hat fuer die Margen.
Marco182
2006-05-29, 13:40:44
Wann kommen die neuen Grakas nun?
Undertaker
2006-05-29, 13:51:41
Ailuros[/POST]']Maximal 800MHz und selbst das ist optimistisch bei der Komplexitaet. Ich hab nicht die blasseste Ahnung warum ATI wieder auf sehr hohe Frequenzen setzt....
irgendwie sehen nach dem p4-desaster alle hohe taktraten/geringe pro-mhz leistung als schlecht an... wenn das einer der großen mal ordentlich umgesetzt bekommt muss das nicht schlechter sein als mehr power bei weniger takt (und auch nicht unbedingt stromhungriger)
Ailuros
2006-05-29, 22:29:51
Undertaker[/POST]']irgendwie sehen nach dem p4-desaster alle hohe taktraten/geringe pro-mhz leistung als schlecht an... wenn das einer der großen mal ordentlich umgesetzt bekommt muss das nicht schlechter sein als mehr power bei weniger takt (und auch nicht unbedingt stromhungriger)
R520/580 sind alles andere als stromsparend und ATI hat seit einigen Produkt-zyklen stellenweise Probleme effektiver zu konkurrieren was den Mainstream Anteil des Markts betrifft.
Hoehere Leistung durch sehr hohe Taktraten heisst stets ein groesseres Risiko und kleinere Margen. CPUs sind total verschiedene Tiere als GPUs schon erstmal von der Komplexitaet her.
seahawk
2006-05-30, 08:18:11
Wenn es ein 65nm Chip wird, warum nicht ? Auch wenn ich nicht an 65nm glaube, das ist eher was für den Refresh.
reunion
2006-05-30, 13:00:49
R600 is ATI's first cable-less Crossfire
(http://www.the-inquirer.net/?article=32034)
robbitop
2006-05-30, 13:05:24
Wenn's keine interne Brücke gibt (siehe SLI), dann muss der Traffic über den PEG. Und wie sich das auswirkt, wissen wir ja alle.
seahawk
2006-05-30, 13:21:33
Vor allem was heißt funktioniert ? "ATI can already put two X1800 GTO cards in Crossfire and it doesn’t need a master card, but the bandwidth between those two cards is not that big. Therefore two slave cards will work and will do the job, we tried it here in the lab and it works"
Die gelbe Eule
2006-05-30, 13:45:05
reunion[/POST]']R600 is ATI's first cable-less Crossfire
(http://www.the-inquirer.net/?article=32034)
Ob wird dann bald 32er Lanes sehen?
robbitop[/POST]']Wenn's keine interne Brücke gibt
Ich bin ziemlich sicher, dass es eine geben wird.
robbitop
2006-05-30, 14:42:46
Coda[/POST]']Ich bin ziemlich sicher, dass es eine geben wird.
Ja natürlich, weil es auch die einzig brauchbare Lösung ist.
reunion[/POST]']R600 is ATI's first cable-less Crossfire
(http://www.the-inquirer.net/?article=32034)
The master card is the last problem that ATI has to solve to be competitive with Nvidia's SLI.So ganz kann ich diesem Satz nicht zustimmen. Ich hoffe stark, dass sie auch endlich die Profile den Usern zugänglich machen. Erst dann wird Crossfire richtig interessant.
ShadowXX
2006-05-30, 17:24:22
Gast[/POST]']So ganz kann ich diesem Satz nicht zustimmen. Ich hoffe stark, dass sie auch endlich die Profile den Usern zugänglich machen. Erst dann wird Crossfire richtig interessant.
Das kann ich nur unterschreiben: Ohne die Möglichkeit selbst an den Profilen rumdoktoren zu können, kommt bei mir kein Crossfire ins Haus.
Ausserdem sollte ATI endlich die BugFixes vom AI lösen.
Hybrid-AA-Modi wären auch nicht schlecht.
Es wird sowieso interessant, wer ab der nächsten Gen die bessere IQ bieten wird, da nV wohl auch wieder besseres AF anbieten wird und wohl auch höhere MSAA-Modi als 4xMSAA.
Demirug
2006-05-30, 17:26:30
robbitop[/POST]']Ja natürlich, weil es auch die einzig brauchbare Lösung ist.
Nicht zwingend. Einen entsprechenden Chipsatz vorausgesetzt kann man das auch gut über das Mainboard lösen.
robbitop
2006-05-30, 18:05:48
Demirug[/POST]']Nicht zwingend. Einen entsprechenden Chipsatz vorausgesetzt kann man das auch gut über das Mainboard lösen.
Würdest du deinen Gedanken freundlicherweise ein wenig ausführen? :)
deekey777
2006-05-31, 19:45:14
robbitop[/POST]']Wenn's keine interne Brücke gibt (siehe SLI), dann muss der Traffic über den PEG. Und wie sich das auswirkt, wissen wir ja alle.
Um die Kommunikation über den Bus soll es sich nicht handeln.
http://www.beyond3d.com/forum/showpost.php?p=768020&postcount=137
Demirug
2006-05-31, 21:20:45
robbitop[/POST]']Würdest du deinen Gedanken freundlicherweise ein wenig ausführen? :)
Angeblich ist die SLI Bridge ja nichts anderes als ein 4x PCIe Interface. Ein entsprechender Chipsatz könnte für eine solche Verbindung auch ein paar Lanes vom 16x Slot abzweigen.
deekey777
2006-06-01, 01:10:59
Demirug[/POST]']Angeblich ist die SLI Bridge ja nichts anderes als ein 4x PCIe Interface. Ein entsprechender Chipsatz könnte für eine solche Verbindung auch ein paar Lanes vom 16x Slot abzweigen.
Und da es keine passenden Mainboards/Chipsätze vor dem Launch des R600 gibt, wird es auch keine Kabel-freie CrossFire-Systeme geben?
Na gut, es ist auch schon spät.
Aber was meint :cop:Fudo:cop: hier:
ATI will implement this bridge in its upcoming RV570 and RV560 chips and will enable more than one chip on a PCB configuration.
Die GeCube Dual-X1600XT hat einen mysteriösen Chip auf der Platine:
http://img481.imageshack.us/img481/5052/gemini029hc.jpg.
Gibt es hier einen Zusammenhang?
Das ist wohl eher ein PCIe-Switch.
robbitop
2006-06-01, 10:43:12
Warum braucht man so ein teil bei den NV Karten mit 2 Chips auf einem PCB nicht? (siehe ASUS z.B.)
reunion
2006-06-01, 11:15:30
robbitop[/POST]']Warum braucht man so ein teil bei den NV Karten mit 2 Chips auf einem PCB nicht? (siehe ASUS z.B.)
Die 7900GX2 hat auch so ein Teil.
Demirug
2006-06-01, 11:37:53
reunion[/POST]']Die 7900GX2 hat auch so ein Teil.
Damit sie nicht auf ein optionales PCIe Feature angewiesen ist.
Paul Brain
2006-06-06, 17:38:08
"DirectX 10 GPUs to Consume up to 300W"
http://www.anandtech.com/tradeshows/showdoc.aspx?i=2770
[X-Post im G80-Thread] (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=232542&page=27&pp=20)
AnarchX
2006-06-06, 17:40:15
Paul Brain[/POST]']"DirectX 10 GPUs to Consume up to 300W"
http://www.anandtech.com/tradeshows/showdoc.aspx?i=2770
[X-Post im G80-Thread] (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4402403#post4402403)
R600 in 90nm der auf 1GHz taktet?
Da will wohl jemand seine 1kW NTs verkaufen... ;)
deekey777
2006-06-06, 17:42:21
AnarchX[/POST]']R600 in 90nm der auf 1GHz taktet?
Da will wohl jemand seine 1kW NTs verkaufen... ;)
Definitiv nicht 90 nm, maximum 80 nm.
AnarchX
2006-06-06, 17:48:37
deekey777[/POST]']Definitiv nicht 90 nm, maximum 80 nm.
Ja, das ist schon klar.
Ich hab mich nur gefragt wo diese 300W Angabe herkommen soll.
Da streuen wohl die Netzteilhersteller wieder Gerüchte... ;)
Paul Brain
2006-06-06, 17:53:29
Wenn das stimmen sollte, wäre es einfach nur Wahnsinn. Jeder, der ein X1kXT hatte oder erleben durfte weiß, wie heiß die Dinger werden. Dann stelle man sich mal ein X1900XT-Crossfire-System vor, das die gesamte Verlustleistung mit einem statt mit zwei Kühlern bewältigen muß... *schauder*
Lustig würde dann ja Quad-SLi bzw. -Crossfire werden: 1,2kW allein für die Grafik. Na, irgendwie kann ich das nicht glauben, das sind Leistungsbereiche von Heizstrahlern, sowas kann man gar nicht zuverlässig betreiben, sofern man die Hitze nicht per Flüssigkühlung aus der Wohnung befördert... :uexplode:
deekey777
2006-06-06, 17:57:31
AnarchX[/POST]']Ja, das ist schon klar.
Ich hab mich nur gefragt wo diese 300W Angabe herkommen soll.
Da streuen wohl die Netzteilhersteller wieder Gerüchte... ;)
ATI and NVIDIA have been briefing power supply manufacturers in Taiwan recently about what to expect for next year’s R600 and G80 GPUs. Both GPUs will be introduced in late 2006 or early 2007, and while we don’t know the specifications of the new cores we do know that they will be extremely power hungry. The new GPUs will range in power consumption from 130W up to 300W per card. ATI and NVIDIA won't confirm or deny our findings and we are receiving conflicting information as to the exact specifications of these new GPUs, but the one thing is for sure is that the power requirements are steep
Die Redakteure haben sich bei den Herstellern umgehört, welche Produkte mit welcher Leistung kommen, und dann einen Rückschluss auf den Verbrauch der kommenden Grafikkarten gemacht. Die Grafikkartenhersteller haben diese NT-Hersteller vorher gebrieft, worauf sie sich bei kommenden NT konzentrieren müssen.
reunion
2006-06-06, 18:00:07
"Per Card". Die 300W gelten wahrscheinlich für eine Dual-Karte wie die 7900GX2 - wenn überhaupt.
Das hab ich mir grad auch gedacht. Also 150W ist wohl wirklich das maximal machbare mit Luftkühlung :|
LordDeath
2006-06-06, 18:28:33
Coda[/POST]']Das hab ich mir grad auch gedacht. Also 150W ist wohl wirklich das maximal machbare mit Luftkühlung :|
BTX :D
"Diese Karte ist nur in BTX Gehäusen verwendbar" :|
StefanV
2006-06-06, 18:39:46
LordDeath[/POST]']BTX :D
...kann auch nicht zaubern...
AnarchX[/POST]']Ja, das ist schon klar.
Ich hab mich nur gefragt wo diese 300W Angabe herkommen soll.
Da streuen wohl die Netzteilhersteller wieder Gerüchte... ;)
Ist sicher CrossFire/SLI Betrieb gemeint.
VGL alte Generation: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/24/#abschnitt_stromverbrauch
130Watt für die erste Generation/Highend Modell kann gut sein, die Refreshes werden es drücken mit etwas höherer Taktfrequenz. Sieht man ja an der Entwicklung in den letzten 2 Jahren.
Cubitus
2006-06-06, 19:01:20
ich kann mir das irgendwie nicht vorstellen.
300Watt, velleicht wenn sich 2 GPUs´
auf einer Platine befinden.
Es gibt dann 2 Versionen von der Karte.
einemal die übliche XTX Version.
und dann einmal Die XTX PFE Pysix Fire Enhanced :|
Aber wenn wirklich 300 Watt Standard werden :eek:
Woher kommt dann der Verbrauch soviel mehr Takt und Spannung doppelt soviele Transistoren?
ATI hatte ja schon bei der X1800(R520) mit Leckströhmen zu Kämpfen. und die 1900XTXs´
laufen ja auch meistens fast am limit !?
ist die 90nm Producktion erheblich verbessert worden?
w0mbat
2006-06-06, 19:30:00
Ich würde sagen 300W für´s Gesamtsystem :biggrin:
w0mbat[/POST]']Ich würde sagen 300W für´s Gesamtsystem :biggrin:
was auch krank ist und für mich ne miese technik ist
Paul Brain
2006-06-06, 20:14:19
Schön langsam könntens mit dem Stromverbrauch auch wieder Röhrenprozessoren bauen. :|
boxleitnerb
2006-06-06, 20:48:57
Sollte das wirklich war sein, so wäre ich erschreckt. Ich wollte eigentlich mit der neuen Generation aufrüsten, aber bin eigentlich nicht bereit, den bei meinem PC inzwischen gewohnten sehr niedrigen Geräuschpegel dem Altar der Frames zu opfern.
So wie es aussieht kann der Conroe die Verlustleistung auch in Grenzen halten. Klar sind GPUs weitaus komplexer und haben viel mehr Transistoren. Aber so kann und darf es nicht weitergehen.
300W sind mal wieder völlig überzogen, nicht mal die Dual Chip Karte von nvidia braucht aktuell so viel, sondern gar nur die hälfte.
300W sind bei solch einer kleinen Fläche kaum noch mit Luft zu kühlen, daher eher unwahrscheinlich, das es so kommt.
Zumal bis dahin sehr wahrscheinlich bereits 80nm eingeführt wurde sowie GDDR4, welches normalerweise sogar weniger schlucken müsste.
boxleitnerb
2006-06-06, 21:24:54
Wie war das, dass die 512MB hochgezüchteter Speicher auf aktuellen Karten fast die Hälfte des Saftes verbrauchen?
nv kommt doch jetzt schon mit wasserkühlung....
seahawk
2006-06-07, 08:02:53
300W für die Duallösung. 130W-190W für die Einzelkarten.
MuLuNGuS
2006-06-07, 08:58:55
300w nur für die graka?
das ist ja umwelttechnisch schon gar nicht mehr vertretbar, nene das kann/darf ja wohl nicht angehen.
dargo
2006-06-07, 11:34:46
Nun, die 130W halte ich (leider) für realistisch bei einer Highend-Grafikkarte @R600/G80. Man muss auch bedenken, dass diese Abwärme nicht nur durch die GPU verursacht wird. Schon bei heutigen Highend-Grakas wird ein sehr großer Anteil nur durch die Spannungsversorgung der Grakas verbraten. Hinzu kommt auch noch bei den neuen D3D10 Grakas die Tatsache, dass Grakas mit 1GB Vram eventuell erscheinen, was sicherlich den Stromverbrauch nochmal gut in die Höhe treibt.
Die 300W beziehen sich sicherlich auf eine Graka mit zwei GPUs und mindestens 1GB Vram.
Ailuros
2006-06-08, 06:56:08
Kein Grund zur Panik.
Palpatin
2006-06-08, 18:16:22
http://www.hartware.de/news_40080.html hier steht drinnen das gegen ende des Jahres erste Muster vom R580+ verfügbar sein sollen..... heisst das nicht im Prinzip das der R600 wohl aller frühstens ende erstes Quartal 2007 kommt vielleicht zur Cebit? Ansonsten wär ja der R580+ ende des Jahres anfang nächsten Jahres ziemlich überflüssig... Vielleicht sollte man mal die Überschrift des Thread ändern denn im dritten Quartal 2006 werden wir wohl kaum nen R600 sehen.
deekey777
2006-06-12, 01:19:15
GeCube talk dual RV100, Gemini, R600 and more in exclusive chat with HEXUS (http://www.hexus.net/content/item.php?item=5886)
As for R600, he's tasked Jeff Fu with an innovative cooling solution for a high-end GPU he describes as "very very hot", and they're both convinced the market will be very happy with what's coming. From what I've seen, as Jeff finalises some placement issues, it'll be worth waiting for when it arrives decently before Christmas.
Heiß. :)
r600 kurz vor x-mas oder die flüssigkühllösung,was solls sonst sein ?
Vll wird der R600 wieder so ein Wunderkind wie der R300....*schwärm*
Aber leider wird der zu warm...
Palpatin[/POST]']http://www.hartware.de/news_40080.html hier steht drinnen das gegen ende des Jahres erste Muster vom R580+ verfügbar sein sollen..... heisst das nicht im Prinzip das der R600 wohl aller frühstens ende erstes Quartal 2007 kommt vielleicht zur Cebit? Ansonsten wär ja der R580+ ende des Jahres anfang nächsten Jahres ziemlich überflüssig... Vielleicht sollte man mal die Überschrift des Thread ändern denn im dritten Quartal 2006 werden wir wohl kaum nen R600 sehen.
"Many have suggested that it might get pushed back to early Q1 2007 but things are still on schedule. We don't have the exact date but the chip should surface sometime in October or November, just before the Yule shopping madness."
http://www.theinquirer.net/?article=32387
Palpatin
2006-06-17, 04:23:57
Bin gespannt wie sich der R600 im vergleich zum R580+ schlägt.
ATI R600 taped out
http://www.the-inquirer.net/?article=32546
It was earlier reported that ATI’s first DirectX 10 graphics chip known under R600 code-named had been taped out, which means that development teams at ATI Technologies have several months to complete the designs of mainstream and entry-level graphics processors and then to built-in low-end graphics core into ATI’s chipset code-named RS700. Theoretically, sources indicated, ATI may be able to demonstrate not only the family of DirectX 10 discrete chips at CeBIT 2007, but also the integrated part, although, the latter should be actually available towards middle of the year.
Back in 2005 ATI released its top-to-bottom family of DirectX 10 shader model 3.0 chips in October. But that happened due to the fact that the company failed to launch the Radeon X1800 (R520) on time in May 2005, six month after the initial tape-out due to failures with the design, which resulted in lower-than-expected yield at high speeds. As a result of that, the chip was delayed for so long that two mainstream products managed to reach production stage. This time, however, the high-end part – R600 – is to be launched ahead of the other products, however, the time gap between the releases should be less than historical, sources indicated.
According to sources familiar with the plans of ATI Technologies as well as some media reports, ATI R600 will have 64 unified shader processors – an unprecedented number so far, 16 texture units – inline with today’s GPUs, clock-speed beyond 650MHz and support for high-speed GDDR4 memory controller. Obviously, components designated for lower-end market segments will have less unified shader processors.
The release of the RS700, which is to be made using 65nm process technology, in mid-2007 will put ATI behind Intel Corp.’s DirectX 10-supporting Graphics Media Accelerator 3000 built-in core in terms of functionality, as the latter is to be released in late Q3 2006, according to some reports. ATI is already behind of Nvidia Corp. in terms of integrated graphics feature-set, as even the company’s forthcoming RS600 core-logic only supports DirectX 9 shader model 2.0b, while Nvidia’s already shipping GeForce 6100-series products already features shader model 3.0.
http://www.xbitlabs.com/news/video/display/20060621042925.html
Gibt es eigentlich schon Details zum R580+ und wann er kommen soll?
Ich habe vor kurzem in einem Printmagazin etwas von August gelesen. Ich bin echt schwer am überlegen ob ich darauf warten sollte, da ich eigentlich schon etwas länger aufrüsten will und vor allem auf die neuen Intel Prozessoren gewartet habe.
Tja, das ist das ewige Dilemma: Entweder ich kaufe mir im Juli ein neues System (conroe, x1900xt) oder ich warte bis der r600 kommt (conroe, r600) oder ich warte gleich auchnoch bis die ersten quadcores kommen (quadcore, r600) obwohl ich dann besser warten kann bis ati einen refresh zum r600 bringt (quadcore, r600 refresh).
urbi[/POST]']Gibt es eigentlich schon Details zum R580+ und wann er kommen soll?
Ich habe vor kurzem in einem Printmagazin etwas von August gelesen. Ich bin echt schwer am überlegen ob ich darauf warten sollte, da ich eigentlich schon etwas länger aufrüsten will und vor allem auf die neuen Intel Prozessoren gewartet habe.
Tja, das ist das ewige Dilemma: Entweder ich kaufe mir im Juli ein neues System (conroe, x1900xt) oder ich warte bis der r600 kommt (conroe, r600) oder ich warte gleich auchnoch bis die ersten quadcores kommen (quadcore, r600) obwohl ich dann besser warten kann bis ati einen refresh zum r600 bringt (quadcore, r600 refresh).
Oder du wartest einfach immer weiter dann hast du irgendwann das neueste. Bloß hast du jetzt (und dann auch in Zukunft) nichts davon...
Wollte ich ja damit deutlich machen. ;)
drmaniac
2006-06-25, 13:26:14
urbi[/POST]']Gibt es eigentlich schon Details zum R580+ und wann er kommen soll?
Ich habe vor kurzem in einem Printmagazin etwas von August gelesen. Ich bin echt schwer am überlegen ob ich darauf warten sollte, da ich eigentlich schon etwas länger aufrüsten will und vor allem auf die neuen Intel Prozessoren gewartet habe.
Tja, das ist das ewige Dilemma: Entweder ich kaufe mir im Juli ein neues System (conroe, x1900xt) oder ich warte bis der r600 kommt (conroe, r600) oder ich warte gleich auchnoch bis die ersten quadcores kommen (quadcore, r600) obwohl ich dann besser warten kann bis ati einen refresh zum r600 bringt (quadcore, r600 refresh).
also ich hab mir da klare Referenzpunkte gesetzt.
Ich hab jetzt ein A3200+ singel core ;) mit 2gb ram und ner 9800xt.
Ich WILL mit dem nächsten System Vista mit DX10 betreiben sowie UT2007 zocken. UT kommst eh erst im März und jetzt auf dualcore aufrüsten wo doch Quad vor der Tür steht...neee... und wenn ich jetzt conroe nehme muss ich, da jetzt noch ne agp karte, auch jetzt schon ne aktuelle graka kaufen...
ch verbinde es dann als Masterupgrade im 1Q2007, da kommt echt alles zusammen :)
Quadcore Intel, DX10 (ATI R600), Vista.
Aber verstehe ich den obigen Text richtig, dass R600 erst zur Cebit vorgestellt werden soll??
@ drmaniac
Bist dir aber schon im klaren das der Quadcore um die 1000 - 1500 € kosten wird
Gast[/POST]']@ drmaniac
Bist dir aber schon im klaren das der Quadcore um die 1000 - 1500 € kosten wirdAnfangs in Form der Extreme Editions wohl schon. Mit der Zeit wird es aber auch Quadcores in normalen Preisgefügen geben.
Ailuros
2006-06-27, 06:54:57
Jegliche Anfrage auf weitere Details ueber A oder B fuer beide Seiten bekommt momentan immer noch eine Antwort dass man zeitige Verkaufszahlen nicht verletzen will.
IMHO wuerde ich sagen dass es fuer weder/noch noch viel zu frueh ist und ich daher eher raten wuerde die Puste etwas anzuhalten.
seahawk
2006-06-27, 09:00:32
Naja es leigt momentan eher an MS als an NV und ATI
drmaniac
2006-06-27, 09:22:00
@Gast: die Extrem Editions haben bis jetzt immer um die 1000$ gekostet, warum sollte das mit dem in 2007 anders sein, wenn man bedenkt, dass die Modelle darunter nur wenig langsamer sind aber um einiges günstiger, ist schon ein Preis an der tausender Grenze extrem teuer. Da wird Intel nicht noch drüber hinaus schießen. Warum auch :)
Ailuros
2006-06-29, 00:54:54
seahawk[/POST]']Naja es leigt momentan eher an MS als an NV und ATI
Produkte werden veroeffentlicht wenn sie fertig sind; kein IHV hockt auf fertigen Produkten und bruetet auf diesen aus welchem Grund auch immer. Weder G80 noch R6x0 sind momentan Produktionsreif und das ist der Standpunkt von dem man ausgehen sollte momentan und nicht irgendwelche Entschuldigungen.
NVIDIA hoffte dass sie G80 schon Ende Sommer/Anfang Herbst fertig haben werden. Wann und wo laeuft bei so komplizierten Projekten oder sprich neuen Generationen alles nach Plan? Zwischen selten und nie vielleicht? ;)
reunion
2006-06-29, 10:51:00
Auch wenn es es vermutlich keine Sau interessiert...
http://www.theinq.com/default.aspx?article=32713
http://www.theinq.com/default.aspx?article=32712
...etwas Sulz von Fuad.
Winter[Raven]
2006-06-29, 11:01:17
reunion[/POST]']Auch wenn es es vermutlich keine Sau interessiert...
http://www.theinq.com/default.aspx?article=32713
http://www.theinq.com/default.aspx?article=32712
...etwas Sulz von Fuad.
Alles seit laaaaaaaangem bekann. Werr Direct3D bringt muss einen superschnellen DX9 Chip designen. Und zum Kühler sagi ch nur LÖL!!! Noch stärker, noch schneller noch lauter... Schließlich wird ja der R600 der heißeste Chip EVER!!
paul.muad.dib
2006-06-30, 00:25:51
Wird der r600 wirklich so heiß? Er ist doch eher eine Weiterentwicklung des r500 als des r520, oder?
r3ptil3
2006-06-30, 00:30:51
ATi – R600 schneller als nVidias GeForce 7950 GX?!
Laut ATi selbst, soll der kommende R600 GPU um einiges schneller sein als nVidias aktuelles „Flaggschiff“, die GeForce 7950 GX2.
Um bis zu 15% mehr FPS als die aktuelle GeForce 7950 GX2, soll der kommende R600 Chip auf den Monitor zaubern .
Darüber hinaus werden die neuen ATi Karten über eine leisere und effektivere Kühlung verfügen.
Wir sind gespannt, vor allem da noch sehr wenige Infos zum nVidia G80 Chip bekannt sind!
http://www.gamezoom.net/artikel/show/0,notused,1,14270.html
15% schneller als die Geforce 7950 GX2, also langsamer als ein 7900 GTX SLI Gespann bzw. gleich schnell.
paul.muad.dib
2006-06-30, 00:56:53
"bis zu 15 Prozent" hört sich nach realistisch 5-10 Prozent an.
Palpatin
2006-06-30, 02:58:08
Naja auf die Ausagen ist im Prinzip gar nix zu geben sicher wirds Fälle geben in denen die 15% zutreffen aber das werden Ausnahmen sein. z.B.: Wenns nur auf die Speicherbandbreite ankommt werden R600 und G80 nicht annähernd an die 7950 rankommen.
15%.....ohman wieder nurn aufguß,will einen sprung wie r300
Tsone
2006-06-30, 03:38:56
Aber echt, ich hatte auch mit mehr gerechnet. Frag mich nur, wie dann Kracher a la Crysis angemessen laufen sollen. DX10 bringt wohl kaum extrem Perfomance.
Bassmannxt
2006-06-30, 04:00:34
Kann ich nicht so recht glauben, das wäre ja ein Sprung wie von R520 auf R580(ok, je nach Spiel sogar noch weniger), das ist viel zu gering für eine "neue" Karte, das lohnt sich ja nichtmal ansatzweise für ATI.
Edit: hmm...wenn man sich auf 3Dmark06 bezieht, währen die 15% eine steigerung von 50% gegenüber einer X1900XT
Telema
2006-06-30, 06:31:22
Warum zu gering????? Schliesslich kämpft 1 Chip gegen 2
Ailuros
2006-06-30, 07:14:59
Telema[/POST]']Warum zu gering????? Schliesslich kämpft 1 Chip gegen 2
GX2 basiert auf dem SLi Konzept und ist daher bis zu 85% schneller als eine 7900GT@500MHz.
Wenn es wahr sein sollte dass R6x0 15% mehr schafft als eine GX2 ist der Leistungssprung zwar keineswegs gering oder zum uebersehen, aber mehr haette ich persoenlich auch nicht erwartet.
Wirklich hoehere Leistung erwarte ich erst mit den spaeteren 65nm Versionen.
chrisihamm
2006-06-30, 07:17:28
Morjen,
das frage ich mich auch ,warum es zu gering sein soll ,wenn man die Performence von 2Karten erreicht oder übertrifft.!?Es ist doch absolut super die Performence von 2Karten zu haben.
mfg
Zauberer
2006-06-30, 11:45:11
chrisihamm[/POST]']Morjen,
das frage ich mich auch ,warum es zu gering sein soll ,wenn man die Performence von 2Karten erreicht oder übertrifft.!?Es ist doch absolut super die Performence von 2Karten zu haben.
mfg
Genau und dann auch Leistung von "zwei" Karten zum Preis von nur "einer" Karte.
(die GeForce 7950 GX2 meine ich nicht!;))
drmaniac
2006-07-01, 00:26:22
man könnte meinen ihr seit zu verwöhnt :D
wenn das so stimmt, ist diese ATI Karte glatt mal doppelt so schnell wie jetzt die schnellste ATI Karte... +100% Leistung? Sowas gibts nochmal bei den CPUs bei ner neuen Generation ;)
Und ja, ihr könnt euch ja dann zwei von den Karten einbauen :D
Winter[Raven]
2006-07-01, 00:47:06
Ailuros[/POST]']GX2 basiert auf dem SLi Konzept und ist daher bis zu 85% schneller als eine 7900GT@500MHz.
Wenn es wahr sein sollte dass R6x0 15% mehr schafft als eine GX2 ist der Leistungssprung zwar keineswegs gering oder zum uebersehen, aber mehr haette ich persoenlich auch nicht erwartet.
Wirklich hoehere Leistung erwarte ich erst mit den spaeteren 65nm Versionen.
Wo erwartest du Nvidias G80 im Vergleich zu der GX2?
Ailuros
2006-07-01, 06:23:29
'Winter[Raven]'[/POST]']Wo erwartest du Nvidias G80 im Vergleich zu der GX2?
Bei so hohen Vorraussetzungen fuer D3D10 Komplianz erwarte ich fuer weder/noch besonders hohe Leistungsunterschiede im Vergleich zu einer GX2.
Palpatin
2006-07-02, 04:08:37
G80 Karte vs GX2 wird sicher intressant es könnt am ende so aussehen das die G80 Karte im schnitt teurer und langsam als die Gx2 ist.
Wer sagt denn das der G80 nicht auch ein Dual Karte wird wie die GX2 ......
boxleitnerb
2006-07-02, 10:12:28
Och bloss nicht! Wer soll den das ohne Wasserkühlung leise kühlen?
Als Option für die Freaks, ja.
Ailuros
2006-07-02, 10:17:45
Palpatin[/POST]']G80 Karte vs GX2 wird sicher intressant es könnt am ende so aussehen das die G80 Karte im schnitt teurer und langsam als die Gx2 ist.
Schwer zu glauben. Die GX2 hat insgesamt 48 dual-issue ALUs; mit dem kleinen Unterschied dass das Ganze ueber das SLi Konzept ablaeuft, was fuer die Leistungssteigerung zwischen einer 7950 GX2 und einer 7900GT@500MHz bis zu 85% bedeutet und das nur in den Faellen wo AFR etwas bringt.
[](-__-)[]
2006-07-03, 16:52:51
Wann ist denn mit einem mobilen Ableger der R600 Serie zu rechnen?
Und wie wird die Leistung im Bezug auf den Verbrauch sein?
Black-Scorpion
2006-07-03, 17:42:26
Ich glaube kaum das dir das einer sagen kann.
Es steht ja noch nichtmal fest wann der R600 erscheint.
Nightspider
2006-07-03, 19:06:00
Der R600 soll ja sehr heiß werden.
Ich denke R600 Ableger für den Mobile Bereich wird es nur in kleinen Varianten geben.
G80 Ableger werden sicherlich eher im Mobile Bereich anzutreffen sein.
paul.muad.dib
2006-07-03, 20:29:36
Nightspider[/POST]']Der R600 soll ja sehr heiß werden.
Ich denke R600 Ableger für den Mobile Bereich wird es nur in kleinen Varianten geben.
G80 Ableger werden sicherlich eher im Mobile Bereich anzutreffen sein.
Nicht umbedingt, es gibt ja auch SLI in Notebooks....
Aber für echte Notebooks, die keine reinen Desktopreplacements seien sollen, hat ATI es jetzt schon schwer, X1xxx Chips sind noch kaum zu finden und wenn, dann nur die kleinsten.
[](-__-)[]
2006-07-03, 20:50:06
Naja, eben so auf X1800XL/XT Niveau und mit den neuen Features. Natürlich abgespeckt, was Taktraten usw. betrifft.
Warum kriegen es die nicht, dass die Notebooks mit leistungstarker Grafik nicht 6 Stunden laufen, wenn die mach nichts macht, was die Grafikkarte fordert?
Das verstehe ich nicht, bei den CPUs gehts doch auch!
paul.muad.dib
2006-07-03, 22:42:40
Unter Vollast läuft kein Notebook 6 Stunden, auch wenn die CPU noch so sparsam ist. Ansästze, um leistungsstarke Grafikchips mit langen Akkulaufzeiten zu verbinden gibts schon, dabei wird dann der 3D-Chip im 2D-Modus abgeschaltet und stattdessen ein IGP Chip verwendet,
paul.muad.dib[/POST]']Aber für echte Notebooks, die keine reinen Desktopreplacements seien sollen, hat ATI es jetzt schon schwer, X1xxx Chips sind noch kaum zu finden und wenn, dann nur die kleinsten.
ATI hat fast ein Monopol was Mobilchips angeht. Das stimmt nun wirklich nicht.
Coda[/POST]']ATI hat fast ein Monopol was Mobilchips angeht. Das stimmt nun wirklich nicht.Jep, aber hauptsächlich werden x300 und x700 verbaut.
paul.muad.dib
2006-07-04, 00:40:54
Coda[/POST]']ATI hat fast ein Monopol was Mobilchips angeht. Das stimmt nun wirklich nicht.
Hast Recht, war falsch ausgedrückt. Ati hat es schwer, die X1xxx Serie im Mobile Markt zu verkaufen, daher werden eher Xxxx Karten verkauft.
paul.muad.dib[/POST]']Unter Vollast läuft kein Notebook 6 Stunden, auch wenn die CPU noch so sparsam ist. Ansästze, um leistungsstarke Grafikchips mit langen Akkulaufzeiten zu verbinden gibts schon, dabei wird dann der 3D-Chip im 2D-Modus abgeschaltet und stattdessen ein IGP Chip verwendet,
Und wann wird man diese Technik kaufen können? Das ein Notebook unter Last nicht 6h laufen kann ist mir auch klar. Wenn man unterwegs ist, dann spielt man ja eh nicht, sondern arbeitet. Es ist also nur entscheidend, wieviel die Grafikeinheit unter Last verbraucht, denn wenn man Anwendungen offen hat, welche viel Verlustleistung erzeugen, hängt man das Notebook eh an die Steckdose.
Nightspider[/POST]']Der R600 soll ja sehr heiß werden.
...
WO steht das? Quelle?
StefanV
2006-07-04, 13:44:58
Nightspider[/POST]']Der R600 soll ja sehr heiß werden.
Ich denke R600 Ableger für den Mobile Bereich wird es nur in kleinen Varianten geben.
G80 Ableger werden sicherlich eher im Mobile Bereich anzutreffen sein.
Woher willst du wissen, das der G80 viel kühler als R600 sein wird??
Darüber ist bisher noch nichts, aber auch garnichts im Netz bekannt!
Eher hörte man gegenteiliges, nämlich das G80 auch ganz schön heiß werden wird...
Bisher ist es eigentlich immer so gewesen, das die ATi Chips deutlich kühler waren als die nV Chips, bisher gibts nur exakt eine Ausnahme: die x1 Reihe, davor waren die ATi Chips IMMER kühler als die nV Chips...
Darüberhinaus: wer sagt, das es nicht wieder so wird wie früher, sprich ATi kühler als nV und beide recht warm?! :|
StefanV[/POST]']Woher willst du wissen, das der G80 so viel kühler als R600 sein wird??
Hellseher??
Bisher ist es eigentlich immer so gewesen, das die ATi Chips deutlich kühler waren als die nV Chips, bisher gibts nur exakt eine Ausnahme: die x1 Reihe, davor waren die ATi Chips IMMER kühler als die nV Chips...
Darüberhinaus: wer sagt, das es nicht wieder so wird wie früher, sprich ATi kühler als nV und beide recht warm?! :|
Unwarscheinlich, Nvidia wird diesen Vorteil auch in den nächsten Genration ausspielen. Das der R600 heiß werden könnte, daran zweifeln eigentlich die wenigen, dafür halten sich die Gerüchte viel zu lange!
StefanV
2006-07-04, 13:49:20
Gast[/POST]']Unwarscheinlich, Nvidia wird diesen Vorteil auch in den nächsten Genration ausspielen. Das der R600 heiß werden könnte, daran zweifeln eigentlich die wenigen, dafür halten sich die Gerüchte viel zu lange!
Und?
Es gibt auch Gerüchte, das G80 ziemlich heiß werden wird?
Eventuell gar heißer als R600??
StefanV[/POST]']Bisher ist es eigentlich immer so gewesen, das die ATi Chips deutlich kühler waren als die nV Chips
Ist ja auch logisch wenn man die Logikmenge anschaut. Ganz großes Kino.
StefanV
2006-07-04, 13:53:56
Coda[/POST]']Ist ja auch logisch wenn man die Logikmenge anschaut. Ganz großes Kino.
Hm, ev. hat ATi auch schon länger Stromsparmechanismen in die GPUs gepackt als nV, schließlich müssen die Chips ja auch ins Notizbuch...
Und soo groß war der Unterschied der Transistoren der beiden auch nie wirklich, Beim R200 warens AFAIK 3MIo, R100 hatte AFAIR gar mehr als NV10...
StefanV[/POST]']Hm, ev. hat ATi auch schon länger Stromsparmechanismen in die GPUs gepackt als nV, schließlich müssen die Chips ja auch ins Notizbuch...
Das beschränkt sich auf runtertakten und weniger Spannung.
StefanV[/POST]']Und soo groß war der Unterschied der Transistoren der beiden auch nie wirklich
Ich rede von Logikmenge. ATI hat schon allein mal viele Transistoren für die SRAM-Programmspeicher.
Gast[/POST]']Unwarscheinlich, Nvidia wird diesen Vorteil auch in den nächsten Genration ausspielen.
NV sollte besser US einbauen anstatt als Technologiebremse darzustehen.
Gast[/POST]']
Das der R600 heiß werden könnte, daran zweifeln eigentlich die wenigen, dafür halten sich die Gerüchte viel zu lange!
So wie es zur Zeit aussieht wird der R600 UND der G80 sehr stromfressend werden.
Gast[/POST]']So wie es zur Zeit aussieht wird der R600 UND der G80 sehr stromfressend werden.
Für diese Aussage muss man nun wirklich auch kein Prophet sein ;)
Allerdings glaube ich nicht an die "300W" die vereinzelt schon im Gespräch waren. Das gilt wohl für Dual-GPU-Systeme.
Gast[/POST]']NV sollte besser US einbauen anstatt als Technologiebremse darzustehen.
So wie es zur Zeit aussieht wird der R600 UND der G80 sehr stromfressend werden.
a) Wieso Technikbremse? Verstehe ich jetzt nicht, M$ erlaubt das einbinden beider Chipansätze mit oder oder US, ist der G80 egal wie man es drehen möchte ein Direct3d 10 Chip :P
Interessant, bis du ein Fanatiker? Schließlich hat ATI Jahre lang die Technikbremse gespielt.
b) Quelle zum G80 und Stromfressend?
Coda[/POST]']Für diese Aussage muss man nun wirklich auch kein Prophet sein ;)
Korrekt. :)
Wollte halt klarstellen, dass man nicht auf ATI wegen der Verlustleistung rumhacken sollte, da NV sehr wahrscheinlich das gleiche Schicksal erleiden wird.
Coda[/POST]']
Allerdings glaube ich nicht an die "300W" die vereinzelt schon im Gespräch waren. Das gilt wohl für Dual-GPU-Systeme.
Mehr als 100 Watt werden es bei NV und ATI sicherlich werden, was für mich schon fast die Schmerzgrenze ist.
Ich halte es für unmöglich eine GPU mit 300 Watt Verlustleistung mit normalen Kühlmethoden zu kühlen.
Aber ich denke, dass wir mit 150 bis max 200 Watt rechnen müssen.
Ist aber eh schon zu viel. :(
Gast[/POST]']a) Wieso Technikbremse? Verstehe ich jetzt nicht, M$ erlaubt das einbinden beider Chipansätze mit oder oder US, ist der G80 egal wie man es drehen möchte ein Direct3d 10 Chip :P
OB MS es erlaubt oder nicht tut hier nichts zur Sache.
Es geht darum, dass die Entwickler darauf achten werden müssen, wie sie programmieren, damit der G80 nicht das Schicksal der FX-Serie erleidet.
Das bremst die Entwicklung und dürfte die Kreativität der Entwickler auch negativ beeinflussen.
Aus Spielersicht nicht gerade wünschenswert, wenn du verstehst was ich meine...;)
Gast[/POST]']
Interessant, bis du ein Fanatiker?
Nö, Gamer. :)
Gast[/POST]']
Schließlich hat ATI Jahre lang die Technikbremse gespielt.
Bullshit, mal war ATI technologisch vorn, mal NV. Ist bis jetzt ziemlich ausgegliechen.
Gast[/POST]']
b) Quelle zum G80 und Stromfressend?
Ich weiss ja nicht, was du als stromfressen bei einer GPU definierst.
Bei mir ist alles ab 100 Watt zu viel.
Und du glaubst wohl nicht, dass der G80 unter 100Watt liegen wird, oder?
Bassmannxt
2006-07-04, 14:52:25
Gast[/POST]']Korrekt. :)
Wollte halt klarstellen, dass man nicht auf ATI wegen der Verlustleistung rumhacken sollte, da NV sehr wahrscheinlich das gleiche Schicksal erleiden wird.
Mehr als 100 Watt werden es bei NV und ATI sicherlich werden, was für mich schon fast die Schmerzgrenze ist.
Ich halte es für unmöglich eine GPU mit 300 Watt Verlustleistung mit normalen Kühlmethoden zu kühlen.
Aber ich denke, dass wir mit 150 bis max 200 Watt rechnen müssen.
Ist aber eh schon zu viel. :(
Was verbraucht den eine X1900XTX???? Die liegt doch schon gut über 100Watt, so um die 120 wenn man dem glauben schenken darf was man so über google findet, da sollte mit einem leicht verbessertem Design auch bis zu 150Watt möglich sein, dann währe man ja bei 300Watt für ein CF System.
Es scheint ja kein Problem zu sein eine diff. Temp von 60°C zu haben, was ja dann bei einer Gehäusetemp. von bis zu 40°C ca. 100°C am Chip ergibt, da sollte eine Kühlleistung von ca. 200 - 225Watt reichen.
ShadowXX
2006-07-04, 14:52:45
Gast[/POST]']OB MS es erlaubt oder nicht tut hier nichts zur Sache.
Es geht darum, dass die Entwickler darauf achten werden müssen, wie sie programmieren, damit der G80 nicht das Schicksal der FX-Serie erleidet.
Das bremst die Entwicklung und dürfte die Kreativität der Entwickler auch negativ beeinflussen.
Aus Spielersicht nicht gerade wünschenswert, wenn du verstehst was ich meine...;)
Wie kommst du darauf??
Für die Programmier ist das ganze Transparent (d.h. er wird von aussen keine unterschiede zwischen den Architekturen sehen können) und Vertex-Limitierungen habe ich bisher keine in irgendwelchen Games gesehen (und das wäre wenn überhaupt der Pferdefuss, wobei wenn die INQ Meldung halbwegs stimmt, nV sowieso auf 16 kombinierte VS+GS setzen wird -> das sollte erstmal ausreichen.)
Es könnte sein, das ATIs Lösung bei gewissen Problemen schneller ist (aber nicht unbedingt sein muss), aber das wars dann auch schon.
ATI könnte auch den Thread-Scheduler und/oder das Load-Balancing verhauen und dann hätten wir keinen Überchip mehr, sondern eine "krücke" (gut, das wir wohl nicht passier, aber möglich ist alles -> siehe FX-Reihe bei nV. Toll auf dem Papier, aber sonst eher ein Papiertiger).
Ich glaube das der Speedunterschied zwischen den beiden Chips wesentlich geringer sein wird (unter D3D10) als die meisten vermuten...ein USC ist kein Allheilmittel oder die "Wunderwaffe".
Bassmannxt[/POST]']Was verbraucht den eine X1900XTX???? Die liegt doch schon gut über 100Watt, so um die 120 wenn man dem glauben schenken darf was man so über google findet, da sollte mit einem leicht verbessertem Design auch bis zu 150Watt möglich sein, dann währe man ja bei 300Watt für ein CF System.
Es scheint ja kein Problem zu sein eine diff. Temp von 60°C zu haben, was ja dann bei einer Gehäusetemp. von bis zu 40°C ca. 100°C am Chip ergibt, da sollte eine Kühlleistung von ca. 200 - 225Watt reichen.
Das Design von r580 und r600 sollte eigentlich nichts mehr miteinander zu tun haben und deshlab kann man sehr schlecht vom Verhalten der einen Architektur auf die andere schliessen.
Demirug
2006-07-04, 15:11:41
ShadowXX[/POST]']Das Design von r580 und r600 sollte eigentlich nichts mehr miteinander zu tun haben und deshlab kann man sehr schlecht vom Verhalten der einen Architektur auf die andere schliessen.
Würde mich nicht wundern wenn die US Einheiten des R600 aufgebohrte Pixelshader aus dem R580 sind.
ShadowXX
2006-07-04, 15:18:49
Demirug[/POST]']Würde mich nicht wundern wenn die US Einheiten des R600 aufgebohrte Pixelshader aus dem R580 sind.
Wäre durchaus denkbar......währen diese einfacher auf ein ordentliches niveau zu bringen als die ALUs des C1??
Besser andersherum: Was spricht gegen "aufgemotzte" C1-ALUs? (Das ist jetzt mehr interessehalber)
Demirug
2006-07-04, 15:22:08
ShadowXX[/POST]']Wäre durchaus denkbar......währen diese einfacher auf ein ordentliches niveau zu bringen als die ALUs des C1??
Besser andersherum: Was spricht gegen "aufgemotzte" C1-ALUs? (Das ist jetzt mehr interessehalber)
Die C1 ALU hat einen entscheidenden Nachteil für den PC Bereich. Das Design ist nicht darauf ausgelegt defekte Teile abzuschalten und den Chip billiger zu verkaufen.
ShadowXX
2006-07-04, 15:27:23
Demirug[/POST]']Die C1 ALU hat einen entscheidenden Nachteil für den PC Bereich. Das Design ist nicht darauf ausgelegt defekte Teile abzuschalten und den Chip billiger zu verkaufen.
OK....das ist ein schlagkräftiges Argument (ich vermute das liegt daran, das die ALUs zu 3 Arrays zusammengeschaltet sind, oder?).
Dann wird der r600 wohl also ein anderes Design haben als der C1....mehr wie die jetzigen PC-GPUs?
paul.muad.dib
2006-07-04, 18:59:12
Gast[/POST]']Und wann wird man diese Technik kaufen können? Das ein Notebook unter Last nicht 6h laufen kann ist mir auch klar. Wenn man unterwegs ist, dann
Afaik gibt's das schon.
[](-__-)[]
2006-07-05, 00:03:02
paul.muad.dib[/POST]']Afaik gibt's das schon.
Cool, kannst du Hersteller nennen?
ShadowXX[/POST]']Wie kommst du darauf??
Nur so eine wilde Idee von mir... :)
ShadowXX[/POST]']
Für die Programmier ist das ganze Transparent (d.h. er wird von aussen keine unterschiede zwischen den Architekturen sehen können)
Was du nicht sagst.
Das war aber nicht gemeint. Dies war eher eine Andeutung in Richtung Compiler. Mir ist schon klar, dass der Progger auf den ersten Blick gar nicht sehen kann, was die Hardware macht. Das geht nur über die Performance.
Was mir Kopfzerbrechen bereitet, ist dass ein Compiler nie 100% liefern kann.
Ohne Handarbeit (siehe z.B. pp_hints) wird man nie die volle Leistung erreichen.
ShadowXX[/POST]']
und Vertex-Limitierungen habe ich bisher keine in irgendwelchen Games gesehen (und das wäre wenn überhaupt der Pferdefuss, wobei wenn die INQ Meldung halbwegs stimmt, nV sowieso auf 16 kombinierte VS+GS setzen wird -> das sollte erstmal ausreichen.)
Auf dem Papier schon...
genauso wie die FX-Serie auf dem Papier sich gar nicht mal schlecht gemacht hat, obwohl es (für den Spieler) die schlechteste GPU ever war.
ShadowXX[/POST]']
Es könnte sein, das ATIs Lösung bei gewissen Problemen schneller ist (aber nicht unbedingt sein muss), aber das wars dann auch schon.
Was heißt den hier bitte "das wars schon"?
Genau darum geht es hier: Performance.
ShadowXX[/POST]']
ATI könnte auch den Thread-Scheduler und/oder das Load-Balancing verhauen und dann hätten wir keinen Überchip mehr, sondern eine "krücke" (gut, das wir wohl nicht passier, aber möglich ist alles -> siehe FX-Reihe bei nV. Toll auf dem Papier, aber sonst eher ein Papiertiger).
Das war bei ATI noch nie so. NV ist eher dafür bekannt Marketingmärchen zu verbreiten. Siehe das TWIMTBP-Programm, als man gemerkt hat, dass die FX-Serie der größte Mist ist...
ShadowXX[/POST]']
Ich glaube das der Speedunterschied zwischen den beiden Chips wesentlich geringer sein wird (unter D3D10) als die meisten vermuten...ein USC ist kein Allheilmittel oder die "Wunderwaffe".
Dann lieber Softwareemulation, oder wie?
Ist nicht dein Ernst. Wenn die Funktionen nicht nativ von der Hardware unterstützt werden, dann ist die Performance immer nicht das Gelbe vom Ei.
Das ist hier zwar alles spekulativ, aber du machst es dir zu einfach.
Ich kann es nicht verstehen, wie man soetwas hinnehmen kann. Wenn man einen Umweg über Software geht, dann kann es nicht gleich gut performant sein, als wenn man es nativ macht.
ShadowXX[/POST]']
Das Design von r580 und r600 sollte eigentlich nichts mehr miteinander zu tun haben und deshlab kann man sehr schlecht vom Verhalten der einen Architektur auf die andere schliessen.
Das Design baut meistens auf den Vorgängerserien auf. Niemand wird das Rad neu erfinden wollen, da es Schwachsinn wäre.
ShadowXX
2006-07-06, 11:49:25
Gast[/POST]']
Dann lieber Softwareemulation, oder wie?
Ist nicht dein Ernst. Wenn die Funktionen nicht nativ von der Hardware unterstützt werden, dann ist die Performance immer nicht das Gelbe vom Ei.
Das ist hier zwar alles spekulativ, aber du machst es dir zu einfach.
Ich kann es nicht verstehen, wie man soetwas hinnehmen kann. Wenn man einen Umweg über Software geht, dann kann es nicht gleich gut performant sein, als wenn man es nativ macht.
Welche Softwareemulation meinst du? (Du meinst hoffentlich nicht das nach aussen darstellen als US)
Auch nV wird in Hardware gegossene GS haben. Momentan sieht es so aus, als wenn nV auf der einen Seite PS-ALUs und auch der anderen Seite Unified VS/GS-ALUs haben wird.
Ob nun das ganze nun von vornherein vom Treiber an die jeweilig zuständigen ALUs "geschickt" wird oder ob das ein Load-Balancer innerhalb der HW macht ist da eiegntlich völlig egal.
Den einzigen Vorteil die ATI wirklich hat (ordentlicher Load-Balancer vorrausgesetzt) ist das Sie im Extremfall mehr PS/VS/GS-Power hätten, falls dieses benötigt wird.
Ausserdem sollte gewisse Latenzen (Texturzugriffe im Vertex-Bereich) bei ATI in der Theorie besser sein.
Aber das muss man dann erst mal sehen, wenn die HW wirklich vor einem liegt.....ganz doof sind die bei nV auch nicht (und so weit ich weiß (Demi hat es AFAIR mal erwähnt) hat nV auch schon durchaus Patente für ein US-Design eingereicht bzw. bekommen).
Sie haben sich also sehr bewusst gegen Unified Shader entschieden (auch wenn die machbarkeit wohl auch einen Rolle gespielt hat).
Sie dir doch mal die momentan als Gerücht umlaufenden Daten an:
ATI soll 64 US haben....sagen wir mal die einzelnen ALUs entsprechen denen des r580.
D.h. Sie hätten im PS-Extremfall 64*1*MADD + 64*1*ADD.
Da aber ein paar der US-ALUs durchaus wohl immer als VS ranmuss, wird dieser Extremfall wohl nie eintreffen.
nV soll 32 PS-Pipeline a 2 MADD haben.....nur haben Sie die dann immer zur Verfügung und noch zusätzlich die 16 VS/GS.
Ich sehe da wirklich nicht das Problem, welche nV haben sollte. Bis wirklich Games auf den Markt kommen, die extensiven Gebrauch von den Features machen, die nV durch die getrennte Architektur nicht ganz so gut hinbekommt wie ATI dank US, gibts von nV wohl nicht nur den Refresh des G80, sondern sogar den Nachfolger.
deekey777
2006-07-06, 12:08:37
Ich hätte da eine Frage.
Wie sieht es eigentlich mit dem Load-Balancing unter Win XP, besser gesagt unter Spielen/Anwendungen, die keine d3d10-Spiele/-Anwendungen sind?
Demirug
2006-07-06, 12:11:33
DK777[/POST]']Ich hätte da eine Frage.
Wie sieht es eigentlich mit dem Load-Balancing unter Win XP, besser gesagt unter Spielen/Anwendungen, die keine d3d10-Spiele/-Anwendungen sind?
Da es die Hardware macht is es unabhängig von der verwendeten API.
MechWOLLIer
2006-07-06, 12:12:49
Meinst du bezüglich des Unified-Shader? Das macht immer die Hardware, und die interessiert es nicht, on nun ein D3D9- oder D3D10-Programm läuft.
ShadowXX[/POST]']Welche Softwareemulation meinst du? (Du meinst hoffentlich nicht das nach aussen darstellen als US)
Doch. Ich meine den Compiler.
ShadowXX[/POST]']
Auch nV wird in Hardware gegossene GS haben. Momentan sieht es so aus, als wenn nV auf der einen Seite PS-ALUs und auch der anderen Seite Unified VS/GS-ALUs haben wird.
Du hast es immernoch nicht geschnallt (sorry für den Ausdruck).
Es sind aber keine US.
Punkt.
Warum hat NV denn erzählt (vor Monaten), daß sie US bringen?
Lügen habe kurze Beine...und das sollte bestrafft werden.
ShadowXX[/POST]']
Ob nun das ganze nun von vornherein vom Treiber an die jeweilig zuständigen ALUs "geschickt" wird oder ob das ein Load-Balancer innerhalb der HW macht ist da eiegntlich völlig egal.
Nicht wirklich, aber das habe ich schon angesprochen.
ShadowXX[/POST]']
Den einzigen Vorteil die ATI wirklich hat (ordentlicher Load-Balancer vorrausgesetzt) ist das Sie im Extremfall mehr PS/VS/GS-Power hätten, falls dieses benötigt wird.
Ausserdem sollte gewisse Latenzen (Texturzugriffe im Vertex-Bereich) bei ATI in der Theorie besser sein.
Nicht nur in der Theorie, wie man sieht.
ShadowXX[/POST]']
Aber das muss man dann erst mal sehen, wenn die HW wirklich vor einem liegt.....ganz doof sind die bei nV auch nicht (und so weit ich weiß (Demi hat es AFAIR mal erwähnt) hat nV auch schon durchaus Patente für ein US-Design eingereicht bzw. bekommen).
Hehe, NV at its best.
Wenn man nicht mehr mithalten kann, was die Technik angeht, dann müssen Patente herhalten. IMO ziemlich armselig.
ShadowXX[/POST]']
Sie haben sich also sehr bewusst gegen Unified Shader entschieden (auch wenn die machbarkeit wohl auch einen Rolle gespielt hat).
Das darfst du bitte erklären.
Wenn es für ATI machbar ist, warum ist es für NV nicht machbar?
Wieder Märchen ala FX?
ShadowXX[/POST]']
Sie dir doch mal die momentan als Gerücht umlaufenden Daten an:
ATI soll 64 US haben....sagen wir mal die einzelnen ALUs entsprechen denen des r580.
D.h. Sie hätten im PS-Extremfall 64*1*MADD + 64*1*ADD.
Da aber ein paar der US-ALUs durchaus wohl immer als VS ranmuss, wird dieser Extremfall wohl nie eintreffen.
nV soll 32 PS-Pipeline a 2 MADD haben.....nur haben Sie die dann immer zur Verfügung und noch zusätzlich die 16 VS/GS.
Komm bitte wieder auf den Boden zurück.
Solche Rechnungen habe ich unter anderem von aths bei der FX-Serie gesehen.
Wie man jetzt nachwiesen kann, war es Bullshit.
ShadowXX[/POST]']
Ich sehe da wirklich nicht das Problem, welche nV haben sollte. Bis wirklich Games auf den Markt kommen, die extensiven Gebrauch von den Features machen, die nV durch die getrennte Architektur nicht ganz so gut hinbekommt wie ATI dank US, gibts von nV wohl nicht nur den Refresh des G80, sondern sogar den Nachfolger.
Also eine klare Kaufempfehlung @R600 für Leute, die nicht alle paar Monate die Graka wechseln?
Demirug
2006-07-06, 12:19:17
Gast[/POST]']Warum hat NV denn erzählt (vor Monaten), daß sie US bringen?
Lügen habe kurze Beine...und das sollte bestrafft werden.
Wenn du auf Kirk anspielst der hat immer nur gesagt sie bringen es wenn sie die Zeit dafür gekommen halten.
Gast[/POST]']Hehe, NV at its best.
Wenn man nicht mehr mithalten kann, was die Technik angeht, dann müssen Patente herhalten. IMO ziemlich armselig.
ATI ist in der Beziehung genau so armselig.
Gast[/POST]']Also eine klare Kaufempfehlung @R600 für Leute, die nicht alle paar Monate die Graka wechseln?
Sollte man nicht besser warten bis der Hase erlegt (oder sie überhaupt mal sehen lässt) ist bevor man ihn verkauft?
Demirug[/POST]']Wenn du auf Kirk anspielst der hat immer nur gesagt sie bringen es wenn sie die Zeit dafür gekommen halten.
Ähm,
vielleicht bin ich da nicht richtig informiert, aber ich habe vor Monaten gelesen, dass ATI UND NV bei der nächsten Generation US bringen.
Aber wie gesagt, es sind Infos aus dem Internet und nicht auf eine bestimmte Person bezogen.
Demirug[/POST]']
ATI ist in der Beziehung genau so armselig.
Wenn du dies behauptest, dann kannst du sicherlich Beispiele nennen. Das ATI-Marketing ist eher schwach. NV wollte die Krücke FX als eine gute GPU verkaufen. Wann hat das ATI gemacht?
Demirug[/POST]']
Sollte man nicht besser warten bis der Hase erlegt (oder sie überhaupt mal sehen lässt) ist bevor man ihn verkauft?
Klar!
Das selbe habe ich von dir auch bei der FX-Serie gelesen. Und du (auch aths) lagst falsch.
Sorry Demi, aber nur weil man einen Titel ala 3D-Guru hat, bedeutet das noch lange nicht, dass man unfehlbar ist, obwohl ich dich sehr schätze. :)
Gast[/POST]']Ähm,
vielleicht bin ich da nicht richtig informiert, aber ich habe vor Monaten gelesen, dass ATI UND NV bei der nächsten Generation US bringen.
Aber wie gesagt, es sind Infos aus dem Internet und nicht auf eine bestimmte Person bezogen.
Wenn du dies behauptest, dann kannst du sicherlich Beispiele nennen. Das ATI-Marketing ist eher schwach. NV wollte die Krücke FX als eine gute GPU verkaufen. Wann hat das ATI gemacht?
Klar!
Das selbe habe ich von dir auch bei der FX-Serie gelesen. Und du (auch aths) lagst falsch.
Sorry Demi, aber nur weil man einen Titel ala 3D-Guru hat, bedeutet das noch lange nicht, dass man unfehlbar ist, obwohl ich dich sehr schätze. :)
Bei der R 8500-Serie. Die Leistung stimmte (mit vielen Bugs gepaart), die Features wie (venunftiges) AA und trilineares AF suchte man vergebens.
Demirug
2006-07-06, 12:43:59
Gast[/POST]']Ähm,
vielleicht bin ich da nicht richtig informiert, aber ich habe vor Monaten gelesen, dass ATI UND NV bei der nächsten Generation US bringen.
Aber wie gesagt, es sind Infos aus dem Internet und nicht auf eine bestimmte Person bezogen.
Dann haben wohl die entsprechenden Seiten die Aussagen der nVidia Mitarbeiter falsch interpretiert. Dort bekommt man nämlich immer nur ein „Wenn wir die Zeit für gekommen halten“
Gast[/POST]']Wenn du dies behauptest, dann kannst du sicherlich Beispiele nennen. Das ATI-Marketing ist eher schwach. NV wollte die Krücke FX als eine gute GPU verkaufen. Wann hat das ATI gemacht?
Das armselig bezog sich auf die Patente auf jeden Blödsinn.
Gast[/POST]']Klar!
Das selbe habe ich von dir auch bei der FX-Serie gelesen. Und du (auch aths) lagst falsch.
Sorry Demi, aber nur weil man einen Titel ala 3D-Guru hat, bedeutet das noch lange nicht, dass man unfehlbar ist, obwohl ich dich sehr schätze. :)
Ich habe nie behauptet unfehlbar zu sein und gerade aus der ganzen FX Geschichte sollte jeder gelernt haben das man dem was ein IHV vorab von seinen Chips erzählt nicht glauben sollte.
Und ATI lobt sich für die US Sache momentan dermaßen selbst über den grünen Klee das ich einfach nicht anders kann als da irgendwo noch einen Haken zu vermuten. nVidia ist derzeit einfach zu schweigsam um überhaupt etwas über den kommenden G80 sagen zu können.
IVN[/POST]']Bei der R 8500-Serie. Die Leistung stimmte (mit vielen Bugs gepaart), die Features wie (venunftiges) AA und trilineares AF suchte man vergebens.
Trilineares AF kann der R200 gar nicht.
Technisch war der R200 aber eh überlegen (PS 1.4).
ShadowXX
2006-07-06, 12:57:15
Gast[/POST]']Doch. Ich meine den Compiler.
Was hat der Complier damit zu tun?
Ob nun der Treiber an die PS bzw. VS/GS-Einheiten schon im vorraus verteilt oder ob es die HW innerhalb des Chips regelt sollte ziemlich egal sein.
Du hast es immernoch nicht geschnallt (sorry für den Ausdruck).
Es sind aber keine US.
Punkt.
Warum hat NV denn erzählt (vor Monaten), daß sie US bringen?
Lügen habe kurze Beine...und das sollte bestrafft werden.
Du hast es wohl eher nicht ganz verstanden:
Ja, nV hat keine gesamt US-Architektur, aber VS&GS bilden zusammen eine Einheit (sind also quasi auch eine unified shader, nur ohne PS)...nur die PS stehen "alleine" rum.
Nicht wirklich, aber das habe ich schon angesprochen.
Wo hast du das angesprochen.....du hast einfach etwas gesagt und dies als unumstösslich dargestellt.
Wenn dann bitte auch begründen, wo du das Problem siehst.
Nicht nur in der Theorie, wie man sieht.
Wo kann man was sehen......oder hast du schon einen r600 & G80 auf deinem Tisch liegen?
Hehe, NV at its best.
Wenn man nicht mehr mithalten kann, was die Technik angeht, dann müssen Patente herhalten. IMO ziemlich armselig.
Das darfst du bitte erklären.
Wenn es für ATI machbar ist, warum ist es für NV nicht machbar?
Wieder Märchen ala FX?
Wer sagt das es für nV nicht machbar wäre??
Wie schon erwähnt....auch bei nV sind die nicht doof und werden schon einen Grund gehabt haben.
Ja, vielleicht sogar weil Sie es in kurzer Zeit nicht konnten....das streite ich auch nicht ab.
Komm bitte wieder auf den Boden zurück.
Solche Rechnungen habe ich unter anderem von aths bei der FX-Serie gesehen.
Wie man jetzt nachwiesen kann, war es Bullshit.
Ich weiß nicht was aths bei der FX so vorgerechnet hat, aber meins waren einfach nur die Grunddaten (falls die Gerüchte stimmen) und die rein theoretischen PS-Leistung.
Was die jeweilige Architektur dann daraus macht, werden wir erst noch sehen, aber rein von den theoretischen Daten, siehts nicht so aus, als wenn Sie sich viel nehmen würden.
Aber wie gesagt: Erst mal sehen was die fertige HW daraus macht.
Also eine klare Kaufempfehlung @R600 für Leute, die nicht alle paar Monate die Graka wechseln?
Du glaubst doch wohl selber nicht, das 6 Monate nach release von D3D10-Hardware (die dazu wohl noch 3-6 Moante vor Vista kommt) es schon Games gibt, die die neuen Specs wirklich ausnutzen??
Wir haben ja noch nicht mal alle D3D9-Features in ordentlicher Implementation vorliegen, geschweige denn wird das SM3.0-Modell auch nur ansatzweise wirklich ordentlich genutzt.
G80 sowie auch r600 sind High-Speed-D3D9/SM3.0-Chips die zufälligerweise auch D3D10 Features auf dem Papier beherrschen (manches davon vielleicht sogar in ansatzweise annehmbarer Geschwindigkeit).
ATI macht nicht mal einen großen hehl daraus, das r600 hauptsächlich ein D3D9-Chip ist ("der schnellste D3D9-Chip der Welt" -> Ati Marketing at its best).
Auch ja, noch mal nebenbei zum Marketing: nV mag ja vielleicht der lautere Marktschreier der beiden sein, aber mit Ruhm hat sich auch ATI bisher nicht bedeckt. Da kamen auch von ATI schon aussagen, die das Papier bzw. die Bandbreite nicht wert waren die getätigt wurden.
nV ist da aber auch nicht wirklich besser.
P.S.
ich hab überigens eine X1900XT und keine nV-Karte und bin sehr zufrieden mit dieser.
Demirug[/POST]']Dann haben wohl die entsprechenden Seiten die Aussagen der nVidia Mitarbeiter falsch interpretiert. Dort bekommt man nämlich immer nur ein „Wenn wir die Zeit für gekommen halten“
OK, akzeptiert. :)
Wobei diese Aussage so halbgar ist, dass sie real gar keine Bedeutung hat.
Demirug[/POST]']
Das armselig bezog sich auf die Patente auf jeden Blödsinn.
Natürlich hast du hier vollkommen recht. Ich habe deine Aussage falsch gedeutet.
Demirug[/POST]']
Ich habe nie behauptet unfehlbar zu sein und gerade aus der ganzen FX Geschichte sollte jeder gelernt haben das man dem was ein IHV vorab von seinen Chips erzählt nicht glauben sollte.
Richtig.
Deswegen bin ja auch skeptisch, was die Implementierung der US beim G80 angeht.
Ich würde mich aber sehr gerne von NV eines Besseren belehren lassen.
Nur glauben tue ich das zur Zeit nicht.
NV hat einfach schon oft viel versprochen, dies aber nicht eingehalten.
Deswegen bin ich skeptich.
Würde mich aber sehr freuen, wenn NV das gebacken bekommt.
Wäre für den Kunden nur gut, wenn man wettbewersfähige GPUs anbietet, da Preiskampf. :)
Demirug[/POST]']
Und ATI lobt sich für die US Sache momentan dermaßen selbst über den grünen Klee das ich einfach nicht anders kann als da irgendwo noch einen Haken zu vermuten. nVidia ist derzeit einfach zu schweigsam um überhaupt etwas über den kommenden G80 sagen zu können.
Wenn ich ehrlich bin, dann muß ich schon sagen, dass mich die Infos von ATI und NV recht herzilich wenig interessieren.
Ist doch eh nur Marketing...
Gast[/POST]']Trilineares AF kann der R200 gar nicht.
Technisch war der R200 aber eh überlegen (PS 1.4).
Das habe ich doch geschrieben, oder?
Ja natuerlich, nur war er mit einer GF 3 vergleichbar (vom Aspekt der Leistung), bot aber nicht die Features. Wenn ich z.B. ueber einen Kauf entscheide, dann werfe ich erst einen Blick auf die Features die man sofort nutzen kann (AA und AF), der 2. geht in die Richtung SM.
Natuerlich ist das alles subjektiv, und OT.
Spasstiger
2006-07-06, 19:19:49
Der R600 wird ja theoretisch eine abartige Vertex-Shader-Leistung haben. Ich frage mich, ob sich das auch in gewissen Benchmarks niederschlägt, die noch relativ stark von der Vertexshader-Leistung abhängen. In 3DMark 2001 SE im Geometrie-Test (wo der Polygondurchsatz/s gemessen wird) sollte der R600 auf jeden Fall neue Maßstäbe setzen.
Wie wird denn Unified-Shader bei D3D10 gehandhabt? Der Programmierer unterscheidet dann nicht mehr zwischen Vertex- und Pixelshader? Man muss ja immer noch festlegen, ob der Shader Geometrie oder Pixel behandelt, von daher wird ja beim Programmieren automatisch gedanklich unterschieden. Oder wird man ganze neue Wege bei der Programmierung gehen?
Demirug
2006-07-06, 19:46:00
Spasstiger[/POST]']Der R600 wird ja theoretisch eine abartige Vertex-Shader-Leistung haben. Ich frage mich, ob sich das auch in gewissen Benchmarks niederschlägt, die noch relativ stark von der Vertexshader-Leistung abhängen. In 3DMark 2001 SE im Geometrie-Test (wo der Polygondurchsatz/s gemessen wird) sollte der R600 auf jeden Fall neue Maßstäbe setzen.
Nicht zwingend. Der Geometriedurchsatz wird auch noch durch das Trisetup und den Rasterizer bestimmt.
Spasstiger[/POST]']Wie wird denn Unified-Shader bei D3D10 gehandhabt? Der Programmierer unterscheidet dann nicht mehr zwischen Vertex- und Pixelshader? Man muss ja immer noch festlegen, ob der Shader Geometrie oder Pixel behandelt, von daher wird ja beim Programmieren automatisch gedanklich unterschieden. Oder wird man ganze neue Wege bei der Programmierung gehen?
Der Programmierer sieht weiterhin drei verschiedene Shader: Vertex, Geometrie und Pixel. Unified heißt nur das sie Funktional (fast) identisch sind.
Spasstiger
2006-07-07, 14:08:29
Demirug[/POST]']Nicht zwingend. Der Geometriedurchsatz wird auch noch durch das Trisetup und den Rasterizer bestimmt.
Der Programmierer sieht weiterhin drei verschiedene Shader: Vertex, Geometrie und Pixel. Unified heißt nur das sie Funktional (fast) identisch sind.
Danke für die Infos! Siehst du eigentlich einen praktischen Nachteil darin, dass Nvidia die Shadereinheiten noch nicht unified auslegen wird?
ATI meint ja, dass die unified-Architektur neue Möglichkeiten eröffnet wie komplexe Gesichtsanimationen und Morphing. Allerdings dürften doch die meisten Shader-Einheiten für Pixelberechnungen benötigt werden.
StefanV
2006-07-07, 14:44:29
USC hat den Vorteil, das man dann die Einheiten hat, wenn man sie braucht, theoretisch (a la 3DLabs P9/P10!)...
Allerdings haut man sich natürlich ein paar Probleme ins Haus (Load Balancing)...
USCs haben aber den Nachteil, dass sie "teurer" sind. Und bei jedem Einsatz wird Leistung verschenkt - jedesmal wenn ein USC Pixelops durchführt, sind die VS/GS-Transistoren nutzlos, jedesmal wenn er VS-Ops durchführt, liegen GS/PS-Transistoren brach und jedesmal wenn GS-Ops erledigt werden, sind die Transistoren für PS/VS-Funktionalität verschwendet.
Soviel mal zur "tollen" Effizienz.
[MK2]Mythos
2006-07-07, 17:49:53
Gast[/POST]']USCs haben aber den Nachteil, dass sie "teurer" sind. Und bei jedem Einsatz wird Leistung verschenkt - jedesmal wenn ein USC Pixelops durchführt, sind die VS/GS-Transistoren nutzlos, jedesmal wenn er VS-Ops durchführt, liegen GS/PS-Transistoren brach und jedesmal wenn GS-Ops erledigt werden, sind die Transistoren für PS/VS-Funktionalität verschwendet.
Soviel mal zur "tollen" Effizienz.
Ist dir schon mal in den Sinn gekommen das bei der aktuellen Architektur viel mehr brach liegt?
Hvoralek
2006-07-07, 20:59:05
'[MK2]Mythos'[/POST]']Ist dir schon mal in den Sinn gekommen das bei der aktuellen Architektur viel mehr brach liegt?Wirklich viel liegt bei heutigen Karten eigentlich nur brach, wenn viel mehr Füllrate benötigt wird, als der Chip liefern kann (das ist bei US genau so) oder wenn viel mehr Geometrieleistung benötigt wird (was praktisch nicht vorkommt).
'[MK2]Mythos'[/POST]']Ist dir schon mal in den Sinn gekommen das bei der aktuellen Architektur viel mehr brach liegt?
Nein, erzähl mal...
Ailuros
2006-07-08, 06:39:42
StefanV[/POST]']USC hat den Vorteil, das man dann die Einheiten hat, wenn man sie braucht, theoretisch (a la 3DLabs P9/P10!)...
Allerdings haut man sich natürlich ein paar Probleme ins Haus (Load Balancing)...
Was genau hat P9/10 mit einem USC gemeinsam dass ich verpasst habe? P10 ist erstmal ein multi-chip Design.
Hvoralek[/POST]']Wirklich viel liegt bei heutigen Karten eigentlich nur brach, wenn viel mehr Füllrate benötigt wird, als der Chip liefern kann (das ist bei US genau so) oder wenn viel mehr Geometrieleistung benötigt wird (was praktisch nicht vorkommt).
Füllrate? Nein, das Problem ist dass die Vertexeinheiten bisher eigentlich gar nicht ausgelastet werden, weil der Bottleneck (sinnvollerweiße) der Pixelshader und die Rasterization ist.
Bei einem unified shader laufen die ganzen ALUs (im Idealfall) immer auf Volllast.
Hvoralek[/POST]']Jedesmal wenn er VS-Ops durchführt, liegen GS/PS-Transistoren brach und jedesmal wenn GS-Ops erledigt werden, sind die Transistoren für PS/VS-Funktionalität verschwendet.
Denkfehler. Die ALU-Ops sind für alle 3 genau die gleichen und die restliche Logik abseits der ALUs braucht man für jede Stage sowieso.
Demirug
2006-07-08, 14:24:33
Coda[/POST]']Füllrate? Nein, das Problem ist dass die Vertexeinheiten bisher eigentlich gar nicht ausgelastet werden, weil der Bottleneck (sinnvollerweiße) der Pixelshader und die Rasterization ist.
Da eine USA ja sehr fein granular arbeitet sollte man die Last Situation ähnlich fein betrachten.
Hvoralek
2006-07-08, 15:49:40
Coda[/POST]']Füllrate? Nein, das Problem ist dass die Vertexeinheiten bisher eigentlich gar nicht ausgelastet werden, weil der Bottleneck (sinnvollerweiße) der Pixelshader und die Rasterization ist.Die Füllrate verliert zwar zunehmend an Bedeutung, aber ich glaube kaum, dass sie schon vöölig gleichgültig ist. Und warum würde eine USA helfen, wenn der Rasterizer begrenzt?
Wieso sollte es "sinnvoll" sein, nur ein oder zwei Komponenten ständig auszulasten, die dabei die anderen ausbremsen? Erstrebenswert wäre doch eher eine möglichst gleichmäßige Belastung aller Komponenten.
Bei einem unified shader laufen die ganzen ALUs (im Idealfall) immer auf Volllast.Und was für eine Auslastung ist realitisch? "Im Idealfall" bekommt ein Chip mit dedizierten Shadern genau so viele Befehle jedes Typs, dass alle Einheiten stets genau ausgelastet sind.
Denkfehler. Die ALU-Ops sind für alle 3 genau die gleichen und die restliche Logik abseits der ALUs braucht man für jede Stage sowieso.Meinst Du, D3D10- PS, -VS und -GS wären ohnehin baugleich? Das kann ich mir schwer vorstellen, zumal (zumindest bei heutigen GPUs) die VS über einen fünften Kanal verfügen (Den demnach, wenn er nicht für VS überflüssig, auch US bekommen müssten - und der dann bei PS- Rechnungen brach liegen würde). Die von Dir zitierte Aussage stammt übrigens nicht von mir.
Hvoralek[/POST]']Die Füllrate verliert zwar zunehmend an Bedeutung, aber ich glaube kaum, dass sie schon vöölig gleichgültig ist. Und warum würde eine USA helfen, wenn der Rasterizer begrenzt?
Der "Rasterizer" - also das Triangle Setup usw. hat noch nie irgendwo auch nur annähernd was begrenzt. Wenn du die ROPs meinst: Da reichen 16 mit doppelter Füllrate bei Z-only völlig aus bei einem 256-Bit-SI.
Reine Füllrate ist völlig egal heutzutage, weil jeder Pixel normal mehr als einen Takt braucht.
Hvoralek[/POST]']Wieso sollte es "sinnvoll" sein, nur ein oder zwei Komponenten ständig auszulasten, die dabei die anderen ausbremsen? Erstrebenswert wäre doch eher eine möglichst gleichmäßige Belastung aller Komponenten.
Richtig. Das nennt sich unified shader.
Hvoralek[/POST]']Und was für eine Auslastung ist realitisch?
>90%. Das Problem ist nur wenn der Arbiter sich beim Load-Balancing vertut.
Hvoralek[/POST]']"Im Idealfall" bekommt ein Chip mit dedizierten Shadern genau so viele Befehle jedes Typs, dass alle Einheiten stets genau ausgelastet sind.
Den gibts nicht. Die Vertexeinheiten sind im Moment relativ unterfordert.
Hvoralek[/POST]']Meinst Du, D3D10- PS, -VS und -GS wären ohnehin baugleich?
Natürlich sind sie das. Die Ops sind wie gesagt genau die gleichen.
Hvoralek[/POST]']Das kann ich mir schwer vorstellen, zumal (zumindest bei heutigen GPUs) die VS über einen fünften Kanal verfügen (Den demnach, wenn er nicht für VS überflüssig, auch US bekommen müssten - und der dann bei PS- Rechnungen brach liegen würde). Die von Dir zitierte Aussage stammt übrigens nicht von mir.
Den kannst du auch im Pixelshader verwenden.
Hvoralek
2006-07-08, 17:00:55
Coda[/POST]']Der "Rasterizer" - also das Triangle Setup usw. hat noch nie irgendwo auch nur annähernd was begrenzt.Was meintest Du denn dann weiter oben mit "Rasterization" (hatte mich schon gewundert)?
Reine Füllrate ist völlig egal heutzutage, weil jeder Pixel normal mehr als einen Takt braucht.
Ich dachte, aus dem Zusammenhang sei erkennbar, dass ich Texelfüllrate meine.
Richtig. Das nennt sich unified shader.Wieso soll dann im Vorposting eine weitgehende PS- Begrenzung "sinnvoll" sein?
>90%. Das Problem ist nur wenn der Arbiter sich beim Load-Balancing vertut.Und wo liegt die Nutzung von Shadern bei heutigen dedizierten Einheiten? Wenn bei den Shadern etwas begrenzt, sind es so gut wie immer die PS (die damit also auch ausgelastet sind). Bleiben noch VS, die z.B. bei R580 oder G70/71 insgesamt nur 14% der Kapazitäten stellen. Bei einer PS- Limitierung liegt man also selbst bei völliger Untätigkeit der VS nicht allzu weit darunter.
Die entscheidende Frage bei US ist aber, ob die Mehrleistung den Aufwand für die Verteilereinheit rechtfertigt. Irgendeine Ahnung, wie groß so ein Teil ungefähr wäre?
Den gibts nicht.Warum habe ich wohl die ' " ' gesetzt? :wink:
Den kannst du auch im Pixelshader verwenden.Für arithmetische Berechnungen sind die sicherlich nützlich, aber wie soll man fünf Kanäle im RGBA- Format durchgehend sinnvoll nutzen?
Hvoralek[/POST]']Und wo liegt die Nutzung von Shadern bei heutigen dedizierten Einheiten? Wenn bei den Shadern etwas begrenzt, sind es so gut wie immer die PS (die damit also auch ausgelastet sind). Bleiben noch VS, die z.B. bei R580 oder G70/71 insgesamt nur 14% der Kapazitäten stellen. Bei einer PS- Limitierung liegt man also selbst bei völliger Untätigkeit der VS nicht allzu weit darunter.
Kannst du dich bitte etwas deutlicher ausdrücken? Ich komm nicht mit was du meinst.
Schon wie du auf die "14%" kommst ist mir nicht klar.
Hvoralek[/POST]']Die entscheidende Frage bei US ist aber, ob die Mehrleistung den Aufwand für die Verteilereinheit rechtfertigt. Irgendeine Ahnung, wie groß so ein Teil ungefähr wäre?
Du klingst so als wäre das Zukunftsmusik. Der C1 in der Xbox und der kommende R600 sind unified shader.
Hvoralek[/POST]']Für arithmetische Berechnungen sind die sicherlich nützlich, aber wie soll man fünf Kanäle im RGBA- Format durchgehend sinnvoll nutzen?
Vec4 + Scalar. Bisher kannst das nur nebeneinander laufen lassen wenn du nur mit Vec3 rumrechnest.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.