Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008?
Zum Thema Leistung pro Transistor stagniert: Die 6800 Ultra hatte 222 Mio., G80 hat 681 Mio., also gut das Dreifache. Die Leistungssteigerung einer GTX (Ultra noch mehr) dürfte in heutigen Spielen aber eher das 6-8fache betragen. Denke also schon, dass die Leistung pro Transistor im Laufe der Zeit steigt.
Ganz so vile ists auch wieder nicht... aber ist auch ein denkbar schlechtes Beispiel, G7x war einfach bescheiden. Vergleich mal mit R580, dann siehst das sich die Effizienz gegenüber diesem nur geringfügig gebessert hat. (Aber wenigstens nicht viel schlechter geworden wie im Vergleich zum r600... lol)
Ganz so vile ists auch wieder nicht... aber ist auch ein denkbar schlechtes Beispiel, G7x war einfach bescheiden. Vergleich mal mit R580, dann siehst das sich die Effizienz gegenüber diesem nur geringfügig gebessert hat. (Aber wenigstens nicht viel schlechter geworden wie im Vergleich zum r600... lol)
Lag ja auch in der Richtung wie sich die Spiele entwickelten. Zur Zeit wo der G70/G71 rauskam, war er sehr gut. In FEAR z.B. schlägt er sich heute noch gut.
Nur gingen die Bedürfnisse der neueren Spiele irgendwie in eine andere Richtung, die dem R520 und R580 besser lagen und der G70 krepierte förmlich. Da war es für den G80 ein leichtes das zu übertrumpfen. Wobei der G80 auch verglichen mit dem R580/R600/ und auch R670 in Sachen Wirkungsgrad von Transistorenanzahl und Verbrauch sehr gut ist. Ich schließe aber aus, dass sich das beim GT200 wiederholt. Da würde ich spontan sagen, wenn sich was verbessert dann nicht mehr als 10 %. Der G80 ist schließlich auch über sehr lange Zeit geplant und konstruiert worden.
Zum Thema Leistung pro Transistor stagniert: Die 6800 Ultra hatte 222 Mio., G80 hat 681 Mio., also gut das Dreifache. Die Leistungssteigerung einer GTX (Ultra noch mehr) dürfte in heutigen Spielen aber eher das 6-8fache betragen. Denke also schon, dass die Leistung pro Transistor im Laufe der Zeit steigt.
Da musste aber noch mit einberechnen, dass der G80 deutlich höher getaktet ist, besonders die Shader!
nomadhunter
2008-02-05, 17:25:24
Das gehört doch dazu, wenn es darum geht, wie sich die Performance/Transistor im Laufe der Zeit entwickelt.
Zu große Steigerungen ggü. G80 erwarte ich von G(T)200 auch nicht, aber 10-20% (bei 20% käme man auf 3x G80-Performance bei 2,5x G80-Transistorcount) halte ich schon für möglich, gerade wenn man die Sache mit den Shaderdomains noch weiter treibt. Die 1350 MHz Shadertakt der 8800 GTX sind ja doch noch eher konservativ.
Paul Brain
2008-02-05, 17:28:32
Derzeit rechnet man damit, dass der GT200 auf Grafikkarten mit der Bezeichnung GeForce 9800 GTX zum Einsatz kommen wird. Nach der GeForce 9800 GX2, die analog zur Radeon HD 3870 X2 auf zwei G92 Grafikchips basiert, dürfte die 9800 GTX das nächste Single-Chip High-End Modell werden. Ein Einführungstermin ist derzeit noch unklar. Vermutet wird die zweite Hälfte dieses Jahres."
http://hartware.de/news_44013.html
;D
WTF?!?
Ich dachte, die 9800GTX wird ebenso wie die GX2 auf G92 basieren und bereits Anfang März erscheinen?!?
nomadhunter
2008-02-05, 17:30:58
Da hast du recht. K.A. was sich Hartware da zusammengesponnen hat. Die 65nm-Geschichte hat man ja auch mit in die News verwurstet.
Paul Brain
2008-02-05, 17:36:03
Womit wir beim zukünftigen Namensschema wären - ist es nicht etwas unklug von nVidia, die 9er-Serienbezeichnung bereits jetzt zu verheizen anstatt mit GT200? Somit steht man vor dem Problem, daß bereits zur Einführung von GT200 ein neues Namensschema notwendig sein wird, und nicht erst - besser passend - zur komplett neuen G100-Architektur...
Gibts schon Gerüchte, wie GT200 und folgende Karten heißen werden?
dargo
2008-02-05, 18:16:59
Ich dachte, die 9800GTX wird ebenso wie die GX2 auf G92 basieren und bereits Anfang März erscheinen?!?
Davon würde ich ausgehen. Ich fasse mal zusammen:
G8800GT 512 = ab 187€
G8800GTS 512 = ab 236€
G8800GTX = ab 297€
Mir scheint es so als ob NV hier Platz im oberen Preisbereich für die nächsten Karten macht.
PS: kann es sein, dass wir den GT200 doch schon im Sommer sehen werden?
AnarchX
2008-02-05, 18:18:56
PS: kann es sein, dass wir den GT200 doch schon im Sommer sehen werden?
Wenn A1 als finale Revision verwendet wird, wäre das wahrscheinlich.
Aber ich würde doch eher auf Herbst tippen.
laser114
2008-02-05, 18:22:55
Hat Nvidia jemals A1 als finale Revision verwendet?
Mit so frühen Revisionen müsste man sicher niedrigere Taktraten wählen, warum sollte Nvidia das tun? Lohnt sich die 9800 GX2 als Zwischenlösung ja nicht, und G92 könnte man auch billiger machen. ;)
LovesuckZ
2008-02-05, 18:25:12
Die neuen Karten werden wohl September/Oktober erscheinen - vielleicht wird es wie bei G71/G80 passieren. Wer im März zwei neue Karten rausbringt, wird diese nicht im Sommer ersetzen.
nomadhunter
2008-02-05, 18:30:54
Womit wir beim zukünftigen Namensschema wären - ist es nicht etwas unklug von nVidia, die 9er-Serienbezeichnung bereits jetzt zu verheizen anstatt mit GT200?
Die 9er Serienbezeichnung hat man doch schon verheizt - mit der 9600 GT und der 9800 GX2. Außerdem heißt G92 wohl nicht umsonst G92. NV wird kaum GT200 in das gleiche Namensschema eingliedern. Eine 9800 GTX, die >2 mal so schnell wie die 9800 GX2 ist, macht absolut keinen Sinn, und die DX10.1-Kompatibilität wäre so auch nicht im Namen drin.
An Sommer glaube ich auch nicht. Ich glaube weiterhin an 55nm und auch an GDDR5, außerdem hat NV keinerlei Zeitdruck. Wieso eine subobtimale, schlecht taktbare A1-Revision auf den Markt schmeißen, wenn eh keine Konkurrenz da ist?
dargo
2008-02-05, 18:31:22
Die neuen Karten werden wohl September/Oktober erscheinen - vielleicht wird es wie bei G71/G80 passieren. Wer im März zwei neue Karten rausbringt, wird diese nicht im Sommer ersetzen.
Meinst du mit den zwei neuen Karten die G9800GX2 und GTX? Nunja, die GX2 dürfte ca. 380€ kosten. Bei der GTX habe ich keine Ahnung. Ich gehe da von ca. 350€ aus. Mir fehlt hier ganz klar ein "teures" High-End im Bereich von 500-550€. "Platzhalter" für den GT200? :D
LovesuckZ
2008-02-05, 18:39:32
Eine GX2 wird keine 350€ kosten.
dargo
2008-02-05, 18:40:28
Eine GX2 wird keine 350€ kosten.
Hat auch keiner behauptet, sondern 380€. ;)
Die ATI kostet um die 400€.....
dargo
2008-02-05, 18:41:29
Die ATI kostet um die 400€.....
:confused:
http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=3870+X2&asd=on&filter=+Angebote+anzeigen+&pixonoff=off
LovesuckZ
2008-02-05, 18:42:36
Hat auch keiner behauptet, sondern 380€. ;)
Richtig, daneben steht die 9800GTX mit 350€. :rolleyes:
dargo
2008-02-05, 18:43:31
Richtig, daneben steht die 9800GTX mit 350€. :rolleyes:
Wo soll sie denn sonst stehen wenn sie etwas langsamer sein soll? Davon gehe ich aus.
LovesuckZ
2008-02-05, 18:44:21
Die 9800x2 wird keine 380€ kosten - wie kommt man auch darauf?
:D die ATI kostet um die 400€
Blacksoul
2008-02-05, 18:49:56
Die 9800x2 wird keine 380€ kosten - wie kommt man auch darauf?
Man sieht die HD3870 X2 wohl als direkte Konkurrenz und diese ist schon ab 359 € verfügbar.
t.b.d
LovesuckZ
2008-02-05, 18:50:50
Man sieht die HD3870 X2 wohl als direkte Konkurrenz und diese ist schon ab 349 € verfügbar.
t.b.d
Richtig, dafür hat man die 9800GTX für 350€. ;D
dargo
2008-02-05, 18:51:51
Die 9800x2 wird keine 380€ kosten - wie kommt man auch darauf?
Um was wetten wir? ;)
Die 449$ UVP sind durchaus realistisch wenn man sieht was eine G8800GT heute kostet. Vom Speed her ist eine GX2 für mich nichts anderes als 2 GTs (ja ich weiß, die GX2 wird 2x 128SPs haben, dafür aber weniger Coretakt).
Ich spreche hier natürlich nicht von Straßenpreisen beim Launch. Wer beim Launch kauft zahlt immer viel drauf. Das sollte man mittlerweile wissen. Ich spreche hier von ca. 6-8 Wochen nach Veröffentlichung der GX2.
Nur mal zur Verdeutlichung:
G8800GT512 = 229$ UVP (<190€ Straßenpreis), Umrechnungsfaktor $ zu € = 1,2
G9800GX2 = 449$ UVP
PS: und wenn man sich den Straßenpreis der 3870X2 anschaut sieht man gleich in welche Richtung es geht. ;)
edit:
Bei der G8800GTS512 siehts noch besser aus:
UVP = 299$
Straßenpreis = ab 236€
Umrechnungsfaktor von 1,27.
LovesuckZ
2008-02-05, 19:00:16
Stimmt, die 8800GT hat auch am ersten Tag 200€ gekostet. Vier haben es jetzt 3 1/2 Monate nach der Veröffentlichung der 8800GT. Und sie kostet erst jetzt deine 190€.
Eine GX2 wird wesentlich preisstabiler sein, da weniger Karten im Handel sein werden und nVidia wesentlich stärker darüber wachen wird.
dargo
2008-02-05, 19:04:52
Stimmt, die 8800GT hat auch am ersten Tag 200€ gekostet. Vier haben es jetzt 3 1/2 Monate nach der Veröffentlichung der 8800GT. Und sie kostet erst jetzt deine 190€.
Die 200€ GTs am Anfang konnte man schon fast an der Hand abzählen. Nicht wirklich vergleichbar. Man musste verdammt viel Glück haben um eine für diesen Preis zu bekommen.
Eine GX2 wird wesentlich preisstabiler sein, da weniger Karten im Handel sein werden und nVidia wesentlich stärker darüber wachen wird.
Da wäre ich mir nicht so sicher wenn sie mit der 3870X2 konkurriert.
LovesuckZ
2008-02-05, 19:08:25
Man konkuriert mit der Karte nicht gegen der 3870x2 - das macht schon die 9800GTX.
Die 9800x2 wird das High, dass überall schneller sein wird. Wozu bräuchte man da noch die 9800GTX? Um mit der 3870 zu konkurrieren? :ugly:
dargo
2008-02-05, 19:11:16
Wozu bräuchte man da noch die 9800GTX? Um mit der 3870 zu konkurrieren? :ugly:
Nö, um zb. mich als non SLI-User zufrieden zu stellen. :D
nomadhunter
2008-02-05, 19:14:31
Mehr als 400€ glaube ich aber nicht, dass die 9800GX2 kosten wird. Der Takt wird ja wohl doch recht beschränkt (trotz 128SP also wohl höchstens GT-Leistung bei den einzelnen Chips), und eine GX2-Karte sollte eigentlich billiger sein als 2x die Karte, aus der sie zusammengesetzt ist.
reunion
2008-02-05, 19:17:21
An Sommer glaube ich auch nicht. Ich glaube weiterhin an 55nm und auch an GDDR5, außerdem hat NV keinerlei Zeitdruck. Wieso eine subobtimale, schlecht taktbare A1-Revision auf den Markt schmeißen, wenn eh keine Konkurrenz da ist?
Naja, keinerlei Zeitdruck kann man wohl kaum sagen wenn AMD wirklich noch im Q2 RV770 rauswirft.
Wozu bräuchte man da noch die 9800GTX? Um mit der 3870 zu konkurrieren? :ugly:
Um etwas zwischen der 9800GX2 und der 9600GT zu haben?
Richtig, dafür hat man die 9800GTX für 350€. ;D
Würde die reichen dann gäbe es keine GX2.
Paul Brain
2008-02-05, 19:18:40
Wieso interessiert sich die ganze Welt eigentlich nur für dieses unsägliche SLi-Monster von GX2? Ich will endlich Specs für die GTX sehen! :tongue:
Naja, keinerlei Zeitdruck kann man wohl kaum sagen wenn AMD wirklich noch im Q2 RV770 rauswirft.
Die Wahrscheinlichkeit dazu schätze ich mal auf 0,01%.
Hvoralek
2008-02-05, 19:54:02
Naja, beim R600 hat diese Rechnung nicht ganz gestimmt...Die Abschätzung funktioniert natürlich nur bei architektonisch ähnlichen Karten. Da hätte man für R600 höchstens Xenos nehmen können, aber auch da gibt es viel größere Unterschiede als sie zwischen G80 und G200 je erwarten würde.
Nur wage ich zu bezweifeln das ein GT200 mit an die 2 Mrd Transistoren keine höhere TDP als 250W hat.Wieso? Ich würde in 55 nm erwarten, dass man bei gleich vielen Transistoren wie in 90 nm und gleichem Takt höchstens halb so viel Energie braucht. Bei 2,5- facher bis dreifacher Komplexität wäre der Stromverbrauch dann Pi * Daumen 1/4 - 1/2 höher als bei G80 (Bei einem Chip der Größe würde ich Taktraten ungefähr auf G80- Niveau erwarten, eher darunter als darüber).
Ganz so vile ists auch wieder nicht... aber ist auch ein denkbar schlechtes Beispiel, G7x war einfach bescheiden. Vergleich mal mit R580, dann siehst das sich die Effizienz gegenüber diesem nur geringfügig gebessert hat. (Aber wenigstens nicht viel schlechter geworden wie im Vergleich zum r600... lol)Wenn Du nicht fps/W vergleichst, sondern Features mit einbeziehst, stehen die D3D10- Karten (inkl. erweitertem AA, FP- Filterung, FP32- Blending usw.) schon besser da.
Naja, keinerlei Zeitdruck kann man wohl kaum sagen wenn AMD wirklich noch im Q2 RV770 rauswirft.Ich glaube, man würde da noch eher eine aufgebohrte D8P- GX2 gegenstellen, als G200 deshalb halbfertig auf den Markt zu werfen. Angenommen, RV770 wird grob ein 1 1/2- facher RV670, sollte eine GX2 mit zwei 750- MHz- D8Ps zumindest ein ebenbürtiger Gegner sein. Das wären unter Vollast wohl über 200W. Allerdings braucht eine RV670- X2 auch nicht viel weniger, von einer RV770- X2 fange ich mal gar nicht erst an.
Das wäre sicher auch nicht schön, aber zumindest die weniger üble Notlösung.
Um etwas zwischen der 9800GX2 und der 9600GT zu haben?Was ist mit der 8800 GT und GTS 512?
laser114
2008-02-05, 19:56:13
Was ist mit der 8800 GT und GTS 512?
Die muss man dann aber dann auch als neu verkaufen, also beispielsweise 8800 GTS 512 -> 9800 GT (evtl. noch leichte Veränderungen an den Taktraten). Sollen sich ja in das Geforce-9-Modell einbringen.
reunion
2008-02-05, 20:01:27
Ich glaube, man würde da noch eher eine aufgebohrte D8P- GX2 gegenstellen, als G200 deshalb halbfertig auf den Markt zu werfen. Angenommen, RV770 wird grob ein 1 1/2- facher RV670, sollte eine GX2 mit zwei 750- MHz- D8Ps zumindest ein ebenbürtiger Gegner sein. Das wären unter Vollast wohl über 200W. Allerdings braucht eine RV670- X2 auch nicht viel weniger, von einer RV770- X2 fange ich mal gar nicht erst an.
Das wäre sicher auch nicht schön, aber zumindest die weniger üble Notlösung.
Ein RV770 wird IMO deutlich mehr als 50% schneller als ein RV670. Ist immerhin die nächste Generation. Auch AMD weiß wie groß GT200 wird. Überhaupt ist über 200W für eine GX2 mit 750Mhz etwas untertrieben wenn schon eine 8800GTS mit 650Mhz eine TDP von 140W hat. Damit würde man wohl locker die Specs von PCie2.0 sprengen.
Aber daran, dass man eine halbfertigen Chip auf den Markt wirft, glaube ich natürlich auch nicht.
Was ist mit der 8800 GT und GTS 512?
Die werden mit Sicherheit in die 9er Modellreihe eingegliedert. Oder wer kauft noch eine 8er Geforce wenn es erstmal die 9er Reihe gibt?
Hvoralek
2008-02-05, 20:20:50
Ein RV770 wird sicher deutlich mehr als 50% schneller als ein RV670. Ist immerhin die nächste Generation. Auch AMD weiß wie groß GT200 wird.Das Thema "neue Generation" halte ich nach den letzten Äußerungen von Ailuros ("dazwischengeschobenener quasi R6x0" , "ein wahrer 'R700"' ist das Resultat auf jeden Fall wohl nicht") für RV770 und den jetzigen R700 für erledigt.
Natürlich könnte es trotzdem einen erheblichen Geschwindigkeitssprung geben, etwa durch 8 Cluster. Einem doppelten RV670 könnte Nvidia bis G200 wirklich nichts entgegensetzen. Allerdings halte ich das für eher unwahrscheinlich. Zumindest scheint eine RV770- X2 ("R700") recht wahrscheinlich. Die wäre aber bei einem 8- C- Chip zumindest bis G200 nicht nötig und v.a. vom Stromverbrauch her wohl nicht mehr machbar.
Überhaupt ist über 200W für eine GX2 mit 750Mhz etwas untertrieben wenn schon eine 8800GTS mit 650Mhz eine TDP von 140W hat.Eine GTS512 braucht unter Vollast real unter 100W. Bei einer Doppelkarte mit etwas höherem Takt und etwas mehr Spannung würde ich aber auch nicht viel mehr als 200W erwarten.
Die werden mit Sicherheit in die 9er Modellreihe eingegliedert. Oder wer kauft noch eine 8er Geforce wenn es erstmal die 9er Reihe gibt?Dann könnte man sie einfach umbenennen. Jedenfalls braucht es keinen schnelleren D8P (und die 9800 GTX wird ja offensichtlich schneller sein als die GTS512), nur um etwas zwischen der GX2 und der 9600 GT zu haben.
laser114
2008-02-05, 20:28:41
Das Thema "neue Generation" halte ich nach den letzten Äußerungen von Ailuros ("dazwischengeschobenener quasi R6x0" , "ein wahrer 'R700"' ist das Resultat auf jeden Fall wohl nicht") für RV770 und den jetzigen R700 für erledigt.
Natürlich könnte es trotzdem einen erheblichen Geschwindigkeitssprung geben, etwa durch 8 Cluster. Einem doppelten RV670 könnte Nvidia bis G200 wirklich nichts entgegensetzen. Allerdings halte ich das für eher unwahrscheinlich. Zumindest scheint eine RV770- X2 ("R700") recht wahrscheinlich. Die wäre aber bei einem 8- C- Chip zumindest bis G200 nicht nötig und v.a. vom Stromverbrauch her wohl nicht mehr machbar.
Hmm, bei einem 8 Clusterchip kann man immer noch mit gesenkten Taktraten operieren. Die 3870 nutzt ja ziemlich hohe Spannungen für den Prozess, da liegen die Spannungen des G92 deutlich drunter (absolute Vergleichzahlen lassen sich sicher irgendwo finden).
Zwischen RV670 und RV635 liegen nur 288 Millionen Transistoren in die 40 5D-Shader, 12 ROPs, 8 TMUs / 16 TAUs und ein 128 Bit Interface passen.
Ein doppelter RV670 dürfte daher mit der Die-Größe eine G92 machbar sein. Bei der Dual-Lösung muss man dann aber mit geringeren Spannung arbeiten.
Eine GTS512 braucht unter Vollast real unter 100W. Bei einer Doppelkarte mit etwas höherem Takt und etwas mehr Spannung würde ich aber auch nicht viel mehr als 200W erwarten.
Naja, die TDP-Werte haben auch noch einiges an Puffer drinne, der durchaus gebraucht wird.
Dann könnte man sie einfach umbenennen. Jedenfalls braucht es keinen schnelleren D8P (und die 9800 GTX wird ja offensichtlich schneller sein als die GTS512), nur um etwas zwischen der GX2 und der 9600 GT zu haben.
Ein einfaches Umbenennen kommt nicht gut, das kann die Konkurrenz zu einfach ausschlachten. Lieber noch etwas rumfriemeln und die Taktraten etwas verändern, oder so. ;)
reunion
2008-02-05, 20:29:24
Das Thema "neue Generation" halte ich nach den letzten Äußerungen von Ailuros ("dazwischengeschobenener quasi R6x0" , "ein wahrer 'R700"' ist das Resultat auf jeden Fall wohl nicht") für RV770 und den jetzigen R700 für erledigt.
War vielleicht etwas missverständlich ausgedrückt. Ein R420 war auch mehr als doppelt so schnell als R360 und trotzdem keine Neuentwicklung. Zudem hat ein RV670 IMO viel Potential, wenn man an den richtigen Stellen den Hebel ansetzt.
Natürlich könnte es trotzdem einen erheblichen Geschwindigkeitssprung geben, etwa durch 8 Cluster. Einem doppelten RV670 könnte Nvidia bis G200 wirklich nichts entgegensetzen. Allerdings halte ich das für eher unwahrscheinlich.
Warum? Die Die-Size wäre auch kaum größer als bei einem G92 und da GT200 auch verdammt groß sein wird sind 8-Cluster IMO durchaus im Bereich der möglichen.
Eine GTS512 braucht unter Vollast real unter 100W.
Woran machst du das fest?
Dann könnte man sie einfach umbenennen. Jedenfalls braucht es keinen schnelleren D8P (und die 9800 GTX wird ja offensichtlich schneller sein als die GTS512), nur um etwas zwischen der GX2 und der 9600 GT zu haben.
Natürlich könnte man sie einfach umbenennen. Doch auch dann ist die Lücke zur GX2 noch sehr groß. Zudem braucht man etwas um die 8800GTX/U zu ersetzen.
LovesuckZ
2008-02-05, 20:32:08
Zudem hat ein RV670 IMO viel Potential, wenn man an den richtigen Stellen den Hebel ansetzt.
Wo denn?
reunion
2008-02-05, 20:33:31
Wo denn?
Mehr Tex- und Z-Füllrate würde in bei so manchen Spielen sicher deutliche Zuwächse bringen und wäre nicht übermäßig Transistorenintensiv.
LovesuckZ
2008-02-05, 20:37:25
Mehr Tex- und Z-Füllrate würde in bei so manchen Spielen sicher deutliche Zuwächse bringen und wäre nicht übermäßig Transistorenintensiv.
Das ist keine Antwort auf die Frage. Architekturbedingt gehören diese beiden Positionen nicht zum "viel Potential". Denn dafür muss die Architektur deutlich umgekrempelt werden.
reunion
2008-02-05, 20:40:29
Das ist keine Antwort auf die Frage. Architekturbedingt gehören diese beiden Positionen nicht zum "viel Potential". Denn dafür muss die Architektur deutlich umgekrempelt werden.
Natürlich ist das eine Antwort auf deine Frage. Mehr Z-Einheiten zu implementieren sollen das geringste Problem sein und das ALU/TMU-Verhältnis scheint auch nicht fix zu sein wenn man sich die verschiedenen Ausführungen des R6xx-Designs ansieht. Ein RV630 hat zB ein deutlich besseres ALU/TEX-Verhältnis.
Hvoralek
2008-02-05, 20:41:33
Naja, die TDP-Werte haben auch noch einiges an Puffer drinne, der durchaus gebraucht wird.Die TDP der GTS 512 liegt ja auch deutlich höher (ich glaube 140 oder 150W).
Ein einfaches Umbenennen kommt nicht gut, das kann die Konkurrenz zu einfach ausschlachten. Lieber noch etwas rumfriemeln und die Taktraten etwas verändern, oder so. ;)Es geht mir darum, dass die 9800 GTX kein "Lückenfüller" zwischen der GX2 und der 9600 GT wird. Dafür wird es irgendwelche D8Ps mit niedrigeren Taktraten geben.
Warum? Die Die-Size wäre auch kaum größer als bei einem G92 und da GT200 auch verdammt groß sein wird sind 8-Cluster IMO durchaus im Bereich der möglichen.Ein doppelter RV670 wäre natürlich machbar. Allerdings wird man auf Grundlage davon keine X2 bauen. Und was sollte dann Deiner Meinung nach "R700" sein?
Woran machst du das fest?Selbst CB misst nur 20W über der GT (für das Gesamtsystem, der Unterschied zwischen den Karten allein ist geringer). Die GT wiederum braucht keine 80W (http://www.xbitlabs.com/articles/video/display/radeon-hd3870-hd3850_13.html#sect0).
reunion
2008-02-05, 20:43:25
Ein doppelter RV670 wäre natürlich machbar. Allerdings wird man auf Grundlage davon keine X2 bauen. Und was sollte dann Deiner Meinung nach "R700" sein?
Und warum nicht? NV baut auch auf Grundlage des G92 eine GX2. Kann man eben die Taktraten nicht so hoch wählen, ist eh besser sonst wird die Lücke nur zu groß. Und bei der Größe des GT200 sollte das das mindeste sein, mit dem AMD antanzt.
LovesuckZ
2008-02-05, 20:48:44
Richtig, weil AMD Recheneinheiten flexibler deaktivieren kann. Die Texturarrays scheinen dagegen wesentlich starrer zu sein.
Und wenn es so einfach wäre die ROPs aufzubohren, hätte man es beim rv670 getan.
Hvoralek
2008-02-05, 20:49:57
Und warum nicht? NV baut auch auf Grundlage des G92 eine GX2. Kann man eben die Taktraten nicht so hoch wählen, ist eh besser sonst wird die Lücke nur zu groß.Energieverbrauch. Die Taktraten müssen schon erheblich unter denen einer 3870 X2 liegen und auch erheblich unter denen eines Einzel- RV770 (Wo 3870- ähnliche Taktraten kein Problem sein dürften).
w0mbat
2008-02-05, 20:51:33
Nein, beim RV670 hatte man nicht gerade viel Zeit, zumal man erst mal mit dem 55nm-Prozess zurecht kommen musste. Ich denke das AMD schon weiß wo man beim R670 anpacken muss, damit der R700 (RV770) ein Knaller wird.
Man könnte z.B. die 64v5 Shader behalten, aber eine Shaderdomaine einführen. Dann verbessert man noch die ROPs, verbessert die TMUs, koppelt das 256-bit SI mit schnellem GDDR5 und erhöht die Taktraten allgemein etwas. Schon hat man eine deutlich potentere GPU, welche nicht viel größer als der RV670 sein dürfte.
reunion
2008-02-05, 20:52:53
Energieverbrauch. Die Taktraten müssen schon erheblich unter denen einer 3870 X2 liegen und auch erheblich unter denen eines Einzel- RV770 (Wo 3870- ähnliche Taktraten kein Problem sein dürften).
Wie schon gesagt: "Kann man eben die Taktraten nicht so hoch wählen, ist eh besser sonst wird die Lücke nur zu groß." Macht nV bei der GX2 ja auch nicht anders. Nur AMD kann es sich leisten wegen des sehr kleinen RV670 die Taktraten bei der X2 sogar noch zu steigern.
LovesuckZ
2008-02-05, 20:53:37
Nein, beim RV670 hatte man nicht gerade viel Zeit, zumal man erst mal mit dem 55nm-Prozess zurecht kommen musste.
Der rv670 ist kein 1:1 Shrink wie in etwa der G92. Architekturbedingt musste man alleine für D3D10.1 etwas ändern - warum dann nicht einfach diese einfache von Reunion angesprochenden Sachen ändern? :confused:
reunion
2008-02-05, 20:54:41
Der rv670 ist kein 1:1 Shrink wie in etwa der G92. Architekturbedingt musste man alleine für D3D10.1 etwas ändern - warum dann nicht einfach diese einfache von Reunion angesprochenden Sachen ändern? :confused:
Auch G92 ist kein 1:1 Shrink. Und einfach ist immer relativ. Natürlich ist es ein Aufwand, aber IMO kein unlösbarer. Im übrigen würde ich jede Wette eingehen das auch schon die HD2xxx-Serie D3D10.1 könnte wenn AMD das denn wollte.
LovesuckZ
2008-02-05, 20:59:52
Auch G92 ist kein 1:1 Shrink. Und einfach ist immer relativ. Natürlich ist es ein Aufwand, aber IMO kein unlösbarer, auch nicht in kurzer Zeit. Jede Wette das auch schon die HD2xxx-Serie D3D10.1 könnte wenn AMD das denn wollte.
Lass mich raten: Keine Zeit? :rolleyes:
Und warum wäre so ein einfacher Eingriff an den ROPs - deine Aussage - nicht in kurzer Zeit realisierbar? Wenn AMD angeblich heute schon weiß, wie groß der GT200 würde, hätten sie wohl auch schon früh über den G80 bescheid wissen müssen.
w0mbat
2008-02-05, 21:00:47
Die Specs zum RV670 standen schon ziemlich früh fest und wurden IIRC seit dem R650 nicht mehr arg verändert. Man hätte also nochmal alles umwerfen müssen. Zum R700 (RV770) gibt´s bis jetzt, außer Andeutungen, rein gar nichts. mMn zeigt das, dass AMD hier deutlich mehr ändert als vom R600 -> RV670. Sie können deutlich mehr Feinarbeit reinstecken.
Selbst CB misst nur 20W über der GT (für das Gesamtsystem, der Unterschied zwischen den Karten allein ist geringer). Die GT wiederum braucht keine 80W (http://www.xbitlabs.com/articles/video/display/radeon-hd3870-hd3850_13.html#sect0).
Das deckt sich nicht ganz mit den Messungen in der aktuellen c't.
5 Karten 8800GT im Test, Verbrauch 3D (typisch) zwischen 85W und 93W, Peak-3D zwischen 119W und 138W.
Hvoralek
2008-02-05, 21:05:23
Nein, beim RV670 hatte man nicht gerade viel Zeit, zumal man erst mal mit dem 55nm-Prozess zurecht kommen musste. Ich denke das AMD schon weiß wo man beim R670 anpacken muss, damit der R700 (RV770) ein Knaller wird.Wieso hatte man bei RV670 keine Zeit? Der war ursprünglich erst für dieses Jahr geplant.
Wenn etwas schnell hingeklatscht ist, dann RV770, nachdem man R700 verschoben/ gestrichen/ wie auch immer hat.
Man könnte z.B. die 64v5 Shader behalten, aber eine Shaderdomaine einführen. Dann verbessert man noch die ROPs, verbessert die TMUs, koppelt das 256-bit SI mit schnellem GDDR5 und erhöht die Taktraten allgemein etwas. Schon hat man eine deutlich potentere GPU, welche nicht viel größer als der RV670 sein dürfte.Ich weiß nicht, ob Du es Dir da nicht einfach machst. Eine Shaderdomain kann man wohl kaum "mal so eben" einführen. Wahrscheinlich müsste man dafür zumindest die ALUs ganz neu von Hand entwerfen und Transistoren scheint sowas auch noch zu brauchen (soll nicht die hohe Komplexität von D8P auch mit den angepeilten Shadertaktraten zusammenhängen?). Die ROPs wird man auch nicht mal so eben auf Vordermann bringen können, sonst hätte man es bei R600 oder spätestens RV670 getan. Mit "besseren" TMUs meinst Du wahrscheinlich mehr, was auf Basis der Architektur wohl nicht gehen würde. Kostet jedenfalls auch Transistoren.
Wenn AMD bei einer solchen zwischengeschobenen Notlösunge eine höhere relative Filterleistung, deutlich unterschiedliche Taktdomains und leistungsstarke ROPs liefert, ziehe ich meinen Hut. Ich glaube aber nicht daran. Gerade Ailuros Äußerungen deuten eher auf einen breiteren RV670 mit höchstens ein paar Detailänderungen hin.
Wie schon gesagt: "Kann man eben die Taktraten nicht so hoch wählen, ist eh besser sonst wird die Lücke nur zu groß." Macht nV bei der GX2 ja auch nicht anders. Nur AMD kann es sich leisten wegen des sehr kleinen RV670 die Taktraten bei der X2 sogar noch zu steigern.Mit deutlich niedrigeren Taktraten könnte man auch einen doppelten RV670 noch mit D8P erreichen.
reunion
2008-02-05, 21:06:55
Lass mich raten: Keine Zeit? :rolleyes:
Und warum wäre so ein einfacher Eingriff an den ROPs - deine Aussage - nicht in kurzer Zeit realisierbar?
Weil man es vielleicht für sinniger hielt sich auf zukünftige Projekte zu konzentrieren? Es könnte tausende Gründe geben. Jedenfalls ist es nicht unmöglich ein paar zusätzliche Z-Einheiten anzuflashen und nicht ganz unwahrscheinlich das AMD hier ansetzt wenn man sich die Defizite zur Konkurrenz ansieht.
Wenn AMD angeblich heute schon weiß, wie groß der GT200 würde, hätten sie wohl auch schon früh über den G80 bescheid wissen müssen.
Wie groß GT200 wird weiß selbst ich, das wurde längst geleaket. Und über G80 wusste AMD auch schon ein Jahr vor dem erscheinen bescheid, wurde von AiL erst kürzlich gesagt. Nur hilft das dann eben auch nichts mehr.
reunion
2008-02-05, 21:10:26
Mit "besseren" TMUs meinst Du wahrscheinlich mehr, was auf Basis der Architektur wohl nicht gehen würde.
Man brächte nur RV630 als Basis nehmen und schon wäre das Problem gelöst.
Mit deutlich niedrigeren Taktraten könnte man auch einen doppelten RV670 noch mit D8P erreichen.
Bei 300W vielleicht.
LovesuckZ
2008-02-05, 21:13:45
Weil man es vielleicht für sinniger hielt sich auf zukünftige Projekte zu konzentrieren?
Mit Stornierung von Produkten und Erzeugung von Alternativen? ;D
Wie groß GT200 wird weiß selbst ich, das wurde längst geleaket. Und über G80 wusste AMD auch schon ein Jahr vor dem erscheinen bescheid, wurde von AiL erst kürzlich gesagt. Nur hilft das dann eben auch nichts mehr.
Dann hatten sie genug Zeit den rv670 anzupassen.
Man könnte z.B. die 64v5 Shader behalten, aber eine Shaderdomaine einführen. Dann verbessert man noch die ROPs, verbessert die TMUs, koppelt das 256-bit SI mit schnellem GDDR5 und erhöht die Taktraten allgemein etwas. Schon hat man eine deutlich potentere GPU, welche nicht viel größer als der RV670 sein dürfte.
Du willst also 64 Recheneinheiten mit 1540MHz laufen lassen? Neben der dazubenötigten Spannung will ich nicht den Verbrauch wissen.
Schon lustig, dass ihr das alles so billig seht. Schonmal überlegt, dass es einen Grund gibt, warum nVidia nur 8 bzw. 16 Recheneinheiten hat?
reunion
2008-02-05, 21:15:33
Mit Stornierung von Produkten und Erzeugung von Alternativen? ;D
Was ist daran so witzig? RV770 hatte sicher eine höhere Priorität als RV670.
Dann hatten sie genug Zeit den rv670 anzupassen.
Du musst es ja wissen.
LovesuckZ
2008-02-05, 21:18:54
Was ist daran so witzig? RV770 hatte sicher eine höhere Priorität als RV670.
Das ist interessant: Wieso?
Du musst es ja wissen.
Du hast gesagt, man hätte ein Jahr vor dem Erscheinen des G80 über ihn bescheid gewusst. Genug Zeit, um den rv670 dort anzupassen, wo man deutlich hinterhinkt.
Und diese Zeit reicht klar aus, um eine vorhandene Architektur doch deutlich zu verändern - wenn sie denn flexble genug ist (nv40 -> G70).
w0mbat
2008-02-05, 21:20:59
Natürlich könnte RV770 auch einfach mehr Cluster haben bei leicht erhöhtem Takt. Ist hier ja ein Spekuthread :)
Hvoralek
2008-02-05, 21:21:51
Man brächte nur RV630 als Basis nehmen und schon wäre das Problem gelöst.Wenn man das ALU- TEX- Verhältnis so einfach verschieben könnte, muss man sich ja bei RV670 bewusst entschieden haben, das von R600 beizubehalten. Warum sollte man dann bei dessen Nachfolger plötzlich die relative Filterleistung erhöhen wollen?
Bei 300W vielleicht.Was für Taktraten würden Dir denn für so eine Doppel- RV- 670- X2 vorschweben? Ich sehe da nicht viel mehr als 500 MHz.
Was ist daran so witzig? RV770 hatte sicher eine höhere Priorität als RV670.Soweit ich das mitbekommen habe, entstand die Idee des RV770 erst letzten Sommer. Zu der Zeit stand RV670 praktisch fest.
LovesuckZ
2008-02-05, 21:23:18
Natürlich könnte RV770 auch einfach mehr Cluster haben bei leicht erhöhtem Takt. Ist hier ja ein Spekuthread :)
Es gibt keine Cluster bei AMD.
reunion
2008-02-05, 21:24:11
Das ist interessant: Wieso?
Weil es eher zu verschmerzen ist wenn ein RV670 5-10% langsamer wird als wenn sich RV770 verspätet? Time-to-market ist das A und O. AMD kann davon ein Lied singen.
Du hast gesagt, man hätte ein Jahr vor dem Erscheinen des G80 über ihn bescheid gewusst. Genug Zeit, um den rv670 dort anzupassen, wo man deutlich hinterhinkt.
Und diese Zeit reicht klar aus, um eine vorhandene Architektur doch deutlich zu verändern - wenn sie denn flexble genug ist (nv40 -> G70).
Wie schon gesagt: Wenn du das sagst. Ich bin auch kein AMD-Ingenieur.
w0mbat
2008-02-05, 21:24:13
Du weißt genau was ich damit meine. Sry das ich hier nicht alle Fachbegriffe kenne :rolleyes:
reunion
2008-02-05, 21:30:30
Wenn man das ALU- TEX- Verhältnis so einfach verschieben könnte, muss man sich ja bei RV670 bewusst entschieden haben, das von R600 beizubehalten. Warum sollte man dann bei dessen Nachfolger plötzlich die relative Filterleistung erhöhen wollen?
Ist ja nur eine Möglichkeit unter vielen. Jedenfalls hat jeder R6xx-Chip ein anderes ALU/TEX-Verhältnis, wenn das so kompliziert wäre hätte man sicher darauf verzichtet. R600/RV670, RV630, RV610.
Was für Taktraten würden Dir denn für so eine Doppel- RV- 670- X2 vorschweben? Ich sehe da nicht viel mehr als 500 MHz.
Schwer zu sagen.
Soweit ich das mitbekommen habe, entstand die Idee des RV770 erst letzten Sommer. Zu der Zeit stand RV670 praktisch fest.
Kann sein.
LovesuckZ
2008-02-05, 21:31:03
Du weißt genau was ich damit meine. Sry das ich hier nicht alle Fachbegriffe kenne :rolleyes:
Und es bleibt falsch. nVidia hat ein Verbund zwischen Textur- und Recheneinheiten. AMD ist in dieser hinsicht wesentlich flexibler.
Weil es eher zu verschmerzen ist wenn ein RV670 5-10% langsamer wird als wenn sich RV770 verspätet? Time-to-market ist das A und O.
Also 5-10% sehe ich nicht als "viel Potential" an. Und was hat der rv770 mit der einfacheren Veränderung der ROPs und Texturarrays zu tun?
Wie schon gesagt: Wenn du das sagst. Ich bin auch kein AMD-Ingenieur.
Du hast es gesagt. Ich habe dich nur gefragt, warum 2 Jahre nicht ausreichen seien, um den rv670 dementsprechend anzupassen.
Bei 250 W Verlustleistung (TDP) eh uninterresant.
Geht das Leben an euch irgendwie vorbei, oder ignoriert ihr einfach das Energie-Klima-Problem?
NV hat anscheinend noch nicht gemerkt, dass die User stromsparende Komponenten haben wollen, gilt nicht nur für GPUs...
Moralelastix
2008-02-05, 23:19:18
Oh man hätte lieber Anarcho den Fred aufgemacht der macht immer so schöne Übersichten im erstn Post!
:|
Oh man hätte lieber Anarcho den Fred aufgemacht der macht immer so schöne Übersichten im erstn Post!
:|
Was willst du uns damt sagen?
Die TDP-Verlustleistu der GPU bleibt (und ist erbärmlich), egal wer den Thread aufmacht.
Die Karte ist imho ein Rohkrepierer.
Eigentlich nur für exteme Ignoranten interessant, die ihr Ego über unser Wohl stellen. Dies kann ich leider nicht gutheissen, was von einem durchschnittlich intelligentem Menschen nachvollziehbar sein siollte.
Man bekommt besere Leistung pro Watt...
Oder hast du handfeste Argumente für die Extreme Verlustleistug, die unser Klima verpestet?
Da bin ich mal gespannt...;)
w0mbat
2008-02-05, 23:42:32
@Moralelastix: Ich habe den Thread nicht aufgemacht. Irgendein Mod hat meinen Posting aus einem anderen Thread zu einem neue gemacht.
laser114
2008-02-06, 00:04:58
Oh man hätte lieber Anarcho den Fred aufgemacht der macht immer so schöne Übersichten im erstn Post!
Stimmt, AnarchXs Postings waren in einem Sammel-Speku-Thread immer sehr informativ. Aber sowas macht halt auch Arbeit, die Frage ist ob er die sich zumuten will. ;)
MikBach
2008-02-06, 00:10:43
Stimmt, AnarchXs Postings waren in einem Sammel-Speku-Thread immer sehr informativ. Aber sowas macht halt auch Arbeit, die Frage ist ob er die sich zumuten will. ;)
Und was soll das an der Aussage der miserablen Verlustleitung ändern?:nono:
Bevor hier erstmal weiter diskutiert wird, bitte esrstmal das Thema klären, was die meisten interessiert. Die paar Prozentpunkte, die die Freaks ausmachen zählen nicht wirklich, die Masse machts..hehe
Godmode
2008-02-06, 00:20:35
Wenn die Leistung wirklich so brachial hoch sein wird, wie von einigen gemutmaßt wird, dann wird vielen der Verbrauch am Arsch vorbei gehen. Wäre der R600 schneller als der G80 gewesen, dann hätten wohl auch die meisten über die hohe Verlustleistung hinweg gesehen.
MikBach
2008-02-06, 00:25:25
Wenn die Leistung wirklich so brachial hoch sein wird, wie von einigen gemutmaßt wird, dann wird vielen der Verbrauch am Arsch vorbei gehen. Wäre der R600 schneller als der G80 gewesen, dann hätten wohl auch die meisten über die hohe Verlustleistung hinweg gesehen.
SPrichst du nur für dich oder für die Masse der Unwissenden?
Das zweite nehme ich an.
Les mal ein bißchen im Internet, dann wirst du schlauer.
Konkrete Argumente immer wilkommen, die ich eh konteren kann. ;D
Moralelastix
2008-02-06, 00:31:07
SPrichst du nur für dich oder für die Masse der Unwissenden?
Das zweite nehme ich an.
Les mal ein bißchen im Internet, dann wirst du schlauer.
Konkrete Argumente immer wilkommen, die ich eh konteren kann. ;D
Mir passt der Stromverbrauch auch nicht aber wenn man dich so reden hört muss man sich wundern das Ati und NV nicht schon längst pleite sind.
Wieso kaufen die Leute die G92 GT obwohl er mehr Strom verbraucht als was von ATI.
Und das wird sich auch mit dem GT200 nicht ändern wenn die Grafikleistung stimmt.
Godmode
2008-02-06, 00:34:36
SPrichst du nur für dich oder für die Masse der Unwissenden?
Das zweite nehme ich an.
Les mal ein bißchen im Internet, dann wirst du schlauer.
Konkrete Argumente immer wilkommen, die ich eh konteren kann. ;D
Nur als Beispiel G80: kein Idlemodus und daher ein horrender Stromverbrauch im 2D Betrieb. Viele haben sich darüber aufgeregt, vor allem hier im Forum, aber gekauft haben wir trotzdem. Ich wette mit dir um 100 €, dass wenn der GT200 extrem schnell ist, der Stromverbrauch den "meisten" Anwendern scheiss egal sein wird. Es wird zwar viel rumgeheule geben, aber wenn sie dann doppelt oder dreifach so lange Balken sehen? Was eher gegen einen Kauf sprechen könnte, wäre die Lärmbelästigung einer solchen Karte. 250 W müssen erst einmal abgeführt werden und wenn das nicht leise genug geschieht, könnten viele abgeschreckt werden.
Hvoralek
2008-02-06, 00:41:02
Was willst du uns damt sagen?
Die TDP-Verlustleistu der GPU bleibt (und ist erbärmlich), egal wer den Thread aufmacht.
Die Karte ist imho ein Rohkrepierer.
Eigentlich nur für exteme Ignoranten interessant, die ihr Ego über unser Wohl stellen. Dies kann ich leider nicht gutheissen, was von einem durchschnittlich intelligentem Menschen nachvollziehbar sein siollte.
Man bekommt besere Leistung pro Watt...
Oder hast du handfeste Argumente für die Extreme Verlustleistug, die unser Klima verpestet?
Da bin ich mal gespannt...;)Klimaschutz ist natürlich wichtig. Sich aber so aufzuregen, weil eine High- End- Karte unter Volllast nicht 100 oder 150, sondern 200W braucht, finde ich doch ziemlich übertrieben. Zumal bzgl. Strom und Klima leider die Seite der Stromerzeugung weitgehend ignoriert wird, die aber neben Energiesparen und insbesondere vor schulmeisterhaftem Extremstromsparen auch dazugehört.
Thema Leistung/ Energie: Wenn das Teil dreifache G80- Leistung bei 250W TDP liefert, müsste man ja heute G80- Leistung bei 80W TDP bekommen oder 1/2 G80- Leistung bei 40W. Wo gibt es das denn (oder nein, Dir zufolge ja sogar ein noch besseres Verhältnis)?
SPrichst du nur für dich oder für die Masse der Unwissenden?
Das zweite nehme ich an.Inwiefern "Unwissende"? Dass R600 in der erschienenen Form Murks war, ist klar. Wenn er aber wirklich schneller gewesen wäre als G80, hätte es sicher Leute gegeben, die auch die 30W mehr unter Last in Kauf genommen hätten. Wahrscheinlich wird auch die 3870 X2 ihre Abnehmer finden, die sogar noch mehr verbraucht, ähnliches wird wohl auch für 9800 GX2 gelten.
Natürlich ist ein hoher Stromverbrauch ein Nachteil. Wenn eine Karte aber entsprechende Qualitäten aufweist, die das kompensieren, kann man die doch durchaus empfehlen.
MikBach
2008-02-06, 00:41:34
Mit passt der Stromverbrauch auch nicht aber wenn man dich so reden hört muss man sich wundern das Ati und NV nicht schon längst pleite sind.
Wieso kaufen die Leute die G92 GT obwohl er mehr Strom verbraucht als was von ATI.
Und das wird sich auch mit dem GT200 nicht ändern wenn die Grafikleistung stimmt.
Denkst du auch nach, bevor etwas schreibst?
Ich denke nicht.
AMD hat mit dem RV670 gezeigt, wo es langgeht, im CPU-Bereich tun es AMD und Intel, nur NV hält sich nicht daran. Die 8x00-Serie zeigte, wo die Richtung hingeht, NV hat mal wieder verschlafen, wie beim PS1.4....
no comment
Und dein Kommentar zeigt, dass du nicht wirlich Ahnung hast.
Zur Zeit geht es in Richtung stromsparen, wer dies nicht erkennt ist kein würdiger Gesprächspartner...
Schönen Abend noch..lol;D
MikBach
2008-02-06, 00:43:36
@all
was zählt. ist die Leistung pro Watt...
Hvoralek
2008-02-06, 00:54:29
AMD hat mit dem RV670 gezeigt, wo es langgeht [...]
@all
was zählt. ist die Leistung pro Watt...Noch einmal: Dreifache G80- Leistung bei 250W TDP wäre doch ziemlich effizient. Dein geliebter RV670 bringt nicht einmal einfache G80- Leistung und braucht mehr als 80W real. Von der X2 mit Verbrauch > R600, die G80 nicht gerade mit großem Vorsprung schlägt, ganz zu schweigen.
Moralelastix
2008-02-06, 01:04:28
Ich raff net wo das Problem is.
Es gibt Highend und dort ist nur die Grafikleistung wichtig.
Wenn du stromsparen willst kauf dir Midrange, Lowend oder'n Laptop.
Und zu den tollen Stromsparfeatures von ATI: Das soll der Markt entscheiden!
NV kann bei den neuen G92 auch die Spannung per Tools anpassen. Scheinbar haste das übersehen.
mictasm
2008-02-06, 02:37:20
Beim Umstieg von SLI auf eine Einzelkarte mit besserer Leistung geht der Verbrauch teilweise ja sogar wieder nach unten.
Das ist alles nur von der Sichtweise abhängig. Und für die Leute, die in 2006 eine oder mehrere 8800 GTX (oder in 2007 eine oder mehrere Ultras) gekauft haben, dürfte auch weiterhin nur die erzielbare Leistung im Vordergrund stehen.
Gruß,
MIC
Godmode
2008-02-06, 05:52:46
Und für die Leute, die in 2006 eine oder mehrere 8800 GTX (oder in 2007 eine oder mehrere Ultras) gekauft haben, dürfte auch weiterhin nur die erzielbare Leistung im Vordergrund stehen.
Gruß,
MIC
Full Ack! Es wird auch wieder Leute geben, die sich zwei solche Rechenmonster gönnen werden. Stromverbrauch ist im Highend Bereich Nebensachee! Nicht schön wenn er zu hoch ist, aber dem "gemeinen" Highend User kratzt das nicht, solange die Performance stimmt.
Adam D.
2008-02-06, 07:12:56
Wer sich für ~500-600€ diese Karte kaufen wird, hat auch 100€ für ein passendes Netzteil und kümmert sich um die 20€ mehr im Jahr auch nicht.
Außerdem versteh ich nicht, was hier einige an Wundern erwarten: 3-fache Leistung bei stagnierender Verlustleistung? Klar, wir leben ja im Himmel :rolleyes:
Snoopy1978
2008-02-06, 08:09:43
Ob daß das nötige Netzteil bloß 100 Euro kosten wird wag ich zu bezweifeln und im Hinblick auf die 3-fache Leistung ist es nunmal so das von nichts nichts kommt.Wer sich am Verbrauch stört für den hat Nvidia auch noch verbrauchsgünstigere Karten im Angebot.
Noch einmal: Dreifache G80- Leistung bei 250W TDP wäre doch ziemlich effizient. Dein geliebter RV670 bringt nicht einmal einfache G80- Leistung und braucht mehr als 80W real. Von der X2 mit Verbrauch > R600, die G80 nicht gerade mit großem Vorsprung schlägt, ganz zu schweigen.
Die X2 hat das CF-Problem, sonst würde sie jeden G80 deutlich schlagen.
Noch einmal: Dreifache G80- Leistung bei 250W TDP wäre doch ziemlich effizient. Dein geliebter RV670 bringt nicht einmal einfache G80- Leistung und braucht mehr als 80W real. Von der X2 mit Verbrauch > R600, die G80 nicht gerade mit großem Vorsprung schlägt, ganz zu schweigen.
Du vergleichst Äpfel mir Birne. Hoher Takt ist immer teurer als ein breiterer Chip was die Leistungsaufnahme betrifft, dafür aber billiger zu fertigen. Eine 3850 benötigt nur etwas mehr als 60W (was weniger als die Hälfte eines G80GTX ist) und ist trotzdem weit mehr als halb so schnell wie ein G80GTX. Im übrigen ist der Vergleich mit der X2 nicht gerade fair. Doppelter VRAM, PCIe-Switch, doppelt ausgelegte Stromversorgung und das Skalierungsproblem mit CF setzen der X2 natürlich deutlich zu, wenn es um die Leistung/Watt geht. Ein doppelter RV670 als Singel-Chip wäre nicht nur deutlich schneller, sondern auch deutlich stromsparender.
reunion
N0Thing
2008-02-06, 14:07:21
Was wäre wenn. Es gibt keinen doppelten RV670 als Singlechip. Und die 3870x2 hat nun einmal unter Last einen sehr hohen Stromverbrauch. Unfair wäre es, wenn man Dinge mit nicht existierenden Dingen vergleichen will. ;)
Ich bin mal gespannt, was von den Gerüchten am Ende übrig bleiben wird. Dreifach Leistung bei einem Übergangschip wie den GT200 halte ich für unwahrscheinlich und im gleichen Zug wird die TDP auch nicht bei 250W liegen.
Die 8800GTX war ca. doppelt so schnell, wie eine 7900GTX und da war ein echter Sprung in der Architektur vorhanden. 50% mehr Leistung gegenüber dem G92 (als 8800GTS) und ein Speicherinterface, daß mit GDDR4 umgehen kann, fände ich realistisch und sinnvoll.
Hvoralek
2008-02-06, 14:31:56
Die X2 hat das CF-Problem, sonst würde sie jeden G80 deutlich schlagen.Selbst bei 100% Skalierung läge die Energieeffizienz aber unter der, die von G200 imM erwartet wird.
Du vergleichst Äpfel mir Birne. Hoher Takt ist immer teurer als ein breiterer Chip was die Leistungsaufnahme betrifft, dafür aber billiger zu fertigen. Eine 3850 benötigt nur etwas mehr als 60W (was weniger als die Hälfte eines G80GTX ist) und ist trotzdem weit mehr als halb so schnell wie ein G80GTX.Das ist allerdings erstens 90nm vs. 55 nm und zweitens ist das fast 1/3 von den imM zu erwartenden G200- Lastverbrauch. Eine 3850 müsste also für ähnliche Energieeffzienz (wenn die angenommen G200- Daten stimmen) ungefähr so schnell sein wie G80. Da fehlen etwa 50 - 60%.
Unfair wäre es, wenn man Dinge mit nicht existierenden Dingen vergleichen will. ;)Man kann doch überlegen, wie die Energieeffizienz des G200 mit den momentan vermuteten Eckdaten aussähe :confused:
Ich bin mal gespannt, was von den Gerüchten am Ende übrig bleiben wird. Dreifach Leistung bei einem Übergangschip wie den GT200 halte ich für unwahrscheinlich und im gleichen Zug wird die TDP auch nicht bei 250W liegen.
Die 8800GTX war ca. doppelt so schnell, wie eine 7900GTX und da war ein echter Sprung in der Architektur vorhanden. 50% mehr Leistung gegenüber dem G92 (als 8800GTS) und ein Speicherinterface, daß mit GDDR4 umgehen kann, fände ich realistisch und sinnvoll.Du hast schon mitbekommen, wie groß das Teil ungefähr wird? Was soll man Deiner Meinung nach mit diesen ganzen Transistoren machen?
nomadhunter
2008-02-06, 14:44:05
Naja, keinerlei Zeitdruck kann man wohl kaum sagen wenn AMD wirklich noch im Q2 RV770 rauswirft.
Ich denke nicht, dass RV770 stärker als die 9800 GTX wird. Und eine RV770X2 wird wohl noch etwas länger auf sich warten lassen (RV670X2 hat man auch erst Monate nach dem RV670-Start gebracht).
AnarchX
2008-02-06, 14:46:17
Ich denke nicht, dass RV770 stärker als die 9800 GTX wird.
Kommt ganz darauf an, was sich hinter RV770 und der 9800 GTX verbirgt, aber natürlich würde es ATi wohl entsprechend an Die-Size kosten, wenn sie diesen Sieg wollen. Und hier bleibt fraglich ob AMD dafür ein OK gibt.
Und eine RV770X2 wird wohl noch etwas länger auf sich warten lassen (RV670X2 hat man auch erst Monate nach dem RV670-Start gebracht).
Ja, weil es bei R680 noch Treiberprobleme gab, aber für RV770x2 könnte man das Design ja komplett übernehmen.
nomadhunter
2008-02-06, 14:49:55
Dreifach Leistung bei einem Übergangschip wie den GT200 halte ich für unwahrscheinlich und im gleichen Zug wird die TDP auch nicht bei 250W liegen.
GT200 ist kein Übergangschip. Es ist keine völlig neue Architektur wie G80, aber man wird mit Sicherheit einige Änderungen ggü. G80/G92 vornehmen. Außerdem wird GT200 bis Ende 09/Anfang 10 (G100) halten müssen. Bis dahin wird außer einem Refresh/Shrink nichts größereres mehr kommen. Deswegen kann GT200 nicht irgendein kurzfristiges Übergangsding sein.
nomadhunter
2008-02-06, 14:53:15
Kommt ganz darauf an, was sich hinter RV770 und der 9800 GTX verbirgt, aber natürlich würde es ATi wohl entsprechend an Die-Size kosten, wenn sie diesen Sieg wollen. Und hier bleibt fraglich ob AMD dafür ein OK gibt.
RV770 wird wohl einfach ein Refresh sein, ohne größere Änderungen, dafür halt etwas breiter und evtl. höher getaktet. Mehr als 1,5x 3870 wird das kaum werden.
Und die 9800 GTX wird ja relativ sicher G92-basiert sein. Diesmal aber wohl an keinem Ende limitiert (außer vielleicht ROPs) und mit allem, was man taktmäßig rausholen kann (2GHz+ Shadertakt sollten kein Problem sein).
w0mbat
2008-02-06, 14:58:39
Wie viele Transistoren würde den ein RV670 mit 96v5 Shader & 32 TMUs haben? Es geht mir jetzt nicht darum ob das vom Design her machbar ist, sonder wie viel Trans. so ein Chip mehr haben würde. Alles andere (ROPs, SI, UVD, etc.) bleibt gleich.
laser114
2008-02-06, 15:02:29
Wie viele Transistoren würde den ein RV670 mit 96v5 Shader & 32 TMUs haben? Es geht mir jetzt nicht darum ob das vom Design her machbar ist, sonder wie viel Trans. so ein Chip mehr haben würde. Alles andere (ROPs, SI, UVD, etc.) bleibt gleich.
Dafür sollten wir vielleicht mal einen extra Thread aufmachen. ;)
Zwischen RV635 und RV670 (beide 55nm, UVD, DX 10.1) liegen 288 Millionen Transistoren, in den 40 V5-Shader und 8 TMUs (16 TAUs) liegen, neben 12 ROPs und einem 128 Bit Interface. RV670 selber ist 666 Millionen Transistoren groß, von daher dürfte 1 Mrd. Transistoren für die von dir genannten Punkte sicher genügen, eher noch darunter.
LovesuckZ
2008-02-06, 15:10:32
Man muss betrachten, dass es einfacher ist einen Chip zu verkleinern als ihn zu vergrößern. Wenn eine gewisse Flexbilität nicht vorgesehen wurde, kann man nicht einfach irgendwas hochrechnen.
James Ryan
2008-02-06, 15:46:31
Und die 9800 GTX wird ja relativ sicher G92-basiert sein. Diesmal aber wohl an keinem Ende limitiert (außer vielleicht ROPs) und mit allem, was man taktmäßig rausholen kann (2GHz+ Shadertakt sollten kein Problem sein).
Die Gf 9800 GTX @G92 wird wieder nur ein 256 Bit Speicherinterface und 16 ROPs besitzen, also ein voller G92.
Damit die GTX sich von der G92-GTS absetzen kann, sind 1 GB GDDR4 @ hohen Takt und mindestens 800/2400 MHz Coretakt nötig.
Ich denke man bastelt gerade an einem G92-A3 Stepping für die GTX, eventuell bekommt die Gf 9800 GT/GTS dieses auch ab, nur mit niedrigeren Takt.
Das ist dann quasi nur eine Gf 8800 GTS mit neuen Namen, aber ähnliches hat man mit der Gf 7900 GT -> Gf 7950 GT auch gemacht!
MfG :cool:
Selbst bei 100% Skalierung läge die Energieeffizienz aber unter der, die von G200 imM erwartet wird.
Sorry, aber nur weil FUAD herumfantasiert und von 250W TDP faselt ist noch gar nichts sicher.
RV770 wird wohl einfach ein Refresh sein, ohne größere Änderungen, dafür halt etwas breiter und evtl. höher getaktet. Mehr als 1,5x 3870 wird das kaum werden.
Steht wo? Wenn RV770 "nur ein Refresh" ist, dann trifft das auf GT200 im selben Maße zu. Ich glaube manche unterschätzen hier AMD ganz gewaltig. Man verspricht >4x RV670XT Leistung mit dem R700.
reunion
AnarchX
2008-02-06, 15:59:24
Sorry, aber nur weil FUAD herumfantasiert und von 250W TDP faselt ist noch gar nichts sicher.
Fudo ist doch nur ein Echo, was manchmal weniger gut hörbar ist, aber auch ein anderes mal sehr deutlich. ;)
Steht wo? Wenn RV770 "nur ein Refresh" ist, dann trifft das auf GT200 im selben Maße zu. Ich glaube manche unterschätzen hier AMD ganz gewaltig. Man verspricht >4x RV670XT Leistung mit dem R700.
Ja, aber R7xx steht für 2009 auf der Roadmap und ich habe doch gewisse Zweifel, dass RV770 im Q2 damit unbedingt etwas zu tun hat, der auch teilweise als "RV690" gesehen wird.
dargo
2008-02-06, 16:21:12
Ich glaube manche unterschätzen hier AMD ganz gewaltig. Man verspricht >4x RV670XT Leistung mit dem R700.
Und was hat der ursprünglich geplante R700 mit dem RV770 gemeinsam?
laser114
2008-02-06, 16:24:51
Ja, aber R7xx steht für 2009 auf der Roadmap und ich habe doch gewisse Zweifel, dass RV770 im Q2 damit unbedingt etwas zu tun hat, der auch teilweise als "RV690" gesehen wird.
Der R7xx für 2009 heißt doch jetzt R800.
Auch wenn der RV770 auf der alten Architektur basiert, würde ich den trotzdem nicht unterschätzen. Er wird sicherlich kleiner als der GT200, aber trotzdem was fürs Performance-Geschäft - 250 bis 300 mm² kann der schon groß werden.
Und was hat der ursprünglich geplante R700 mit dem RV770 gemeinsam?
R700 = 2 x RV770.
Ja, aber R7xx steht für 2009 auf der Roadmap und ich habe doch gewisse Zweifel, dass RV770 im Q2 damit unbedingt etwas zu tun hat, der auch teilweise als "RV690" gesehen wird.
AMD verkauft das Ding als R7xx, darauf kannst du Gift nehmen, und das wusste man auch schon im November.
dargo
2008-02-06, 16:30:51
R700 = 2 x RV770.
Das würde bedeuten - RV770 = mindestens zweifache Leistung vom RV670. Das will ich sehen. :tongue:
AnarchX
2008-02-06, 16:36:21
Was ja mit entsprechendem Stromverbrauch einhergehen müsste, da man ja bei 55nm bleiben muss, und danach sah das RV770 ES PCB von Chiphell nicht unbedingt aus.
Aber naja, lassen wir uns überraschen. Ein Kopf-an-Kopf-Rennen wäre ja für den Endkunden nicht verkehrt, sodass der GT200 nicht bis Herbst 2009 auf dem gleichen Preisniveau bleibt.:D
LovesuckZ
2008-02-06, 16:37:41
Auch wenn der RV770 auf der alten Architektur basiert, würde ich den trotzdem nicht unterschätzen. Er wird sicherlich kleiner als der GT200, aber trotzdem was fürs Performance-Geschäft - 250 bis 300 mm² kann der schon groß werden.
Für doppelte Leistung benötigt man wesentlich mehr als 50 - 100mm².
laser114
2008-02-06, 17:17:42
Für doppelte Leistung benötigt man wesentlich mehr als 50 - 100mm².
Das kann man so nicht sagen, kommt ganz drauf an inwieweit der Ausbau noch nahe am Grundzustand ist. G84 und G86 unterscheiden sich von Die-Größe nur um ~ 50 mm².
RV635 und RV670 habe ich als Vergleich genommen, allerdings die Transistorenzahlen. Und da komme ich auf die Ergebnisse. ;)
LovesuckZ
2008-02-06, 17:23:17
Das kann man so nicht sagen, kommt ganz drauf an inwieweit der Ausbau noch nahe am Grundzustand ist. G84 und G86 unterscheiden sich von Die-Größe nur um ~ 50 mm².
G96 wird wohl 135mm², G94 230mm² groß sein. Unterschied zwischen beiden: 2 ROP-Paritionen und 4 Cluster. Doppelte Leistung bei 70% größerem Die.
Vom rv670 ausgehend benötigte man dafür schon 334mm². Wahrscheinlich sogar mehr, da man die gleichen Taktraten stabil erreichen muss - und jetzt schon 900MHz nicht überall machbar sind.
GeneralHanno
2008-02-06, 17:35:26
woher weist du die die-size des G96 ?
LovesuckZ
2008-02-06, 17:40:07
woher weist du die die-size des G96 ?
Der Shrink von 80nm auf 65nm bringt ca. 30% ersparnis. Bei 169mm² wären das dann 130mm².
laser114
2008-02-06, 17:54:32
G96 wird wohl 135mm², G94 230mm² groß sein. Unterschied zwischen beiden: 2 ROP-Paritionen und 4 Cluster. Doppelte Leistung bei 70% größerem Die.
Vom rv670 ausgehend benötigte man dafür schon 334mm².
Die Rechnung ist doch so nicht anwendbar. Wenn muss man von RV635 und RV670 ausgehen, denn diese basieren auf der selben Architektur des RV770, kommen zu dem noch beide mit den gleichen Eigenschaften (UVD, DX10.1, 55nm Fertigung).
Von AMD kann man die Information beziehen, dass der RV635 378 Millionen Transistoren fasst und der RV670 666 Millionen. Zwischen den beiden Chips liegen die schon angesprochen 20 Vec5-Einheiten, 12 ROPs, 8 TMUs und ein 128 Bit breites Speicherinterface. Das ist ziemlich viel für nur 288 Millionen Transistoren (deutlich mehr als im RV635 gesamt drinne ist).
Daher gehe ich schon davon aus, dass der RV770 nicht zu groß werden muss, während er gleichzeitig deutliche Leistungssteigerungen bietet. Wobei halt der 55nm-Prozess unter Kontrolle sein muss, weswegen AMD wohl nicht zu früh über die RV670-Größe hinausging.
AnarchX
2008-02-06, 18:02:41
Von AMD kann man die Information beziehen, dass der RV635 378 Millionen Transistoren fasst und der RV670 666 Millionen. Zwischen den beiden Chips liegen die schon angesprochen 20 40 Vec5-Einheiten, 12 ROPs, 8 TMUs und ein 128 Bit breites Speicherinterface. Das ist ziemlich viel für nur 288 Millionen Transistoren (deutlich mehr als im RV635 gesamt drinne ist).
RV63x 24Vec5(120SPs)
RV670 64Vec5(320SPs)
Ja, da sieht man doch dass die Einheiten bei R6xx nicht unbedingt teuer sind und das Setup (mit Tesselator...) wohl einiges an Transitoren verschlingt.
Zudem wäre bei RV770 auch denkbar, dass Einheiten aufgebohrt werden und nicht einfach die Zahl erhöht, sodass wiederrum Kontrolllogik wegfällt, z.B. Textur-Units mit 8TA/TFs.
Aber die benötigten Massetransistoren, um so eine doch fetteren Chip entsprechend zu takten, sollte man wiederrum wohl auch nicht unterschätzen.
horn 12
2008-02-06, 18:10:58
Wann kann man mit dem RV670 Nachfolger, dem RV770 denn rechnen?
Anfang Mai dass man da schon Karten kaufen kann, oder erst viel später.
Denke bis dahin könnte man schon hinkommen und wird ca. die performance der HD3870 X² (-10-20%) wohl erreichen.
Bedenkt mit Singlechip und Single Karte!
w0mbat
2008-02-06, 18:23:22
Ich denke frühestes Anfang Q3.
laser114
2008-02-06, 18:28:32
RV63x 24Vec5(120SPs)
RV670 64Vec5(320SPs)
Pardon, verschrieben. 20 geht ja gar nicht, ein Shadercluster besteht ja aus 8 Vec5-Shadern.
Hvoralek
2008-02-06, 18:40:52
Sorry, aber nur weil FUAD herumfantasiert und von 250W TDP faselt ist noch gar nichts sicher.Natürlich ist das nicht sicher, ebensowenig wie die dreifache G80- Leistung. Ich betone ja auch immer wieder, wenn diese Daten stimmen, wäre die Energieeffizienz keineswegs schlecht, ganz im Gegenteil.
Allerdings finde ich die Angaben schon plausibel. Zumindest die Chipfläche steht fest. Wenn ich Taktraten ungefähr auf G80- Niveau annehme, könnte beides hinkommen. Die G80- Architektur ist nun einmal ziemlich energieeffizient, vom offensichtlich wegen H-SLI bewusst ausgebremsten Leerlaufsverbrauch abgesehen. Eine 8800 GTX (90nm) braucht so viel Strom wie eine X1950XT (90 nm), ist aber weit schneller. Eine 8800 GT (65 nm) braucht unter Last so viel Strom wie eine 3870 (55 nm!), und ist ebenfalls schneller. Wenn G200 auf derselben Architektur basiert, warum sollte die Energieeffizienz plötzlich schlechter werden?
Der R7xx für 2009 heißt doch jetzt R800.Ist R800 der frühere R700 oder ist R800 das, was immer R800 hieß, und R700 nicht verschoben, sondern gestrichen?
R700 = 2 x RV770.Lies noch einmal dargos Frage: "Was hat der ursprünglich geplante R700 mit dem RV770 gemeinsam?"
na klar wird 3fache Leistung stimmen aber in 25xx Auslösung mit 16x super duper heidewitzka Herr Kapitän AA
Snoopy1978
2008-02-06, 19:01:25
Ist R800 der frühere R700 oder ist R800 das, was immer R800 hieß, und R700 nicht verschoben, sondern gestrichen?
Ich denk R800 wird die Architektur des R700 übernehmen insoweit wird der R700 wohl im R800 weiterleben, wenn AMD sich nicht entscheidet das Design komplett über den Haufen zu werfen.
na klar wird 3fache Leistung stimmen aber in 25xx Auslösung mit 16x super duper heidewitzka Herr Kapitän AA
Das wird mindestens heidewitzka Herr Flottenadmiral AA
:biggrin:
Ich bin bloß gespannt auf die Kühllösung die Nvidia da anbieten wird.Wahrscheinlich so ein Kühler wie der Accelero Xtreme mit den 3 Fans.
AnarchX
2008-02-06, 19:01:28
na klar wird 3fache Leistung stimmen aber in 25xx Auslösung mit 16x super duper heidewitzka Herr Kapitän AA
Natürlich kommt die Leistung nur in grafiklimitierten Szenarien an, aber das ist z.B. Crysis @VH schon in Standard-Auflösungen, wie 1280x1024 oder 1680x1050.;)
Ich bin bloß gespannt auf die Kühllösung die Nvidia da anbieten wird.Wahrscheinlich so ein Kühler wie der Accelero Xtreme mit den 3 Fans.
Vapor-Chamber, viel Kupfer und ein vernünftig gesteuerter >60mm Lüfter und schon sollten doch 250W TDP kühlbar sein, bei akzeptabler Lautstärke.
reunion
2008-02-06, 19:10:09
Eine 8800 GTX (90nm) braucht so viel Strom wie eine X1950XT (90 nm), ist aber weit schneller.
G80 ist auch eine Generation weiter, wäre traurig wenn es hier einen Stillstand gäbe.
Eine 8800 GT (65 nm) braucht unter Last so viel Strom wie eine 3870 (55 nm!), und ist ebenfalls schneller.
Der 55nm Half-Node ist eine reiner Kostenreduktion. Er ist nicht energieeffizienter als der 65nm Prozess wie man zB an RV630 vs. RV635 sieht. Dabei hat RV635 sogar noch weniger Transistoren als RV630.
Und eine 8800GT ist auch breiter und muss deshalb nicht so hoch takten, das sorgt für eine bessere Leistung/Watt. Ich bin gespannt wie es bei 9600GT vs. 3850 in punkto Leitung/Watt aussieht.
Lies noch einmal dargos Frage: "Was hat der ursprünglich geplante R700 mit dem RV770 gemeinsam?"
Ließ nochmal meine Antwort: R700 = 2x RV770. Was mit dem ursprünglich geplanten R700 ist, ist bis auf weiteres gleichgültig. Die Folien, welche ~4x RV670XT Leistung versprechen sind vom November 2007. Also zu einem Zeitpunkt entstanden, als der ursprüngliche R700 längst obsolet war.
laser114
2008-02-06, 19:19:56
Ist R800 der frühere R700 oder ist R800 das, was immer R800 hieß, und R700 nicht verschoben, sondern gestrichen?
Soviel ich weiß ein leicht veränderter (ursprünglicher) R700. Wobei ich dir nicht sagen kann, was mit dem originalen R800 los ist. ;)
LovesuckZ
2008-02-06, 19:57:15
Und eine 8800GT ist auch breiter und muss deshalb nicht so hoch takten, das sorgt für eine bessere Leistung/Watt. Ich bin gespannt wie es bei 9600GT vs. 3850 in punkto Leitung/Watt aussieht.
Du hast immer noch nicht die Frage beantwortet, warum die 7900GTX weniger Strom als die X1900XTX verbraucht. Immerhin benötigt sie genauso viel Spannung (1,4V) und hat eine hörere Chiptaktung (675TMU-PS/7xx Vertexshader).
Hvoralek
2008-02-06, 20:04:07
G80 ist auch eine Generation weiter, wäre traurig wenn es hier einen Stillstand gäbe.Eine neue Architektur bedeutet nicht unbedingt eine höhere Energieeffzienz. Jedenfalls steht G80 auch gegenüber AMDs entsprechenden Modellen in der Hinsicht gut da.
Der 55nm Half-Node ist eine reiner Kostenreduktion. Er ist nicht energieeffizienter als der 65nm Prozess wie man zB an RV630 vs. RV635 sieht. Dabei hat RV635 sogar noch weniger Transistoren als RV630.Wo gibt es denn Stromverbrauchsmessungen des RV635?
Und eine 8800GT ist auch breiter und muss deshalb nicht so hoch takten, das sorgt für eine bessere Leistung/Watt. Ich bin gespannt wie es bei 9600GT vs. 3850 in punkto Leitung/Watt aussieht.So viel niedriger taktet eine 8800 GT nicht und eben in Teilen ganz erheblich höher. Aber ja: Breitere Chips mit niedrigerem Takt und v.a. Spannung sind i.d.R. energieeffizienter. Was sagt das über G200?
Ließ nochmal meine Antwort: R700 = 2x RV770. Was mit dem ursprünglich geplanten R700 ist, ist bis auf weiteres gleichgültig. Die Folien, welche ~4x RV670XT Leistung versprechen sind vom November 2007. Also zu einem Zeitpunkt entstanden, als der ursprüngliche R700 längst obsolet war.Ich nahm an, Du meintest die 2 TFLOPS für den ursprünglichen R700. Wenn Du den jetzigen R700 meinst, hättest Du das vlt. mal klarstellen können, anscheinend habe ja nicht nur ich Dich missverstanden.
Auf was für eine Folie beziehst Du Dich denn? Die muss ich wohl verpasst haben.
Du hast immer noch nicht die Frage beantwortet, warum die 7900GTX weniger Strom als die X1900XTX verbraucht. Immerhin benötigt sie genauso viel Spannung (1,4V) und hat eine hörere Chiptaktung (675TMU-PS/7xx Vertexshader).Die Chipgröße spielt auch eine Rolle für den Verbrauch :wink:
LovesuckZ
2008-02-06, 20:09:36
Die Chipgröße spielt auch eine Rolle für den Verbrauch :wink:
Aber nicht für Reunion.
reunion
2008-02-06, 20:15:32
Aber nicht für Reunion.
Nur weil du nicht in der Lage bist richtig zu interpretieren kann ich nichts machen. Hvoralek hatte offenbar kein Problem damit.
reunion
2008-02-06, 20:21:56
Eine neue Architektur bedeutet nicht unbedingt eine höhere Energieeffzienz. Jedenfalls steht G80 auch gegenüber AMDs entsprechenden Modellen in der Hinsicht gut da.
Natürlich steht er gut da, das bestreite ich nicht.
Wo gibt es denn Stromverbrauchsmessungen des RV635?
Hier zB:
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcpop.com%2Fdoc%2F0%2F264%2F264493.shtml&langpair=zh%7Cen&hl=de&ie=UTF-8
Idle ist dank Powerplay deutlich niedriger, Last ist bei gleichen Taktraten faktisch ident, trotz einer geringeren Transistorenanzahl. Es gab von Expreview sogar Messungen bei denen der 55nm Chip bei gleichen Taktraten mehr Strom benötigte, leider finde ich den Test momentan nicht mehr.
So viel niedriger taktet eine 8800 GT nicht und eben in Teilen ganz erheblich höher. Aber ja: Breitere Chips mit niedrigerem Takt und v.a. Spannung sind i.d.R. energieeffizienter. Was sagt das über G200?
Du hast es ja schon ausgeführt.
Ich nahm an, Du meintest die 2 TFLOPS für den ursprünglichen R700. Wenn Du den jetzigen R700 meinst, hättest Du das vlt. mal klarstellen können, anscheinend habe ja nicht nur ich Dich missverstanden.
Sorry, ich dachte das sei offensichtlich.
Auf was für eine Folie beziehst Du Dich denn? Die muss ich wohl verpasst haben.
Soweit ich weiß kamen die Folien nie an die Öffentlichkeit. AMD verschickte im November Folien an die AIBs in denen ein mit "R700XT" gekennzeichneter Chip in den Spielen Crysis, NfS-PS und Stalker ca. 4x so schnell war wie ein "RV670XT".
N0Thing
2008-02-06, 21:00:22
Man kann doch überlegen, wie die Energieeffizienz des G200 mit den momentan vermuteten Eckdaten aussähe :confused:
Ich meinte da nicht dich, sondern den Gast (Reunion?).
GT200 ist kein Übergangschip. Es ist keine völlig neue Architektur wie G80, aber man wird mit Sicherheit einige Änderungen ggü. G80/G92 vornehmen. Außerdem wird GT200 bis Ende 09/Anfang 10 (G100) halten müssen. Bis dahin wird außer einem Refresh/Shrink nichts größereres mehr kommen. Deswegen kann GT200 nicht irgendein kurzfristiges Übergangsding sein.
Eigentlich war doch der G100 als Nachfolger des G92 geplant. Der GT200 kommt soweit ich das bisher mitbekommen habe als Übergangschip, da die Spezifikationen für DX11 später als geplant veröffentlicht werden.
Ein Übergangschip ist meiner Meinung nach keine Kopie der Vorgängerversion, sondern eine nahe liegende Evolution, der natürlich Verbesserungen und Änderungen erfahren hat, aber noch recht nahe an der Vorgängerversion ist. Ich meine damit nicht, daß der GT200 eine Notlösung ist, gewisse Ideen für den G100 wird Nvidia, soweit es Sinn macht, dort schon zum Einsatz bringen.
Paul Brain
2008-02-06, 21:20:24
Das deckt sich nicht ganz mit den Messungen in der aktuellen c't.
5 Karten 8800GT im Test, Verbrauch 3D (typisch) zwischen 85W und 93W, Peak-3D zwischen 119W und 138W.
Habs nicht gefunden. Kannst Du bitte Ausgabe und Seite nennen? Danke!
Hvoralek
2008-02-06, 22:28:45
Soweit ich weiß kamen die Folien nie an die Öffentlichkeit. AMD verschickte im November Folien an die AIBs in denen ein mit "R700XT" gekennzeichneter Chip in den Spielen Crysis, NfS-PS und Stalker ca. 4x so schnell war wie ein "RV670XT".Wenn die Folien nicht an die Öffentlichkeit kamen, hast Du das zumindest aus einer zuverlässigen Quelle? Wenn das stimmt, müsste ein RV770 mehr als doppelt so schnell sein wie ein RV670, was mich wirklich überraschen würde. Davon, was eine X2, die in 55 nm viermal so schnell ist wie eine 3875 in 55nm, an Energie verfeuern dürfte, mal ganz zu schweigen.
w0mbat
2008-02-06, 22:45:56
Vielleicht haben GT200 & R700 ja wenigstens das TDP gemeinsam ;)
Ailuros
2008-02-07, 05:53:15
Ist R800 der frühere R700 oder ist R800 das, was immer R800 hieß, und R700 nicht verschoben, sondern gestrichen?
"R800" kommt als Antwort zum "G100". Ob diese Codenamen dann benutzt werden ist scheissegal; es geht mir hier um die projezierte Vorstellung.
Um die Frage besser beantworten zu koennen, muesste man erstmal wissen was genau in D3D11 kommt ausser der Tesselations-Einheit. Nur wenn 11 nichts weiteres nennenswertes vorraussetzt, ist die Antwort so leicht. Gegenfrage: wer ist denn so naiv zu glauben dass D3D11 = D3D10.x + Tesselation ist? Ausser man glaubte den Bloedsinn dass der angebliche "R700" schon 11 kompliant gewesen waere.
Beide IHVs haben ihre roadmaps in letzter Zeit geaendert; "R800" designiert uebrigens auch die Vereinigung beider "Design-teams".
Ailuros
2008-02-07, 06:01:31
Ließ nochmal meine Antwort: R700 = 2x RV770. Was mit dem ursprünglich geplanten R700 ist, ist bis auf weiteres gleichgültig. Die Folien, welche ~4x RV670XT Leistung versprechen sind vom November 2007. Also zu einem Zeitpunkt entstanden, als der ursprüngliche R700 längst obsolet war.
Beware of greeks bearing gifts :D
Die bis zu 4x mal Leistung wurde fuer Stalker erwaehnt. Da diese aus verstaendlichen Gruenden auf R6x0/RV6x0 laecherlich klein ist im Vergleich zur Konkurrenz, soll mir diese Einzelheit gerade was fuer einen besonderen Eindruck machen?
Ailuros
2008-02-07, 06:07:09
Wenn die Folien nicht an die Öffentlichkeit kamen, hast Du das zumindest aus einer zuverlässigen Quelle? Wenn das stimmt, müsste ein RV770 mehr als doppelt so schnell sein wie ein RV670, was mich wirklich überraschen würde. Davon, was eine X2, die in 55 nm viermal so schnell ist wie eine 3875 in 55nm, an Energie verfeuern dürfte, mal ganz zu schweigen.
Siehe vorige Antwort; dass die MRT Leistung steigern wird macht mir keinen besonderen Eindruck, denn sie gehoert ja auch zur Liste der Schwaechen von R6x0/RV6x0.
Sobald AF ins Spiel kommt, geht es ziemlich heftig bergab:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/16/#abschnitt_stalker
myopF
2008-02-07, 07:33:53
Habs nicht gefunden. Kannst Du bitte Ausgabe und Seite nennen? Danke!
c't 3/08, Seite 108, werte ab 117
PS: ich weis zwar net wo und wie du suchst, aber ich würde dir diese (http://www.heise.de/ct/inhverz/suche?q=8800gt&search_submit=Suchen&rm=search) seite dafür ans herz legen ;)
Wenn die Folien nicht an die Öffentlichkeit kamen, hast Du das zumindest aus einer zuverlässigen Quelle?
Ich habe sie selbst gesehen.
Beware of greeks bearing gifts :D
Die bis zu 4x mal Leistung wurde fuer Stalker erwaehnt. Da diese aus verstaendlichen Gruenden auf R6x0/RV6x0 laecherlich klein ist im Vergleich zur Konkurrenz, soll mir diese Einzelheit gerade was fuer einen besonderen Eindruck machen?
Es deutet an das die Schwächen des Designs beseitigt wurden. Und wenn die momentan herumschwirrende Texelfüllrate des "R700" stimmt, bekommt man endlich auch bei AMD AF deutlich billiger.
reunion
Wenn das stimmt, müsste ein RV770 mehr als doppelt so schnell sein wie ein RV670, was mich wirklich überraschen würde.
Und warum? ATi hatte die letzten drei Generationen die Leistungskrone, nur weil jetzt mal ein Chip in die Hose gegangen ist bedeutet das noch lange nicht das jetzt NV auf ewig die schnelleren Chips designt. Manche scheinen AMD gehörig zu unterschätzen. Wenn beide IHVs keine größeren Schnitzer fabrizieren wird es auch diesmal wieder grob auf einen Gleichstand hinauslaufen IMHO.
reunion
AnarchX
2008-02-07, 09:22:31
Es deutet an das die Schwächen des Designs beseitigt wurden. Und wenn die momentan herumschwirrende Texelfüllrate des "R700" stimmt, bekommt man endlich auch bei AMD AF deutlich billiger.
Hoffen wir es, aber gewisse Zweifel an der Aktualität bzw. Bezug der Folien auf den RV770 habe ich doch, nachdem RV670 im September auch noch um einiges anders beschrieben wurde in den AIB-Folien, als wie er dann im November kam.
Und warum? ATi hatte die letzten drei Generationen die Leistungskrone, nur weil jetzt mal ein Chip in die Hose gegangen ist bedeutet das noch lange nicht das jetzt NV auf ewig die schnelleren Chips designt. Manche scheinen AMD gehörig zu unterschätzen. Wenn beide IHVs keine größeren Schnitzer fabrizieren wird es auch diesmal wieder grob auf einen Gleichstand hinauslaufen IMHO.
Nur scheint aber die Schere beim RnD-Budget zwischen beiden immer weiter auseinander zu gehen.
Habs nicht gefunden. Kannst Du bitte Ausgabe und Seite nennen? Danke!
Ausgabe 3, Seite weiss ich jetzt nicht, ist aber ein grosser Test von 8800GT, 3850 und 3870 Karten.
robbitop
2008-02-07, 09:47:34
Beide IHVs haben ihre roadmaps in letzter Zeit geaendert; "R800" designiert uebrigens auch die Vereinigung beider "Design-teams".
Ist ATI denn von der Anzahl der HW-Entwickler ausgeblutet, dass das nötig ist? Wenn das nicht der Fall ist, ergibt es wenig Sinn, zwei große Entwicklerteams zusammen zu legen. Zumal die doch in zwei Standorten arbeiten. Malborough und Sunnyale. Mit jeweils massig Leuten.
Michael Dell hat ja immer gesagt, dass zu große Teams schlecht für die Effizienz sind.
nomadhunter
2008-02-07, 09:48:43
Manche scheinen AMD gehörig zu unterschätzen. Wenn beide IHVs keine größeren Schnitzer fabrizieren wird es auch diesmal wieder grob auf einen Gleichstand hinauslaufen IMHO.
Im Performance-Segment wird AMD vermutlich ähnlich attraktive Angebote machen können wie NV. Genau so wie es jetzt ist. Im High-End-Segment wird AMD aber nichts wirkliches haben, das sie GT200 entgegensetzen können. Selbst wenn RV770 so schnell ist, dass zwei davon trotz den üblichen CF-Nachteilen gegen einen GT200 bestehen können (kann ich mir nicht vorstellen), dann wird diese Doppelkarte mit Sicherheit deutlich teurer in der Produktion sein (um gleich schnell zu sein, dürfte man schon 2x 1 Milliarde Transistoren brauchen, je nach dem wie groß GT200 wird evtl. noch mehr -> teuer!). AMD wird IMHO höchstens im High-End-Segment mitspielen können, wenn sie ihre RV770X2 ohne Gewinnabsicht ins Rennen schicken. Erst mit der nächstens Generation (das, was ursprünglich R700 hieß und jetzt irgendwann 09 kommt), die wohl endlich ein von Grund auf auf Multi-Chip ausgelegtes Design bieten wird, kann ich mir vorstellen, dass AMD wieder mitspielen kann. So lange, bis G100 wieder die Leistungskrone an sich reißt.
DrumDub
2008-02-07, 09:54:48
Ist ATI denn von der Anzahl der HW-Entwickler ausgeblutet, dass das nötig ist? Wenn das nicht der Fall ist, ergibt es wenig Sinn, zwei große Entwicklerteams zusammen zu legen. Zumal die doch in zwei Standorten arbeiten. Malborough und Sunnyale. Mit jeweils massig Leuten.
Michael Dell hat ja immer gesagt, dass zu große Teams schlecht für die Effizienz sind. ailuros sieht das hier anders:
AMD muss endlich ihre Design-teams vereinigen. Der Unsinn zwei grosse getrennte Design-teams zu haben, hat ihnen einiges gekostet. R600 originiert auf jeden Fall nicht vom gleichem Team als R5x0. Eine vollstaendige Vereinigung kommt erst ab R800. http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6032008#post6032008
Ist ATI denn von der Anzahl der HW-Entwickler ausgeblutet, dass das nötig ist? Wenn das nicht der Fall ist, ergibt es wenig Sinn, zwei große Entwicklerteams zusammen zu legen. Zumal die doch in zwei Standorten arbeiten. Malborough und Sunnyale. Mit jeweils massig Leuten.
Michael Dell hat ja immer gesagt, dass zu große Teams schlecht für die Effizienz sind.
NVs Designteams sind seit Ewigkeiten vereint, wo liegt das Problem?
reunion
Im Performance-Segment wird AMD vermutlich ähnlich attraktive Angebote machen können wie NV. Genau so wie es jetzt ist. Im High-End-Segment wird AMD aber nichts wirkliches haben, das sie GT200 entgegensetzen können. Selbst wenn RV770 so schnell ist, dass zwei davon trotz den üblichen CF-Nachteilen gegen einen GT200 bestehen können (kann ich mir nicht vorstellen), dann wird diese Doppelkarte mit Sicherheit deutlich teurer in der Produktion sein (um gleich schnell zu sein, dürfte man schon 2x 1 Milliarde Transistoren brauchen, je nach dem wie groß GT200 wird evtl. noch mehr -> teuer!). AMD wird IMHO höchstens im High-End-Segment mitspielen können, wenn sie ihre RV770X2 ohne Gewinnabsicht ins Rennen schicken. Erst mit der nächstens Generation (das, was ursprünglich R700 hieß und jetzt irgendwann 09 kommt), die wohl endlich ein von Grund auf auf Multi-Chip ausgelegtes Design bieten wird, kann ich mir vorstellen, dass AMD wieder mitspielen kann. So lange, bis G100 wieder die Leistungskrone an sich reißt.
Da stimme ich dir durchaus zu. Der CF-Nachteil wird AMD im High-End gehörig zusetzen. Dafür spart man so auch einiges an RnD und kann sich auf den echte Multi-Core konzentrieren.
reunion
Hoffen wir es, aber gewisse Zweifel an der Aktualität bzw. Bezug der Folien auf den RV770 habe ich doch, nachdem RV670 im September auch noch um einiges anders beschrieben wurde in den AIB-Folien, als wie er dann im November kam.
Was war denn anders? Okay die Takraten waren anders, die Marketingnamen waren anders (alles Dinge die sehr kurzfristig festgelegt werden), und das mit der verbesserten AF Qualität hat sich als Ente herausgestellt. Aber auch das kann man noch sehr kurzfristig ändern.
Nur scheint aber die Schere beim RnD-Budget zwischen beiden immer weiter auseinander zu gehen.
Hast du verlässliche Zahlen zu den RnD Ausgaben beider Hersteller oder woher die Gewissheit? AMD muss jetzt mal sparen, das ist richtig, aber deshalb sitzen die Ingenieure auch nicht auf der faulen Haut.
reunion
Paul Brain
2008-02-07, 11:00:06
c't 3/08, Seite 108, werte ab 117
PS: ich weis zwar net wo und wie du suchst, aber ich würde dir diese (http://www.heise.de/ct/inhverz/suche?q=8800gt&search_submit=Suchen&rm=search) seite dafür ans herz legen ;)
Danke, werds mir am Abend ansehen.
Und: Ich suche dort, wo Du gesagt hast; nämlich in der aktuellen Ausgabe, und das ist #4... ;-)
w0mbat
2008-02-07, 11:03:21
Man muss sich auch überlegen was der Unterschied zwischen wirklich 4x schneller und bis zu 4x schneller ins bestimmten Spielen ist. Auf dieser Folie wurden zB keinerlei Angaben zur Auflösung oder den Einstellungen gemacht. Dh RV770 könnte bei einer 26xx Auflösung mit 16xAF & 8xAA in ausgewählten Spielen doppelt so schnell sein wie RV670. Ich glaube das wird hier auch niemand bestreiten. Aber insg. wird´s wohl auf +-50% schneller rauslaufen (durch die Bank) und das wäre ja schon was :)
Ich hoffe das der RV770X2 etwa in der Region des GT200 spielen wird, damit wir gute Preise bekommen.
BTW: RV770 chip performs great (http://www.fudzilla.com/index.php?option=com_content&task=view&id=5605&Itemid=1)
Much faster than RV670
We learned that ATI's next generation performance chip codenamed RV770 performs much better than its RV670 predecessor. Our sources used the words „significantly faster than RV670“ and other independent sources have said that chip will be more than fifty percent faster than the existing generation.
Hast du verlässliche Zahlen zu den RnD Ausgaben beider Hersteller oder woher die Gewissheit? AMD muss jetzt mal sparen, das ist richtig, aber deshalb sitzen die Ingenieure auch nicht auf der faulen Haut.
reunion
Das liegt doch auf der Hand, dass NVidia mehr in RnD investieren kann, weil man das nur mit Gewinnen tun kann und nicht mit Verlusten.
Danke, werds mir am Abend ansehen.
Und: Ich suche dort, wo Du gesagt hast; nämlich in der aktuellen Ausgabe, und das ist #4... ;-)
ER hat das nicht gesagt, sondern ICH. Sorry für den Irrtum.
Das liegt doch auf der Hand, dass NVidia mehr in RnD investieren kann, weil man das nur mit Gewinnen tun kann und nicht mit Verlusten.
Natürlich liegt es auch der Hand, aber mir ging es wie unschwer zu erkennen war um absolute Zahlen.
reunion
robbitop
2008-02-07, 12:12:30
NVs Designteams sind seit Ewigkeiten vereint, wo liegt das Problem?
reunion
Soweit ich weiß, hatten ATI und NV je 3x Designteams. Die teilten zwar IP auch untereinander bearbeiteten aber verschiedene Dinge. Nur so konnte man die Produktlebenszyklen so kurz bekommn. Große Teams mit tiefen Hirarchien sind nie gut.
Nur so konnte man die Produktlebenszyklen so kurz bekommn.
Du bist doch hoffentlich nicht der Meinung, dass kurze Produktlebenszyklen für den Hersteller wünschenswert sind?
es war nötig um konkurrieren zu können
wenn die konkurrenz immer neue bessere produkte liefert musst du wohl oder übel mitziehen
N0Thing
2008-02-07, 12:46:09
Wenn die Konkurrenz in kurzen Abständen immer wieder bessere Modelle auf den Markt bringt, geht man mit längeren Produktzyklen pleite, oder verliert den Anschluß.
Grob kann man das am R600 sehen, der ein halbes Jahr zu spät kam und sich dadurch auch der RV670 verschoben hat. Wären beide Chips ein halbes Jahr früher auf dem Markt gewesen, hätte AMD deutlich besser dargestanden und wäre auch in der Wahrnehmung nicht als 2. Geige wahrgenommen worden.
Soweit ich weiß, hatten ATI und NV je 3x Designteams. Die teilten zwar IP auch untereinander bearbeiteten aber verschiedene Dinge. Nur so konnte man die Produktlebenszyklen so kurz bekommn. Große Teams mit tiefen Hirarchien sind nie gut.
Nur weil sie geografisch zusammengelegt werden bedeutet das ja noch lange nicht das alle Leute am gleichen Chip arbeiten. Das ist ja auch gar nicht sinnvoll wenn man Effizient arbeiten will. Allerdings hat es mit Sicherheit Vorteile wenn sich die verschiedenen Ingenieure ständig untereinander austauschen können und nicht das gleiche Rad zweimal erfinden müssen.
reunion
K4mPFwUr$t
2008-02-07, 13:04:26
es wird schon auch eine interne kommunikation zwischen den teams geben. völlig isoliert werden diese wohl kaum entwickeln.
robbitop
2008-02-07, 13:14:50
Du bist doch hoffentlich nicht der Meinung, dass kurze Produktlebenszyklen für den Hersteller wünschenswert sind?
Natürlich nicht. ;)
Aber der Markt fordert es und die starke Konkurrenz bewirkt es.
robbitop
2008-02-07, 13:16:40
Nur weil sie geografisch zusammengelegt werden bedeutet das ja noch lange nicht das alle Leute am gleichen Chip arbeiten. Das ist ja auch gar nicht sinnvoll wenn man Effizient arbeiten will. Allerdings hat es mit Sicherheit Vorteile wenn sich die verschiedenen Ingenieure ständig untereinander austauschen können und nicht das gleiche Rad zweimal erfinden müssen.
reunion
Das sollte vorher auch über ein anständiges Informationssystem und Groupware kein Problem sein. Allerdings stelle ich es mir sehr schwierig und kostspielig vor, Teams geografisch zusammen zu legen wenn so große Distanzen dazwischen liegen. Eine andere Frage ist, ob das jeder der Ingenieure auch privat mitmacht.
Allerdings ist die Philosophie dort vieleicht eine andere als hierzulande.
es wird schon auch eine interne kommunikation zwischen den teams geben. völlig isoliert werden diese wohl kaum entwickeln.
Das hat auch niemand behauptet. Trotzdem ist es besser wenn man die schlauen Köpfe beisammen hat. Nicht jeder ruft wegen jeden Problem gleich woanders an.
reunion
myopF
2008-02-07, 13:39:09
ER hat das nicht gesagt, sondern ICH. Sorry für den Irrtum.
genau, denn auf der seite findest du alle artikel, egal welche ausgabe. manche kannste sogar online ansehen/kaufen ;)
eine groupware kann zwar auch die teams vernetzen aber bringt viel schlechtere ergebnisse, da es idr auch ziemlich umständlich und unpersönlich is. fachsimpeln in der kaffeepause zb geht in einer groupware net ;)
meine abneigung bzgl groupware kann natürlich auch daran liegen das ich proggen fürs lotus notes nicht abkann und das jetzt darauf projiziere :D
dargo
2008-02-07, 15:13:45
G80 ist auch eine Generation weiter, wäre traurig wenn es hier einen Stillstand gäbe.
R600 war auch eine Generation weiter. Was dabei rauskam wissen wir alle.
Man muss sich auch überlegen was der Unterschied zwischen wirklich 4x schneller und bis zu 4x schneller ins bestimmten Spielen ist. Auf dieser Folie wurden zB keinerlei Angaben zur Auflösung oder den Einstellungen gemacht. Dh RV770 könnte bei einer 26xx Auflösung mit 16xAF & 8xAA in ausgewählten Spielen doppelt so schnell sein wie RV670. Ich glaube das wird hier auch niemand bestreiten. Aber insg. wird´s wohl auf +-50% schneller rauslaufen (durch die Bank) und das wäre ja schon was :)
Ich verstehe nicht, dass hier ständig auf hohen Auflösungen herumgereitet wird. Man kann die Grafikleistung nur bei einem 100%-igen GPU-Limit beurteilen. Und dazu gehören halt hohe Auflösungen und/oder viel AA/AF. Leider haben wir keinen 10Ghz C2D, sonst würde schon der "Standard" von 1280x1024 in den üblichen Games reichen. Natürlich sollte man den Vram im Auge behalten. Es bringt ja nichts wenn man die Auflösung so weit hochtreibt, dass Karte X durch höheren Vram einen deutlichen Vorteil vermelden kann. Die niedrigen Frames der Karte Y kommen dann durch Mangel an Vram zustande und nicht durch zu wenig Rohleistung. Zumindest verfälscht das das Bild erheblich.
Botcruscher
2008-02-07, 16:00:02
Ich verstehe nicht, dass hier ständig auf hohen Auflösungen herumgereitet wird.
Na klar 2500* irgendwas ist ja auch so wichtig wenn mein Monitor nur die Hälfte packt.
Dafür gibt die GraKatests wenigstens in vielen und vorallem auch praxistauglichen Auflösungen.:D
Paul Brain
2008-02-07, 16:34:25
Na klar 2500* irgendwas ist ja auch so wichtig wenn mein Monitor nur die Hälfte packt.
Dafür gibt die GraKatests wenigstens in vielen und vorallem auch praxistauglichen Auflösungen.:D
Wieso man sich ständig schweineteure Grafikkarten kauft, nur um damit auf einem winzigen 17"er mit 350fps spielen zu können, ist mir irgendwie schleierhaft.
Angesichts der Preissituation bei Monitoren sollte eigentlich die 22"-Widescreen-Auflösung von WSXGA+ (1680x1050) zum Standard erkoren werden, wobei die WUXGA bei den 24"ern auch nicht mehr weit entfernt ist. Und bei den Dumpingpreisen der 30"er, die man teils schon zum Preis eines guten 24ers bekommt ist auch die 2560x1600 nichts mehr, was sich nur Skulltrail-Besitzer leisten könnten.
Mein 24"er ist derzeit in Reparatur - in der Zwischenzeit hab ich hier einen 17"er mit SXGA stehen. Spielen macht mit dem Ding allerdings absolut keinen Spaß - obwohl ich sehr gute Augen hab und auf meinem 15,4"-Notebook-Display mit 1680x1050 keine Probleme mit der Pixeldichte habe tu ich mir schwer, auf dem 17"er weit entfernte Gegner auszumachen. Bei DoD:S nerven die rechts eingeblendeten Infos, wer grad wen gekillt hat extrem, weil sie teilweise (je nach Spielernamen) bis fast zur Hälfte ins Bild hineinragen und einem damit komplett die Sicht verdecken.
Nochmal: ich versteh nicht, wie man heutzutage mit weniger als 1680x1050 und/oder auf einem Winzdisplay spielen und dabei glücklich sein kann.
[X] Pro Grafikkartenperformance in hohen Auflösungen!
Und falls sich jetzt jemand wundert, warum ich noch eine 7900GTX im Rechner hab: Der G80 braucht mir besonders im Idle viel zu viel Strom, und G92 gibts derzeit noch nicht in einer für hohe Auflösungen geeigneten Version... ;)
w0mbat
2008-02-07, 16:43:45
@Paul Brain: Ich spiele auf 1024x768 und habe damit keine Probleme. Mein Kumpel hat einen 22'' TFT mit 1680x1050 und ich finde den nicht so berauschend.
Und deine 7900GTX würde sich sehr gut mit einer HD3870 ersetzten lassen. Bei deiner Auflösung min. 150% schneller, bessere BQ und @idle sehr wenig verbrauch. Zudem ist sie auch total leise, wie die 7900GTX.
reunion
2008-02-07, 17:08:20
R600 war auch eine Generation weiter. Was dabei rauskam wissen wir alle.
Ausnahmen bestätigen die Regel. R600 war ein ungünstiges Design auf einem ebenso ungünstigen Herstellungsprozess.
Paul Brain
2008-02-07, 17:31:37
@Paul Brain: Ich spiele auf 1024x768 und habe damit keine Probleme. Mein Kumpel hat einen 22'' TFT mit 1680x1050 und ich finde den nicht so berauschend.Inwiefern? Zu groß kann er ja wohl nicht sein... :tongue:
Und deine 7900GTX würde sich sehr gut mit einer HD3870 ersetzten lassen. Bei deiner Auflösung min. 150% schneller, bessere BQ und @idle sehr wenig verbrauch. Zudem ist sie auch total leise, wie die 7900GTX.Nachdem mir selbst die G92-GTS zu langsam ist, würd ich mit der 3870 sicher nicht glücklich werden; noch dazu gibts für die nichtmal einen Coolmatic-Wasserkühler...
Aber wir sind herrlich Off-Topic.
Ich nehme nicht an, daß zu kleineren Versionen des GT200 schon etwas bekannt ist, oder?
Wie schätzt ihr die Performance eines, auf sagen wir 150W TDP, gedrosselten GT200 ein? Eigentlich sagt man ja, daß die Verlustleistung ab einem gewissen Punkt sich überproportional zur Taktrate erhöht; dem Gefühl nach war das aber bei G80 nicht so, hier gingen Verlustleistung und Performance zwischen GTS 640 und GTX ja etwa im Verhältnis 1:1 einher?
Hvoralek
2008-02-07, 17:40:24
Ich nehme nicht an, daß zu kleineren Versionen des GT200 schon etwas bekannt ist, oder?
Wie schätzt ihr die Performance eines, auf sagen wir 150W TDP, gedrosselten GT200 ein? Eigentlich sagt man ja, daß die Verlustleistung ab einem gewissen Punkt sich überproportional zur Taktrate erhöht; dem Gefühl nach war das aber bei G80 nicht so, hier gingen Verlustleistung und Performance zwischen GTS 640 und GTX ja etwa im Verhältnis 1:1 einher?Dass die Verlustleistung insgesamt überproportional zur Taktrate steigt, liegt daran, dass für höhere Taktraten auch höhere Spannungen gebraucht werden. Da eine 8800 GTX kaum höher taktet als eine GTS 640, werden die auch mit etwa gleichen Spannungen betrieben werden. Der Unterschied im Energieverbrauch wird hpts. durch die bei der GTS deaktivierten Chipteile verursacht.
G200@150W TDP? Wenn die Eckdaten für das voll ausgebaute Modell stimmen, könnte ich mir ungefähr 1,5- bis 1,8- fache 8800- GTX- Leistung vorstellen. Hängt eben auch davon ab, ob bei den kleineren Modellen eher die Taktraten gesenkt oder eher Chipteile deaktiviert werden.
Paul Brain
2008-02-07, 17:53:34
G200@150W TDP? Wenn die Eckdaten für das voll ausgebaute Modell stimmen, könnte ich mir ungefähr 1,5- bis 1,8- fache 8800- GTX- Leistung vorstellen. Hängt eben auch davon ab, ob bei den kleineren Modellen eher die Taktraten gesenkt oder eher Chipteile deaktiviert werden.Hmmm... Bei einem offensichtlich derart breiten Chip gehe ich mal davon aus, daß aus Yieldgründen die Methode der Deaktivierung vorgenommen werden wird...
Paul Brain
2008-02-07, 18:00:58
ER hat das nicht gesagt, sondern ICH. Sorry für den Irrtum.Dann muß ich mich hier wohl auch für meinen Irrtum entschuldigen. Hatte gedacht, der Gast wollte sich gestern halt einfach nicht einloggen... ;)
Zu dem Artikel: Tatsächlich, der "kurzzeitige" Spitzenverbrauch bei der G92-GT beträgt tatsächlich knapp 140W... Ist es das, was ein Netzteil liefern können muß, oder ist hier eher die durchschnittliche Peak-Load von knapp 100W relevant, und die kleinen Spikes können problemlos aus den Kondensatoren gespeist werden?
Ich frage deshalb, weil ich eigentlich gehofft hatte, mit meinem Netzteil (2x 12V-Schienen mit jeweils 18A) eine 9800GTX speisen zu können (eine Schiene ist nur für die CPUs da, die andere müßte mit 17A alles andere (inkl. Grafikkarte) speisen. 17A*12V=204W, wovon wahrscheinlich relativ viel für die Graka übrigbleibt, da außer CD-Rom/Fancontroller/Soundkarte (externe Box) eigentlich alles aus 5V- und 3,3V gespeist werden sollte (Northbridge, PCI-Geräte inkl. RAID-Controller). Wenn aber jetzt schon eine olle GT 140W davon brauchen sollte, wirds mit der 9800er GTX vermutlich verdammt eng...
Ailuros
2008-02-07, 20:01:47
Es deutet an das die Schwächen des Designs beseitigt wurden. Und wenn die momentan herumschwirrende Texelfüllrate des "R700" stimmt, bekommt man endlich auch bei AMD AF deutlich billiger.
reunion
Ich hoffe Du verwechselst nicht den stornierten chip mit RV770. Nebenbei ist die Texelfuellrate auf die Du anspielst sogar mit einer einzelnen uebertakteten G92 erreichbar.
Es wird hoechste Zeit dass AMD die AF Optimierungen abschalten laesst; so oder so.
reunion
2008-02-07, 20:10:19
Ich hoffe Du verwechselst nicht den stornierten chip mit RV770. Nebenbei ist die Texelfuellrate auf die Du anspielst sogar mit einer einzelnen uebertakteten G92 erreichbar.
Es wird hoechste Zeit dass AMD die AF Optimierungen abschalten laesst; so oder so.
Das die Texelfüllrate auch schon ein stark übertakteter G92 erreichen würde ist richtig, im Vergleich zu RV670 ist es allerdings eine mehr als deutliche Steigerung.
AnarchX
2008-02-07, 20:13:26
Und dann kommt vielleicht die ominöse "Improved AF Ability" hinzu, die >30% bei gleichem Takt bringen soll. :D
GeneralHanno
2008-02-07, 22:55:40
fudzilla kennt stromanschlüsse der GT200:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5606&Itemid=1
8er + 6er
wie viel watt sind das genau?
laser114
2008-02-07, 22:59:41
75W (Slot) + 75W (6er) + 150W (8er) = 300 Watt
Was aber nichts heißt, da man den 8er bei mehr als 150 Watt hinzupackt (nach PCIe2-Spezifikation), siehe 2900 XT, 3870 X2, 9800 GX2.
GeneralHanno
2008-02-07, 23:04:18
Ok, dann sind die 250W DTP vermutlich nicht realitätsfern. aber schön dass fud in letzter zeit so viele GT200 gerüchte verbreitet. die scheinen ja eine heiße quelle zu haben. hoffen wir auf weitere leaks :D
Anarchy-HWLUXX
2008-02-08, 01:51:52
*verles000rt*
Ailuros
2008-02-08, 05:59:25
Das die Texelfüllrate auch schon ein stark übertakteter G92 erreichen würde ist richtig, im Vergleich zu RV670 ist es allerdings eine mehr als deutliche Steigerung.
Stimmt schon; Du musst Dir selber nur diese und noch ein paar weitere Einzelheiten im Hinterkopf behalten wenn es um die "Effizienz" von R6x0 bzw. RV6x0 am Ende geht. Zum Zeitpunkt wo sie es endlich zugeben dass ihre vorige Schaetzungen zum benoetigten ALU:TEX ratio auf der falschen Bahn lagen, kommt die Konkurrenz mit einer radikalen Aenderung an was ihr eigenes ALU:TEX ratio betrifft.
Am Ende des Tages bedeuten "manhours" eben leider auch dass man nicht zu tief in die Fundamente der Architektur eingreifen konnte. Und bevor Du fragst, schaetze mal ein wieviel cluster RV770 haben wird (*2) und wieviel die Konkurrenz. Wenn jemand noch nicht veroeffentlichte Treiber in der Hand hat, kann man schon seit einiger Zeit eine Unzahl an zukuenftigen SKUs sehen die momentan unter "Simulation" (die Anfuehrungsstiche sind natuerlich Absicht) liegen.
***edit: http://www.fudzilla.com/index.php?option=com_content&task=view&id=5605&Itemid=1
=/>+50% klingt wohl etwas mager fuer die angeblichen Raten die herumschwirren oder?
Ailuros
2008-02-08, 06:02:06
Und dann kommt vielleicht die ominöse "Improved AF Ability" hinzu, die >30% bei gleichem Takt bringen soll. :D
Ich hab persoenlich nicht das geringste dagegen, wenn man aber dem Verbraucher die Flexibilitaet goennt jegliche moegliche Optimierung abzuschalten.
Stimmt schon; Du musst Dir selber nur diese und noch ein paar weitere Einzelheiten im Hinterkopf behalten wenn es um die "Effizienz" von R6x0 bzw. RV6x0 am Ende geht. Zum Zeitpunkt wo sie es endlich zugeben dass ihre vorige Schaetzungen zum benoetigten ALU:TEX ratio auf der falschen Bahn lagen, kommt die Konkurrenz mit einer radikalen Aenderung an was ihr eigenes ALU:TEX ratio betrifft.
Am Ende des Tages bedeuten "manhours" eben leider auch dass man nicht zu tief in die Fundamente der Architektur eingreifen konnte. Und bevor Du fragst, schaetze mal ein wieviel cluster RV770 haben wird (*2) und wieviel die Konkurrenz. Wenn jemand noch nicht veroeffentlichte Treiber in der Hand hat, kann man schon seit einiger Zeit eine Unzahl an zukuenftigen SKUs sehen die momentan unter "Simulation" (die Anfuehrungsstiche sind natuerlich Absicht) liegen.
***edit: http://www.fudzilla.com/index.php?option=com_content&task=view&id=5605&Itemid=1
=/>+50% klingt wohl etwas mager fuer die angeblichen Raten die herumschwirren oder?
"significantly faster than RV670" und "more than fifty percent faster" klingt eher nach absoluter Untergrenze. Hängt sicherlich auch davon ab, was bei der "Simulation" gerade getestet wurde.
Was sind das denn für "angeblichen Raten die herumschwirren"? Wenn Sie nur herumschwirren könnten sie ja auch mal hier hereinschwirren, oder nicht?
wuzetti
2008-02-08, 13:14:35
Und bevor Du fragst, schaetze mal ein wieviel cluster RV770 haben wird (*2) und wieviel die Konkurrenz.
12 vs. 16?
obwohl ich nicht direkt gefragt wurde darf man ja wohl mal tippen :biggrin:
Ailuros
2008-02-08, 13:27:44
12 vs. 16?
obwohl ich nicht direkt gefragt wurde darf man ja wohl mal tippen :biggrin:
Es ist eher ein 2:1 ratio, aber es kommt natuerlich auch darauf an wie man genau zaehlt. Erwarte bloss keine genaue Antwort darueber; es ist noch viel zu frueh fuer Einzelheiten.
dargo
2008-02-08, 15:04:11
Na klar 2500* irgendwas ist ja auch so wichtig wenn mein Monitor nur die Hälfte packt.
Und wo ist das Problem? Dann nimmst du in 1280 halt 2x2SSAA (eventuell sogar in Verbindung mit TSSAA) und schon hast du dein Graka-Limit. So weißt du wenigstens was gute BQ bedeutet.
Toll, schönes AA bei niedriger Auflösung mit MultiGPU Ruckeln...
Dann doch lieber auf eine dicke GPU warten, die die "schöneren" Wände wackeln lässt ;)
dargo
2008-02-08, 19:12:12
Toll, schönes AA bei niedriger Auflösung mit MultiGPU Ruckeln...
Dann doch lieber auf eine dicke GPU warten, die die "schöneren" Wände wackeln lässt ;)
Ähm, seit wann ist ein GT200 MultiGPU? :confused:
Hvoralek
2008-02-08, 19:19:15
Ähm, seit wann ist ein GT200 MultiGPU? :confused:Und selbst wenn er das wäre: SSAA ist auch ohne AFR machbar. Insofern zieht das Argument auch für "R680", "D9E", "R700" und Konsorten.
GeneralHanno
2008-02-08, 20:11:27
mir schoss gerade folgender geadnke durch den kopf:
war es nicht so, dass die Voodo5 auch multi-SGU war, aber eben kein AFR gemacht hat, sondern die beiden GPUs jeweils den aktuellen frame gerendert haben und die bilder dann zusammen gerechnet wurden, um SS zu erreichen ...
AnarchX
2008-02-08, 20:21:28
Ja, 4x und 8x SGSSAA.
Und ohne diese arbeiteten die Voodoo MGPU-Gespanne unter ScanLine Interleaving, was aber heute logischerweise nicht mehr möglich ist.
Warum aber ATi bei ihrem 16xAA für >HD2000-CF auf den RGSSAA-Anteil verzichtet hat, ist auch nicht wirklich klar.
GeneralHanno
2008-02-08, 20:23:22
es gibt doch auch dieses crossfire-AA wo auch die GPUs getrennte frames mit leicht gedrehten samples rendern, oder?
PS: ich wusste gar nicht, dass die voodoo sogar sparse grid lieferte :D
€dit: hab hier nen abschnitt zu crossfire-AA gefunden:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt_crossfire/3/
gerde wo der trend zu quad-GPU gespannen geht, wäre es doch sehr wünschenswert, wenn AMD und nvidia als alternativen rendermodus zu AFR, eine art "SLI-SSAA" bringen würden!
Voodo5
Voodoo bitte.
PS: ich wusste gar nicht, dass die voodoo sogar sparse grid lieferte :D
Gerade deswegen wurden – pardon, werden ;) – diese Karten doch so gefeiert, weil sie vor mehr als 7 Jahren ein AA-Verfahren einführten, das ungeschlagen glättet. OGSSAA ist Müll dagegen und auch das RGSSAA der Chrome-S20-Serie von S3 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=399366) ist qualitativ nicht ganz auf der Höhe des 8x SGSS der V5 6000. Das Samplemuster kann sogar von Hand verändert werden.
MfG,
Raff
GeneralHanno
2008-02-08, 21:52:36
Gibt es eigentlich eine einzige andere Grafikkarte außer die Voodoo5, die SGSSAA kann?
Der R200 aka Radeon 8500 soll es angeblich auch können, wenn Vollmond herrscht und man ein Lamm opfert ... äh, unter besonderen Umständen, die etwas mit Nebeleffekten zu tun haben (Lolli?). Ansonsten könnte das mit ein paar Transistoren wohl jede andere GPU. Bei TSSAA/AAA kommt ja auch schon adaptives SG-Supersampling für Alphatests zum Einsatz, das gilt es nur auf das ganze Bild zu erweitern.
MfG,
Raff
GeneralHanno
2008-02-08, 22:00:56
wo ein wille ist, da ist auch ein weg.
leider scheint es den willen aber nicht auf breite basis zu geben ...
allerding jetzt wo multi-GPU wieder (leider) so richtig in mode kommt, wäre ein SLI-SSAA sicherlich sinnvoll. naja aber die leute wollen lieber 100fps auf ihrem 30", statt eine ordentliche (und flimmerfreie) BQ ... :(
StefanV
2008-02-09, 00:13:37
Gibt es eigentlich eine einzige andere Grafikkarte außer die Voodoo5, die SGSSAA kann?
R200 kanns bei 2x, ohne Fogging, R300 kanns ev. auch, wurd aber nie implementiert, danach ist nix weiter bekannt...
Ailuros
2008-02-09, 10:59:36
Der R200 aka Radeon 8500 soll es angeblich auch können, wenn Vollmond herrscht und man ein Lamm opfert ... äh, unter besonderen Umständen, die etwas mit Nebeleffekten zu tun haben (Lolli?). Ansonsten könnte das mit ein paar Transistoren wohl jede andere GPU. Bei TSSAA/AAA kommt ja auch schon adaptives SG-Supersampling für Alphatests zum Einsatz, das gilt es nur auf das ganze Bild zu erweitern.
MfG,
Raff
Nachdem Quantum3D auch auf Multisampling AA gedreht hat fuer ihre Profi-Simulatoren, gab es wohl kein besonderes Interesse mehr fuer SSAA und es dauerte auch einige Zeit NV zu ueberzeugen die hybriden modi wieder einzuschalten (obwohl es eigentlich nur ein einfacher switch sein duerfte).
NV hat sich nichtmal darum geschert die Leistung fuer 8x sparse MSAA anstaendig zu optimieren bis jetzt; es geht stets um Prioritaeten und es gewinnt eben meistens die hoechstmoegliche Leistung bei hoechstmoeglicher Qualitaet. Man kann es sowieso nie allen heil machen und entschuldige aber wenn Du mit der Qualitaet von 16xS + TMAA nicht zufrieden sein solltest, dann grenzt es schon in den Raum der Pingeligkeit. Der Verlust an EER vom OGSS Anteil wird durch das 4xRGMS abgedeckt, Du bekommst den -1.0 LOD offset vom SS und die alpha-Dingsbumse bekommen einen doppelten Schuss von beiden ab.
Ja natuerlich geht es stets besser, aber nachdem sie endlich ein anstaendiges alpha to coverage fuer TMAA eingebaut haben, wurde auch hier TSAA zum groessten Teil redundant.
Ailuros
2008-02-09, 11:09:36
wo ein wille ist, da ist auch ein weg.
leider scheint es den willen aber nicht auf breite basis zu geben ...
allerding jetzt wo multi-GPU wieder (leider) so richtig in mode kommt, wäre ein SLI-SSAA sicherlich sinnvoll. naja aber die leute wollen lieber 100fps auf ihrem 30", statt eine ordentliche (und flimmerfreie) BQ ... :(
Die bisherigen SLi-AA modi koennen mir persoenlich gestohlen bleiben; fuer gutes AA (egal welche Form) ist eben leider die Anzahl der samples nicht der einzige wichtige Faktor. Mehr samples mit beschissener Sample-Positionierung sind nutzlos.
R200 kanns bei 2x, ohne Fogging,.
Nur die Geometrie ist RG, Texturen sind OG.
AnarchX
2008-02-09, 12:27:53
Gibt es schon Anzeichen, dass NV bei GT200 beim AA weitere Fortschritte macht oder bleibt man auf dem schon so hohen Level erstmal bis zum G100 stehen?
GeneralHanno
2008-02-09, 12:40:50
naja, DX10.1 würde ja schon zu einer überarbeitung des AA zwingen, oder?
da der GT200 aber weiterhin auf dem G80 basieren wird, werden sich die veränderungen wohl in grenzen handeln ... vll wird der coverage sample algoritmus etwas optimiert, aber sonst ...
robbitop
2008-02-09, 13:22:01
Nur die Geometrie ist RG, Texturen sind OG.
Wuzz? :| Wie soll denn das gehen?
OGSS ist prinzipbedingt allerdings besser (als SGSS) geeignet für die Behandlung von Texturaliasing.
Wuzz? :| Wie soll denn das gehen?
OGSS ist prinzipbedingt allerdings besser (als SGSS) geeignet für die Behandlung von Texturaliasing.
Frag mich nicht wie es geht, aber ich denke der FSAAViewer lügt hier nicht.
2xFSAA auf dem R200 (jeweils eines der Geo-/Textur-Samples liegt am Pixelrand und wird durch 2 Hälften angezeigt)
http://www.hostpix.de/file.php?dat=zDLGMHLI.png
robbitop
2008-02-09, 14:07:06
Frag mich nicht wie es geht, aber ich denke der FSAAViewer lügt hier nicht.
2xFSAA auf dem R200 (jeweils eines der Geo-/Textur-Samples liegt am Pixelrand und wird durch 2 Hälften angezeigt)
http://www.hostpix.de/file.php?dat=zDLGMHLI.png
Der FSAA Viewer kann sich irren. Das Verfahren nach dem die Samplepositionen ermittelt werden, ist nicht all zu genau. Darauf würde ich mich nicht verlassen. Was ich lieber sehen würde, wären Screenshots vom D3DFSAATester (so hieß der glaube ich). Der bietet sowohl Geometrie als auch Texturierte Kanten die in allen möglichen Winkeln im Bild verlaufen. Dort sollte das im Zweifel erkennbar sein.
Ich wüßte jedoch keine Möglichkeit, dass SSAA nur partiell wirkt. Vieleicht ist das ja das kaputte MSAA? (R200 sollte ja ursprünglich MSAA bekommen, aber irgendwas war in den ROPs kaputt)
Schau dir doch die schwarz-weißen Kanten an. Links und unten sind Geometrie-Kanten, rechts und oben Textur-Kanten.
Die obere Kante wird durch das OG-AA geglättet, die rechte nicht (weil das OG ja nur in eine Richtung wirkt, es sind ja nur 2 Samples).
2xRGAA wie auf der GF4 glättet nur linke und untere Kante, da keine Wirkung auf die Texturen.
GF4, 2xRGMSAA:
http://www.hostpix.de/file.php?dat=ShFnJ2sE.png
robbitop
2008-02-09, 15:16:02
Tja und genau die Texturekanten sehen nach diesem seltsamen RG aus. Rechts sieht man keine Zwischenstufen (kein Wunder bei dem Winkel) und oben sieht man welche.
Bei einem 2x1 OG (welches das laut FSAA Viewer angeblich wäre), hätte die rechte Texturekante aber Zwischenstufen.
Ergo ist die Anzeige der Masken obsolet.
Tja und genau die Texturekanten sehen nach diesem seltsamen RG aus. Rechts sieht man keine Zwischenstufen (kein Wunder bei dem Winkel) und oben sieht man welche.
Bei einem 2x1 OG (welches das laut FSAA Viewer angeblich wäre), hätte die rechte Texturekante aber Zwischenstufen.
Ergo ist die Anzeige der Masken obsolet.
Nein, da irrst du, bei dem 1x2 OG wird die obere Kante geglättet und die rechte nicht. Die Anzeige der Maske stimmt also.
MEDIC-on-DUTY
2008-02-12, 11:33:46
In wie weit wird denn der GT200 überhaupt noch Verbindung zum G80 haben? Muss im Falle der DX10.1 Implementierung nicht schon von einem neuem Chipdesign als von einem Review gesprochen werden?
K4mPFwUr$t
2008-02-12, 11:37:25
hi und willkommen im forum :)
würde sagen das die änderungen realtiv gering ist im chipdesign bei dem schritt 10.0 zu 10.1.
bei DX11 sollte das ganze schon etwas mehr änderungen unterliegen.
Ailuros
2008-02-12, 11:38:59
In wie weit wird denn der GT200 überhaupt noch Verbindung zum G80 haben? Muss im Falle der DX10.1 Implementierung nicht schon von einem neuem Chipdesign als von einem Review gesprochen werden?
10.1 ist vielleicht das kleinste DX update das es jeh gab. Es kann zwar durchaus sein dass ein zukuenftiger chip Aenderungen was die generelle Effizienz betrifft haben wird, aber ich will ernsthaft bezweifeln dass diese Aenderungen viel mit 10.1 zu tun haben werden.
MEDIC-on-DUTY
2008-02-12, 12:30:06
hi und willkommen im forum
Danke! Ich bin schon länger Zaungast, aber jetzt wurde es mal Zeit für einen Account.
10.1 ist vielleicht das kleinste DX update das es jeh gab. Es kann zwar durchaus sein dass ein zukuenftiger chip Aenderungen was die generelle Effizienz betrifft haben wird, aber ich will ernsthaft bezweifeln dass diese Aenderungen viel mit 10.1 zu tun haben werden.
Gibt es schon Infos, ob der G9x (9800 GTX) bereits 10.1 haben wird?
Hvoralek
2008-02-12, 12:56:38
Gibt es schon Infos, ob der G9x (9800 GTX) bereits 10.1 haben wird?Die gibt es: G92 und andere G9x sind nur D3D10.0
http://www.pcgameshardware.de/aid,631912/News/Spezifikationen_der_Geforce_9800_GTX_durchgesickert/
was soll man davon halten?
im märz so einen chip wär mal extrem unwahrscheinlich oder?
zumal die gx2 ja komplett über wäre
Ailuros
2008-02-13, 06:14:10
http://www.pcgameshardware.de/aid,631912/News/Spezifikationen_der_Geforce_9800_GTX_durchgesickert/
was soll man davon halten?
im märz so einen chip wär mal extrem unwahrscheinlich oder?
zumal die gx2 ja komplett über wäre
Warum wuerde man sowohl fuer die GTX als auch fuer die GX2 "9800" benutzen, wenn ich mir erstmal fast sicher bin dass die 9800GX2 aus 2*G92@550MHz besteht? Noch schlimmer man benutzt den gleichen Marktnahmen fuer zwei Varianten mit verschiedener Komplianz.
Der 55nm chip ist produktionsreif (nach 4 zuverlaessigen Quellen die darauf bestehen, etwas schwer zu bezweifeln), ergo sollte man erstmal nuechtern die benoetigte Zeit bis zur Produktion dazurechnen. 2+6 = 8 ;)
Ich bezweifle einen 55nm chip schon im Maerz aus mehreren Gruenden; die-size und projezierte Veroeffentlichung wurde schon zu zuverlaessigen Quellen herausgeleakt. Ein kleinerer chip (~1B), dazu noch im Maerz wo sowieso durch den Sommer nicht besonders viel los ist macht sehr wenig Sinn und noch schlimmer sie arbeiten garantiert nicht an zwei Varianten des 55nm chips.
Es gibt eine grosse Anzahl an G1x0 Varianten in den Treibern versteckt; die aber eher an eine komplette zukuenftige Produkt-linie erinnern. Bleibt erstmal abzusehen, was zum Henker genau mit dem Codenamen-Wirrwarr am Ende los ist.
Mr.Magic
2008-02-13, 11:58:19
Warum wuerde man sowohl fuer die GTX als auch fuer die GX2 "9800" benutzen, wenn ich mir erstmal fast sicher bin dass die 9800GX2 aus 2*G92@550MHz besteht? Noch schlimmer man benutzt den gleichen Marktnahmen fuer zwei Varianten mit verschiedener Komplianz.
Der 55nm chip ist produktionsreif (nach 4 zuverlaessigen Quellen die darauf bestehen, etwas schwer zu bezweifeln), ergo sollte man erstmal nuechtern die benoetigte Zeit bis zur Produktion dazurechnen. 2+6 = 8 ;)
Ich bezweifle einen 55nm chip schon im Maerz aus mehreren Gruenden; die-size und projezierte Veroeffentlichung wurde schon zu zuverlaessigen Quellen herausgeleakt. Ein kleinerer chip (~1B), dazu noch im Maerz wo sowieso durch den Sommer nicht besonders viel los ist macht sehr wenig Sinn und noch schlimmer sie arbeiten garantiert nicht an zwei Varianten des 55nm chips.
Es gibt eine grosse Anzahl an G1x0 Varianten in den Treibern versteckt; die aber eher an eine komplette zukuenftige Produkt-linie erinnern. Bleibt erstmal abzusehen, was zum Henker genau mit dem Codenamen-Wirrwarr am Ende los ist.
Die Möglichkeit der Vorstellung im März finde ich nicht unrealistisch. War bei der GF6 doch auch nicht anders. Im Frühjahr war die Vorstellung, und dann dauerte es nochmal ein paar Monate, bis man Karten auch kaufen konnte.
Ist es eigentlich offiziell, dass die neue GX2 9800 genannt wird? Sinnvoller wäre doch 8900GX2.
Ich hoffe jedenfalls, dass diese Specs einigermaßen hinkommen. Wenn der (echte) G80-Nachfolger nicht mindestens 2-3x schneller ist als eine 8800Ultra, kann nVidia sich die Chips sonstwohin schieben.
Ihr könnt den Release beeinflussen,laßt diese 9800gx2 Verarsche in den Regalen vergammeln,um so schneller müssen sie nachziehn
MEDIC-on-DUTY
2008-02-13, 12:37:12
Naja, nVidia hatte damals zum Start der G80 verlauten lassen, dass man keine Paperlaunchs mehr machen möchten. Bis dato hat man auch noch keine offiziellen Stellungnahmen erhalten. Damit ist alles weitere wie so oft reine Spekulation.
Ein G100 im ersten oder zweiten Quartal ist doch sehr unwahrscheinlich. Freuen würde es mich natürlich auch. Dann hätte die 88er ausgedient.
Fakt ist, dass nVidia mit der verfrühten Namensumstelleung auf die 9000er Serie viele Leute verwirrt hat. Die DAUs sicherlich nicht, aber die mit etwas technischem Interesse wohl sehr wohl. Auch dieses hin und her mit der GTS vor Weihnachten - einfach nur Murks.
Anarchy-HWLUXX
2008-02-13, 12:47:02
Die Möglichkeit der Vorstellung im März finde ich nicht unrealistisch. War bei der GF6 doch auch nicht anders. Im Frühjahr war die Vorstellung, und dann dauerte es nochmal ein paar Monate, bis man Karten auch kaufen konnte.
Paperlaunches sind bei nV scho lange vergangenheit ... stattdessen gibt es teilweise schlechte verfügbarkeit weil nicht genug Karten produziert werden können.
Ist es eigentlich offiziell, dass die neue GX2 9800 genannt wird? Sinnvoller wäre doch 8900GX2.
Ich hoffe jedenfalls, dass diese Specs einigermaßen hinkommen. Wenn der (echte) G80-Nachfolger nicht mindestens 2-3x schneller ist als eine 8800Ultra, kann nVidia sich die Chips sonstwohin schieben.
8900GX2 würde mehr sinn machen aber "9800GX2" konnte man auf grafiken sehen die das Typische nV design haben :|
Spasstiger
2008-02-13, 13:17:41
http://www.pcgameshardware.de/aid,631912/News/Spezifikationen_der_Geforce_9800_GTX_durchgesickert/
was soll man davon halten?
im märz so einen chip wär mal extrem unwahrscheinlich oder?
zumal die gx2 ja komplett über wäre
Halte ich auch für Unfug. Ein verdoppelter G92 mit höheren Taktraten und in 55 nm würde die GX2 mehr als überflüssig machen. Und die GX2 kommt definitiv.
Da hat wohl jemand die theoretischen Daten der GX2 aufgeschnappt und mit etwas Spekulatius angereichert. ;)
GeneralHanno
2008-02-13, 13:41:28
also der ominöse GT200 wird wohl in 55nm sein, richtig Ailuros?
also der ominöse GT200 wird wohl in 55nm sein, richtig Ailuros?
Der GT200 kommt doch eh erst im 2. Halbjahr 2008? Da ist es doch selbstverständlich, dass der maximal in 55 nm kommt. Alles größere wäre eine erbärmliche und peinliche Vorstellung seitens nV.
Der GT200 wird wohl 65nm, einfach weil es keinen Grund gibt, auf 55nm umzusteigen.
Nvidia hat im Gegensatz zu ATI den Stromverbrauch im Griff und muss daher nicht am Limit der Fertigungstechnik operieren.
K4mPFwUr$t
2008-02-13, 14:33:24
es hat schon vorteile. auch beim stromverbrauch könnte nV noch arbeiten. nur gehen sie lieber auf nummer sicher. wo ATI mit dem neusten prozess öfters mal auf die schnautze geflogen ist, lässt nV lieber TSMC und co vorarbeiten.
Hvoralek
2008-02-13, 14:40:23
Der GT200 wird wohl 65nm, einfach weil es keinen Grund gibt, auf 55nm umzusteigen.
Nvidia hat im Gegensatz zu ATI den Stromverbrauch im Griff und muss daher nicht am Limit der Fertigungstechnik operieren.Kleinere Fertigungsprozesse sparen ja nicht nur Energie, sondern v.a. Chipfläche. Ein 55- nm- Chip wäre in 65 nm knapp 40% größer. Zumindest die imM hier herumspukenden 1,7 Mrd Transistoren würde wohl niemand in 65 nm sehen wollen :wink:
GeneralHanno
2008-02-13, 14:50:47
ich bezog mich auf folgendes zitat von Ail:
Der 55nm chip ist produktionsreif (nach 4 zuverlaessigen Quellen die darauf bestehen, etwas schwer zu bezweifeln), ergo sollte man erstmal nuechtern die benoetigte Zeit bis zur Produktion dazurechnen. 2+6 = 8
war damit nun der Gt200, G92 Rev B oder G90 oder G100 gemeint ???
Mr.Magic
2008-02-13, 15:10:40
es hat schon vorteile. auch beim stromverbrauch könnte nV noch arbeiten. nur gehen sie lieber auf nummer sicher. wo ATI mit dem neusten prozess öfters mal auf die schnautze geflogen ist, lässt nV lieber TSMC und co vorarbeiten.
nVidia hat einfach keine Lust nochmal mit einem verfrühten Shrink auf die Fresse zu fallen. GeForce FX anyone?
Der GT200 wird wohl 65nm, einfach weil es keinen Grund gibt, auf 55nm umzusteigen.
Nvidia hat im Gegensatz zu ATI den Stromverbrauch im Griff und muss daher nicht am Limit der Fertigungstechnik operieren.
Der 55nm Prozess von TSMC ist nicht stromsparender als der 65nm Prozess, ganz im Gegenteil.
Nightspider
2008-02-13, 15:20:12
Der 55nm Prozess von TSMC ist nicht stromsparender als der 65nm Prozess, ganz im Gegenteil.
Smiley vergessen ?
AnarchX
2008-02-13, 15:20:33
Der 55nm Prozess von TSMC ist nicht stromsparender als der 65nm Prozess, ganz im Gegenteil.
Ja, momentan und für ATis GPUs.;)
Smiley vergessen ?
Nein, das stimmt. RV635 verbraucht mehr als RV630, trotz weniger Transistoren.
Hvoralek
2008-02-13, 15:25:39
Ja, momentan und für ATis GPUs.;)Wahrscheinlich generell, wenn man ihn mit solchen Spannungen betreibt?
Smiley vergessen ?
Nein.
Ja, momentan und für ATis GPUs.;)
Achja ich vergaß das nV natürlich zaubern kann und bei den gleichen Fabriken und dem gleichen Prozess mehr herausholt. Wie unaufmerksam von mir. rolleyes:
Wahrscheinlich generell, wenn man ihn mit solchen Spannungen betreibt?
Wie hoch ist denn die Spannung bei RV635? Wohl kaum höher als bei RV630, der um 75Mhz höher taktet. Es scheint sich ähnlich wie beim 80nm Prozess zu verhalten, der ja auch aufgrund der höheren Leckstrome beim HS Prozess mehr Leistung benötigte.
reunion
AnarchX
2008-02-13, 15:30:39
Achja ich vergaß das nV natürlich zaubern kann und bei den gleichen Fabriken und dem gleichen Prozess mehr herausholt. Wie unaufmerksam von mir. rolleyes:
Ist nunmal so, NV hat hier deutlich mehr Know-How bei der Nutzung der TSMC-Prozesse, was man auch an NV42 vs R430, NV43 vs RV410 oder auch G73-B1 vs RV535 sah. :wink:
Ist nunmal so, NV hat hier deutlich mehr Know-How bei der Nutzung der TSMC-Prozesse, was man auch an NV42 vs R430, NV43 vs RV410 oder auch G73-B1 vs RV535 sah. :wink:
Das Argument ist lächerlich. Ich könnte jetzt genau so gut dutzende andere Beispiele aufzeigen, die das Gegenteil "beweisen". NV ist mindestens seit 90nm durchgehend locker ein halbes Jahr hinter ATi, was neue Fertigungsprozesse betrifft, und kann deshalb auch auf entsprechende Verbesserungen der Prozesse zurückgreifen. Der 110nm Prozess wurde von AMD bewusst nur in der lowcost-Variante verwendet, und ist deshalb als Vergleich mehr als unpassend. Die Fertigungshallen sind identisch, die zur Verfügung stehenden Prozesse sind identisch. Das Ergebnis wird auch identisch sein, wenn man von Designunterschieden absieht. Da gibt es nichts zu winken.
reunion
Hvoralek
2008-02-13, 16:22:16
Wie hoch ist denn die Spannung bei RV635? Wohl kaum höher als bei RV630, der um 75Mhz höher taktet. Es scheint sich ähnlich wie beim 80nm Prozess zu verhalten, der ja auch aufgrund der höheren Leckstrome beim HS Prozess mehr Leistung benötigte.Das weiß ich nicht, offenbar ist sie aber für die Strukturbreite ziemlich hoch. Ich dachte allerdings eher an RV670, an dem für 55 nm auf jeden Fall eine sehr hohe Spannung anliegt. Bei G200 kann man wohl von deutlich niedrigeren Taktraten als bei RV670 und D8P ausgehen, sodass man auch die Spannung entsprechend senken können sollte.
Aber klar: Wenn ATI ziemlich schmale Chips baut, die dafür hoch takten und dann entsprechende Spannungen anlegen muss, ist natürlich immer der jeweilige Prozess schuld und nicht dieses Vorgehen oder Fehler bei der Chipkonstruktion.
Warum man es bei RV 635 anscheinend nicht geschafft hat, die Spannungen dem kleineren Fertigungsprozess anzupassen, kann ich Dir nicht sagen. Wenn man es nicht einmal hinbekommen hat, mit dem Chip die Taktraten des RV630 zu erreichen (war ja geplant als 3670), spricht das mMn dafür, dass bei dem Ding sowieso einiges schiefging.
AnarchX
2008-02-13, 16:42:53
Prozess ist ja nicht gleich Prozess, bei TSMC kann man ja dann noch zwischen diversen Varianten wählen: GT, GP, GC, HS, G,...
Wohlmöglich hat NV hier immer das bessere Händchen bei der Auswahl.
btw.
In meinen Beispielen hatte NV immer eine komplexere GPU, die sich höher takten ließ als die weniger komplexe auf ATis Seite.
Prozess ist ja nicht gleich Prozess, bei TSMC kann man ja dann noch zwischen diversen Varianten wählen: GT, GP, GC, HS, G,...
Genau, und eine low-Power option (LP) gibt s bei 55nm nicht.
http://www.tsmc.com/english/b_technology/b01_platform/b010101_65nm.htm
http://www.tsmc.com/english/b_technology/b01_platform/b010101_55nm.htm
AnarchX
2008-02-13, 16:57:53
Wobei es AFAIK auch möglich ist, dass der IHV in Zusammenarbeit mit TSMC sich einen entsprechenden Prozess konfiguriert.
Aber dafür fehlte AMD wohl diesmal das nötige Kapital bzw. war es für sich nicht lohnend.
reunion
2008-02-13, 17:00:38
Das weiß ich nicht, offenbar ist sie aber für die Strukturbreite ziemlich hoch. Ich dachte allerdings eher an RV670, an dem für 55 nm auf jeden Fall eine sehr hohe Spannung anliegt. Bei G200 kann man wohl von deutlich niedrigeren Taktraten als bei RV670 und D8P ausgehen, sodass man auch die Spannung entsprechend senken können sollte.
Klaro.
Aber klar: Wenn ATI ziemlich schmale Chips baut, die dafür hoch takten und dann entsprechende Spannungen anlegen muss, ist natürlich immer der jeweilige Prozess schuld und nicht dieses Vorgehen oder Fehler bei der Chipkonstruktion.
Was soll diese plumpe Unterstellung? Es ging um den Vergleich 65nm vs. 55nm. Das diese vorgehensweise von ATi natürlich zu höherer Verlustleistung führt ist logisch. Nur war das bei RV630 nicht anders, deshalb ist der Vergleich sehr wohl legitim.
Warum man es bei RV 635 anscheinend nicht geschafft hat, die Spannungen dem kleineren Fertigungsprozess anzupassen, kann ich Dir nicht sagen. Wenn man es nicht einmal hinbekommen hat, mit dem Chip die Taktraten des RV630 zu erreichen (war ja geplant als 3670), spricht das mMn dafür, dass bei dem Ding sowieso einiges schiefging.
Bei RV620 ist es nicht anders. Auch dieser benötigt bei gleichen Taktraten mehr als RV610. Die Chips sind kaum mehr als ein optischer Shrink. Die Libaries sind ohnehin identisch. Was hier groß schlief laufen sollte, würde mich doch mal interessieren.
btw.
In meinen Beispielen hatte NV immer eine komplexere GPU, die sich höher takten ließ als die weniger komplexe auf ATis Seite.
Und was soll das beweisen? ATi steigt eben früher auf neue Fertigungsprozesse um und muss deshalb alte nicht so stark ausreizen. Zudem sind zwei deiner drei Beispiele mit 110nm, den ATi wie schon gesagt bewusst nur in der Lowcost-Variante verwendete. Beim letzten kam der NV-Chip eine halbe Ewigkeit später. Nicht alles was hinkt ist ein Vergleich. Genau so gut könnte ich jetzt damit kommen:
R360: 107mio Transistoren in 150nm bei 412Mhz
NV25: 63mio Transistoren in 150nm bei 300Mhz
Oder damit:
R480: 160mio Transistoren in 130nm bei 540Mhz.
NV30: 130mio Transistoren in 130nm bei 500Mhz.
Soll ich weiter machen?
AnarchX
2008-02-13, 17:13:09
Nur geht es hier um 55nm und somit um Half-Nodes.
Schliesslich war ja die Fragestellung ob NV mehr Nutzen aus 55nm ziehen kann als AMD, deren aktuelle GPUs wohl gerade mal einen Die-Size-Vorteil erzielen.
Und da würde ich doch auf Grund der positiven Ergebnisse von NV in der Vergangenheit mit einem "ja" antworten, Ailuros deutete ja mal auch soetwas an: "mit mathematischer Genauigkeit von einem Erfolg zum anderen", wenn auch dieser Erfolg wohl NV etwas kostet, was man sich aber leisten kann.
reunion
2008-02-13, 17:25:32
Nur geht es hier um 55nm und somit um Half-Nodes.
Schliesslich war ja die Fragestellung ob NV mehr Nutzen aus 55nm ziehen kann als AMD, deren aktuelle GPUs wohl gerade mal einen Die-Size-Vorteil erzielen.
Und da würde ich doch auf Grund der positiven Ergebnisse von NV in der Vergangenheit mit einem "ja" antworten, Ailuros deutete ja mal auch soetwas an: "mit mathematischer Genauigkeit von einem Erfolg zum anderen", wenn auch dieser Erfolg wohl NV etwas kostet, was man sich aber leisten kann.
Ach nur bei Half-Nodes ist nV besser? Das wird ja immer abenteuerlicher. Wo bleibt eigentlich der 55nm Chip von nV, wo man doch darin so überlegen ist? Vor dem 2. Halbjahr scheint das wohl nichts zu werden...
Hvoralek
2008-02-13, 17:44:31
Klaro.Und Obwohl Nvidia mit deutlich niedrigerer Spannung arbeiten wird, soll man die Probleme, die AMD mit 55 nm hat, 1:1 übertragen können?
Was soll diese plumpe Unterstellung? Es ging um den Vergleich 65nm vs. 55nm. Das diese vorgehensweise von ATi natürlich zu höherer Verlustleistung führt ist logisch. Nur war das bei RV630 nicht anders, deshalb ist der Vergleich sehr wohl legitim.Ich hatte den Eindruck, dass Du für den hohen Stromverbrauch der letzten AMD- Chips so ziemlich alles verantwortlich machtest, nur nicht die Konstruktion der Chips. Das habe ich vlt. etwas aggressiv ausgedrückt.
Zu RV635: Wo es da klemmt, kann ich Dir auch nicht sagen. Aber denkst Du nicht, dass es irgendwelche Probleme gegeben haben muss, wenn man mit einem einfachen Shrink nicht einmal die Taktraten der früheren Version erreicht, obwohl das ursprünglich so geplant war?
Bei RV620 ist es nicht anders. Auch dieser benötigt bei gleichen Taktraten mehr als RV610.Hast Du dazu irgendwelche Zahlen? Ich habe gerade nur einen Vergleich einer 512- MB- 3450 (600/ 500 MHz) mit einer HM- 2400- Pro (525 / - MHz) (http://www.tomshardware.com/de/HD-3650-HD-3450-Radeon-ATi,testberichte-239946-20.html) gefunden. Der Unterschied beim Systemverbrauch liegt bei 4 - 6W (was allein schon der Speicher ausmachen könnte).
Und was soll das beweisen? ATi steigt eben früher auf neue Fertigungsprozesse um und muss deshalb alte nicht so stark ausreizen. Zudem sind zwei deiner drei Beispiele mit 110nm, den ATi wie schon gesagt bewusst nur in der Lowcost-Variante verwendete. Beim letzten kam der NV-Chip eine halbe Ewigkeit später.Und wie viel Zeit erwartest Du zwischen AMDs ersten 55- nm- Chips und G200?
Aber wie gesagt: Bei 1,7 Mrd Transistoren wären 800 MHz Irrsinn.
Aber wie gesagt: Bei 1,7 Mrd Transistoren wären 800 MHz Irrsinn.
Naja, warum rechnest du mit 800MHz? nV ist bisher immer wieder mit der neuen Generation einen Schritt zurück gegangen mit den Taktraten. Die 9800GTX Single GPU Karte wird wohl mit 800MHz oder drumherum betrieben.
Was der G200 zu bieten hat, werden wir sehen. Eine Evolution des G80 Designs mit 32ROPs und 96TA/TUs wäre denkbar dazu X-beliebge Anzahl an SUs. 256Bit SI bei GDDR5 ist wohl denkbar, ein 384Bit SI dürfte hier nicht nötig sein, aber dürfte sich auch nicht hinderlich Auswirken.
Den richtigen Sprung, bei dem die ROPs und SI verschmelzen erwartet sowieso jeder erst mit G100 (oder eben einfach der Nachfolger der November2008 GPU, um mal von den Codenamen wegzukommen, die möglicherweise Falsch sind ;)).
NV geht eher in die Breite mit der Architektur als in die Höhe mit den Taktraten.
Hvoralek
2008-02-13, 21:30:45
Naja, warum rechnest du mit 800MHz? nV ist bisher immer wieder mit der neuen Generation einen Schritt zurück gegangen mit den Taktraten.Ich erwarte deutlich unter 800 MHz ("Bei G200 kann man wohl von deutlich niedrigeren Taktraten als bei RV670 und D8P ausgehen, sodass man auch die Spannung entsprechend senken können sollte"). Eben deshalb meinte ich ja, das wäre auch "Irrsinn".
Hab ich falsch verstanden, das sind wir ja d'accord.
AnarchX
2008-02-13, 21:59:20
Niedriger als D8P? Ich würde doch schon etwas um die 700MHz erwarten, der Stromverbrauch soll ja nochmals G80 um einiges toppen.
Und von G71 auf G80 hat man ja auch deutlich mehr Einheiten verbaut, die trotzdem im Fall der kritischen ROPs/TMUs auf 88% G71-Takt liefen und das bei gleichem Fertigungsprozess.
Schliesslich soll ja GT200 primär die Leistungskrone deutlich an sich reißen und nicht die für Leistung pro Watt.
laser114
2008-02-13, 22:03:58
Naja, mal schauen - wird sicherlich auch von der Konkurrenz abhängen.
AnarchX
2008-02-13, 22:06:46
Naja, mal schauen - wird sicherlich auch von der Konkurrenz abhängen.
Wenn man 8800 GTX und Ultra betrachtet, dann ist das wohl weniger ein Aspekt.
Sicher wird die ursprüngliche Projektion auf Basis einer Schätzung des Konkurrenzproduktes erstellt, aber auch wenn diese nicht eintritt, so bleibt man wohl bei dieser, wenn alles nach Plan läuft.
laser114
2008-02-13, 22:08:51
Wenn man 8800 GTX und Ultra betrachtet, dann ist das wohl weniger ein Aspekt.
Zur Einführung der 8800 GTX konnte sie ihre Stärken aber noch nicht überall zeigen. Klar, der Mikrochip bleibt der selbe - aber die Taktraten werden wenn man die Leistungskrone erstmal nicht fürchten muss sicherlich so angepasst, dass die TDP und damit die Lüftung noch im Rahmen bleibt. Dürfte dem Verkauf ebenfalls dienlich sein.
GeneralHanno
2008-02-13, 22:09:02
und der yieldrate und der spannungsskalierung. die taktraten werden sowieso entgültig zum teil erst 1 monat vor launch festgelegt ;)
aber ich würde auch von einem coretakt ~600mhz ausgehen und shader so ~2Ghz
zudem: wenn man die leistungskrone hat ist folgende strategie ganz nett (88GTX > 88ULTRA oder 1900XT > XTX). jedes MHz mehr lässt man sich in gold aufwiegenm ;)
laser114
2008-02-13, 22:14:10
und der yieldrate und der spannungsskalierung. die taktraten werden sowieso entgültig zum teil erst 1 monat vor launch festgelegt ;)
Naja, dem sollte das sowieso angepasst werden.
Wenn alles nach Plan läuft muss man hier aber nichts abspecken. Wenn nicht freut man sich eben über die nicht vorhandene Konkurrenz.
Insgesamt dürfte das Produkt dann aber für Nvidia immer noch entsprechende Marge abliefern ohne das es enttäuschen würde.
Hvoralek
2008-02-13, 23:48:25
Niedriger als D8P? Ich würde doch schon etwas um die 700MHz erwarten, der Stromverbrauch soll ja nochmals G80 um einiges toppen.Ich würde eher etwas um 550 - 600 MHz tippen. Wenn der Chip nicht nur (ohne großartige neue Features) 2,5x so komplex ist wie G80, sondern auch noch erheblich höher taktet, wäre "nur" etwa die dreifache Leistung doch ziemlich enttäuschend. Ein Verbrauch von ~200 W real läge nur etwa 50W über dem eines G80, auch insofern würde mich eine nennenswerte Takterhöhung wundern.
Schliesslich soll ja GT200 primär die Leistungskrone deutlich an sich reißen und nicht die für Leistung pro Watt.Die Referenzkühlung soll aber schon mit Luft auskommen, oder?
Ailuros
2008-02-14, 05:34:18
also der ominöse GT200 wird wohl in 55nm sein, richtig Ailuros?
Egal wie das verdammte Ding am Ende genannt wird in H2 kommt 55nm.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.