PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 3 (der letzte?)


Seiten : 1 [2] 3 4

reunion
2007-01-22, 13:56:42
Ich denke AMD wird künftig mehr Druck auf seine neue Sparte Ati ausüben.
Vielleicht kommt der R700 schon im November, zeitgleich mit nVidias kommenden Nextgen.

Jetzt mal runter vom Gas. Es ist mehr als unwahrscheinlich, dass G90 oder R700 noch dieses Jahr erscheinen werden.

Und im Beyond3d.com Forum wird von Cebit als Vorstellung und eine Woche später von Verkauf geredet.
Macht für mich mehr Sinn, da man solch eine Karte eher auf einer großen Messe vorstellen wird als kurz vorher. Immerhin kann man auf der Messe schon feiern.

Möglich. Dann sind es eben vier-ein-halb Monate. Wir werden sehen.

Ailuros
2007-01-22, 14:03:49
VR-Zone schreibt auch ueber hypothetische 750/1100MHz fuer die XTX. Die Taktrate klingt mir ein klein bisschen zu moderat.

Gmax
2007-01-22, 15:18:28
Jetzt mal runter vom Gas. Es ist mehr als unwahrscheinlich, dass G90 oder R700 noch dieses Jahr erscheinen werden.


War ja auch reine Spekulation :wink:
Was ich damit verdeutlichen wollte: AMD wird es künftig nicht mehr zulassen, daß nv ein halbes Jahr vor Ati mit deren Nextgen in den Markt preschen. Ist doch verständlich, oder?

Mr. Lolman
2007-01-22, 15:52:21
Und was hat TSAA aka Transparency Supersampling mit Transparency Multisampling genau zu tun?

Ich meinte die 8xAA Benchmarks ohne TSAA.


Ich hoffe Du meinst keine Screenshots; setzt Dich vor eine G80 wenn moeglich und probier es selber aus.

Doch. Sollte auf Screenshots die Szene vom ATi EATM nicht zu unterscheiden sein, nehm ich meine Aussage zurück. :)

AnarchX
2007-01-22, 16:31:04
VR-Zone schreibt auch ueber hypothetische 750/1100MHz fuer die XTX. Die Taktrate klingt mir ein klein bisschen zu moderat.

Auch so liegen ja bei den Specs von VR-Zone, XTX und XT ungewöhnlich weit auseinander.:|

Bei Taktrate hatte ich mittlerweile doch auch etwas von 800MHz+ geschätzt.
Wie war das noch: R600@700MHz ~ G80@575MHz? ;)

Die gelbe Eule
2007-01-22, 16:47:36
Die Cebit feiert keiner mehr. ATi hat sich doch aus Kostenfrage dort zurückgezogen, glaube kaum das AMD genau da die Werbetrommel rührt. Naja, wäre trotzdem besser als der Ibiza Fake Launch ^^

Black-Scorpion
2007-01-22, 17:00:11
Der Grund war einfach das ATI außerhalb der USA und Canada keine Karten verkauft.
Nur AIW Karten kommen von ATI.
Und dafür fährt man nicht zu einer Messe, sondern überlässt das den Partnern.

AMD ist auf der Cebit vertreten also durchaus möglich das die Karte dort vorgestellt wird.

deekey777
2007-01-22, 18:05:05
Ich möchte zunächst etwas wieder in Erinnerung bringen:

Was allgemeines: Postings wie "R600 ist Müll" oder "R600 macht alles platt" sind sehr unerwünscht, auch unerwünscht sind Postings mit Kaufabsichten ohne weiteres. Bleibt sachlich, hier geht es nicht um Wünsche, sondern um unbestätigte Infos.

http://www.reghardware.co.uk/2007/01/22/asus_preannounces_mobility_radeon_x2300/
http://forums.vr-zone.com/showthread.php?t=123791

The websites in China are reporting that AMD will launch the R600 in 8-9th of March and will be officially named as Radeon X2K series. The more mature production silicon seems to be still at A12 and it will be the silicon for the R600 cards at launch. However, the good news is that ATi has successfully taped out A15 silicon that will work at 1GHz so probably we can expect another series of cards in the near future that work at higher clocks eg. Radeon X2850. The next generation R680 seems to come quickly, scheduled for Q3 but based on previous experience, we can expect a Q4 launch instead. Interestingly, they said AMD will announce Fusion CPU which is slated for 2008/2009. NVIDIA will have G81 and the next generation G90 to fend off the competition.

1GHz wären natürlich ein Hammer... in Kombination mit einer fast doppelt so hohen Speicherbandbreite dürfte das Teil ca. 50% schneller sein als ne 8800GTX... schätze ich jetzt mal (Mit weniger braucht AMD/ATI auch gar nicht erst daherzukommen... sonst wird der R600 wahrscheinlich eine Woche später vom G81 geplättet ;)

auch gut zu wissen, dass die R680 schnell kommen soll (R520 all over again?).
Wenn es um Spekulationen geht, war vr-zone nur bei nVidia eine gute Quelle. Egal.
Was sollen denn 1 GHz bringen? Es geht nicht nur um den Takt an sich, sondern um die Anzahl der Recheneinheiten. Das ist das Problem. Da wird der hohe Takt nicht viel bringen.

reunion
2007-01-22, 18:18:25
Asus confirms AMD ATI Mobility Radeon X2300 imminent:
http://www.reghardware.co.uk/2007/01/22/asus_preannounces_mobility_radeon_x2300/

Gast
2007-01-22, 18:33:14
Asus confirms AMD ATI Mobility Radeon X2300 imminent:
http://www.reghardware.co.uk/2007/01/22/asus_preannounces_mobility_radeon_x2300/

Schöner name für einen RV550 ... :)

deekey777
2007-01-22, 18:35:33
Schöner name für einen RV550 ... :)
Meinst du? Es wäre zwar nicht das erste Mal (9000), aber ziemlich dreist.

AnarchX
2007-01-22, 18:39:39
Ich kann mir auch nicht recht vorstellen, dass die X2300 auf einem RV550 basiert, da ...300... eigentlich immer für eine GPU mit dem Techlevel der restlichen Serie stand.
Hinter der Radeon X2100 könnte sich eher ein RV550 verbergen.

Aber wenn es wirklich so ist, wäre ein neues Level der Kundetäuschung erreicht, Xpress X1150 und X1250 stossen zwar schon übel auf, aber sind auf Grund des IGP-Daseins und der Bezeichnung Xpress doch etwas entfernter von der normalen Radeon-Serie.
Am besten abwarten, man wird es ja früh genug erfahren.

reunion
2007-01-22, 18:51:58
Laut den Linuxtreibern ist die Mobility X2300 ein M71 AFAIK, also ganz klar eine neue Gen.

AnarchX
2007-01-22, 18:54:51
Laut den Linuxtreibern ist die Mobility X2300 ein M71 AFAIK, also ganz klar eine neue Gen.

In wieweit klar?
Mobility R9600 -> M10
Mobility RX600 -> M24

reunion
2007-01-22, 19:02:19
Ich verstehe nicht, auf was du hinaus willst. Die R4xx-Reihe wurde bei ATi als neue Gen. geführt. So oder so ist diese Diskussion doch müßig, es gibt absolut keinen Grund anzunehme, dass hier ein RV550 verbaut wird, außer dem Kommentar eines dubiosen Gastes. Und wie schon gesagt, die 300 war bis jetzt immer der Name für die Low-End-Reihe einer neuen Gen. Aber wir werden es ohnehin bald wissen.

AnarchX
2007-01-22, 19:11:52
es gibt absolut keinen Grund anzunehme, dass hier ein RV550 verbaut wird
Naja, ich sehe da schon einen Grund: man hat für ein bestimmtes Marksegment kein neues Produkt, da wird dann halt einfach die Nomenklatur des neuen Produkts auf dieses angewendet.
Der Kunde glaubt dann er habe die neuste Generation(wie es bei der R9000/R9200/R9250 und bei der RX1050 geschah/geschieht).

Aber wie du schon sagst, die Zeit wird es zeigen.
Ich persönlich denke auch, dass die Aktion zu dreist wäre, als das man soetwas durchzieht.

Übrigens das "Gerücht", das die X2300 auf Last-Gen basieren soll, kommt aus einer PCIe-Vendor-List, wo sie als M64... bezeichnet wird, wurde auch so bei B3D aufgegriffen.

deekey777
2007-01-22, 19:13:14
Das Problem ist dieses Posting von Uttar:
http://www.beyond3d.com/forum/showpost.php?p=914326&postcount=766
I ponder if this is anything more than the RV550...


Uttar
Hier heißt es abwarten und Tee trinken. Dass ein X2300 in einen Laptop verbaut wird, ist nichts Neues, schließlich hat MSI auf der CES zwei Modelle mit dem X2300 gezeigt.

reunion
2007-01-22, 19:16:06
Hm, das wüsste ich nicht. Möglich, dass die M X2300 ein M64 ist, und die M X2300 "HD" dann der M71. Denn dieser scheint eindeutig in den Linuxtreibern auf. Das wäre dann aber wirklich eine Frechheit, denn dieses kleine Zeichen würde dann eine gewaltigen Unterschied machen. BTW, MSI zeigte AFAIK auch eine M X2600 - dieser dürfte ja dann hoffentlich doch auf R600 basieren. :)

seahawk
2007-01-22, 19:35:57
bösartig lönnte man auch anderes annehmen, das es ein RV570 Ableger ist. (was ich aber nicht glaube)

deekey777
2007-01-22, 19:38:36
Die mobile X1900 basiert auf dem RV570.


Radeon X2000 avant l'heure? (http://www.hardware.fr/news/8554/radeon-x2000-avant-heure.html)

AnarchX
2007-01-22, 19:46:15
Wenn Google das richtig übersetzt hat, dann hat ASUS sogar bestätigt, dass die X2300 nichts anderes als eine umbenannte X1450 ist.
X2300HD, soll der M71 Ableger sein(oder wie Google wörtlich es meint "ein von der R6xx-Architektur abgeleiteter Floh des Bereichseingangs" X-D)

Was soll man dazu sagen... :down:

Gast
2007-01-22, 23:46:42
Wenn Google das richtig übersetzt hat, dann hat ASUS sogar bestätigt, dass die X2300 nichts anderes als eine umbenannte X1450 ist.
X2300HD, soll der M71 Ableger sein(oder wie Google wörtlich es meint "ein von der R6xx-Architektur abgeleiteter Floh des Bereichseingangs" X-D)

Was soll man dazu sagen... :down:

Mei das hat ATI vor ein paar Jahren schon einmal gemacht. Ich weiss jetzt nur nicht mehr genau bei welchem Produkt das war.

Spasstiger
2007-01-24, 00:36:46
Mei das hat ATI vor ein paar Jahren schon einmal gemacht. Ich weiss jetzt nur nicht mehr genau bei welchem Produkt das war.
Die Radeon X1050 ist z.B. nur eine umgelabelte Radeon 9550.

Mich würde beim R600 mal brennend die Kühllösung interessieren. Bei einer High-End-Karte bastel ich ungerne am Kühler rum und alles deutlich über 8800-GTX-Lautstärkenniveau finde ich schon nicht mehr akkzeptabel. Unter 2 Sone ist unter 3D ein Muss, in 2D sollte die Lautstärke sogar unter 1 Sone liegen. Von daher hat die GeForce 8800 GTX bisher ein großes Plus in meiner Kaufentscheidung.

boxleitnerb
2007-01-24, 07:15:28
Also wenn man eine Wakü hat, ist es wohl Pflicht, die Karte damit einzubinden. Bein Lautstärke kenn ich kein Tabu :)

nagus
2007-01-24, 07:58:09
Ruby DX10 Screenshoot: (R600)

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=30003&d=1169621799

Ruby DX9 Screenshoot: (R580)

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=30004&d=1169621799

micki
2007-01-24, 08:26:50
schaut nicht so überzeugend aus in Relation zu so einigen Spielen die auf den Markt kommen (Crysis,HL2...)

puntarenas
2007-01-24, 08:35:12
Geschmackssache, also wenn ich mir die Grafik drumherum vorstelle, dann bin ich durchaus überzeugt :D

James Ryan
2007-01-24, 08:37:12
schaut nicht so überzeugend aus in Relation zu so einigen Spielen die auf den Markt kommen (Crysis,HL2...)

Schön wie einige einen 100*100 Screenshot gleich wieder passend kommentieren. ;D :ucrazy2:

MfG :cool:

The_Invisible
2007-01-24, 08:39:12
naja, seit Adrianne nix besonderes mehr -> http://www.nzone.com/docs/IO/38151/screenshot2.jpg

mfg

nagus
2007-01-24, 08:56:06
schaut nicht so überzeugend aus in Relation zu so einigen Spielen die auf den Markt kommen (Crysis,HL2...)

sehr geistreich.... und das möcht ich sehen welches spiel auch nur annähernd so ausschaut wie die DX9 Demos von ATI!

... und cysis mit hl2 zu vergleichen > MEGALOL! da sind WELTEN dazwischen

Spasstiger
2007-01-24, 09:36:26
Ruby DX10 Screenshoot: (R600)

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=30003&d=1169621799

Ruby DX9 Screenshoot: (R580)

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=30004&d=1169621799
Die Shadowmaps sind ja einiges feiner aufgelöst, das Subsurface Scattering kommt auch wesentlich besser zur Geltung. Trotzdem siehts noch viel zu künstlich aus. Uncanny Valley halt. :)

micki
2007-01-24, 09:57:30
Schön wie einige einen 100*100 Screenshot gleich wieder passend kommentieren. ;D :ucrazy2:

MfG :cool:
musst ja nicht gleich quieken wenn ich meine meinung sage und die ist weiterhin dass in relation zu http://www.gameslave.co.uk/imageviewer.cfm?img=9772&title=Crysis
die beiden renderings von ATI weniger realistisch aussehen.

reunion
2007-01-24, 10:52:26
Ruby DX10 Screenshoot: (R600)

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=30003&d=1169621799

Ruby DX9 Screenshoot: (R580)

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=30004&d=1169621799

Ist das ein Pelz den Ruby da trägt?
Sieht nach einer Winterszene aus. :)

musst ja nicht gleich quieken wenn ich meine meinung sage und die ist weiterhin dass in relation zu http://www.gameslave.co.uk/imageviewer.cfm?img=9772&title=Crysis
die beiden renderings von ATI weniger realistisch aussehen.

Naja, wenn ich mir die Augen, oder die Haare der Frau ansehe, dann ist es mit Realismus bei deinen Shot ganz schnell vorbei. Auch die Polygonanzahl dürfte bei Ruby um ein vielfaches höher sein. Die Texturen wirken allerdings zugegebenermaßen deutlich realistischer. Letztendlich ist das geschmackssache, und lässt sich nicht wirklich objektiv beurteilen. Auch weiß man noch gar nicht, was sich in der Szene noch alles abspielt, ATi rendert ja im Gegensatz zu nV nicht nur einen Spielfigur. Adrianne wirkt auf mich jedenfalls genauso künstlich.

Die gelbe Eule
2007-01-24, 11:03:20
Techdemos sind doch schnurz, es würde kein Spiel geben, das auch nur in die Nähe kommt. Oder wieviele DVDs würdet Ihr installieren wollen? 15?
Wichtiger ist doch, was kann der R600 besser als der G80. Eine weitere Evolution wäre fast langweilig, man brauch also eine Revolution.

AnarchX
2007-01-24, 11:21:45
AMD promises R600 for "1st quarter"
AMD held their 4th quarter 2006 financial results conference call on Tuesday. In answer to a question about the timing of their next generation R600 GPU, AMD's Henri Richard, Executive Vice President of Worldwide Marketing and Sales, replied: "We're still planning to bring to market the R600 product in the 1st quarter".
http://www.beyond3d.com/#news37931

Die gelbe Eule
2007-01-24, 11:32:11
"Still planning ..." Also Ende März, vorher nicht. Wird wohl Aufgrund höherer Gewalt eher April werden. ATi lernt es nicht, sie geben wieder seit Monaten Marktanteile ab und verschlafen einen psychologischen Launch mit Vista. Ob AMD dann auch Preisnachlässe mitspielen wird?

Anarchy-HWLUXX
2007-01-24, 11:33:59
Genauergesagt in den letzten Tagen des ersten Quartals ...


R600 final silicon turns up

http://uk.theinquirer.net/?article=37155



PS : Wenn AMD sagt Release im Q1 dann wird es auch so kommen.

reunion
2007-01-24, 11:38:57
"Still planning ..." Also Ende März, vorher nicht. Wird wohl Aufgrund höherer Gewalt eher April werden. ATi lernt es nicht, sie geben wieder seit Monaten Marktanteile ab und verschlafen einen psychologischen Launch mit Vista. Ob AMD dann auch Preisnachlässe mitspielen wird?

Ein schönes Drama, das du hier vorspielst. Es ist schon lange bekannt, dass R600 im März kommen soll. Und die paar popeligen High-End-Karten, die nV bis zum R600 Launch verkauft, werden sich in der Statistik nicht mal zeigen lassen, so unbedeutend wenig werden das in diesem Preissegment sein. Der einzige, der momentan den Preis pruzeln lässt, ist übrigens nV - warum auch immer.

micki@work
2007-01-24, 11:43:55
Naja, wenn ich mir die Augen, oder die Haare der Frau ansehe, dann ist es mit Realismus bei deinen Shot ganz schnell vorbei.
Naja, ist schwer zu vergleichen, da 1. auf dem bild von ati sowas nicht zu sehen ist und 2. Skulpturartige gebilde (wie die koepfe bei crytek so rumposen) nicht wirklich lebendige augen usw. haben.

Auch die Polygonanzahl dürfte bei Ruby um ein vielfaches höher sein.wobei das seit ein paar Jahren nicht mehr wirklich ein qualitaetsfaktor ist

Auch weiß man noch gar nicht, was sich in der Szene noch alles abspielt, ATi rendert ja im Gegensatz zu nV nicht nur einen Spielfigur. Adrianne wirkt auf mich jedenfalls genauso künstlich.
Mike hatte glaube ich auch eine Szene oder meinst du was anderes?

Ich finde es weit aus besser wenn sie sich daran versuchen tote Gegenstaende realistisch darzustellen. Bei lebendigen dingen wirkt das immer seltsammer, je realistischer sie versuchen die darstellung zu machen... my2cent

seahawk
2007-01-24, 12:07:41
"Still planning ..." Also Ende März, vorher nicht. Wird wohl Aufgrund höherer Gewalt eher April werden. ATi lernt es nicht, sie geben wieder seit Monaten Marktanteile ab und verschlafen einen psychologischen Launch mit Vista. Ob AMD dann auch Preisnachlässe mitspielen wird?

März war eigentlich schon lange, ja eigentlich seit Nov06, klar. Der G80 hat sich, wie man hört, wohl äußerst zögernd verkauft und NV muss bereits jetzt die Preise senken, um die Dinger überhaupt los zu werden. Die Verspätung vom R600 ist zwar bedauerlich, aber wie so oft, dürfte ATI wieder das überlegene Produkt anbieten, so dass die Verzögerung hinnehmbar ist, besonders weil die Mainstream-Chips gut in der Zeit liegen. Freuen wir uns auf März.

micki@work
2007-01-24, 12:14:28
März war eigentlich schon lange, ja eigentlich seit Nov06, klar. Der G80 hat sich, wie man hört, wohl äußerst zögernd verkauft und NV muss bereits jetzt die Preise senken, um die Dinger überhaupt los zu werden. Liegt dann aber eher an der Produktstrategie als an der Hardware.
statt: "ist jetzt doppelt so schnell" gibt es nur "DX10 und Vista graphikkarte" und die Kunden sagen sich zumeist wohl "Aber ich hab noch garkein Vista/DX10-Spiele" und wundern sich was sie in dem Fall mit der G80 sollten.

Da hat ATI vielleicht vorteile mit dem spätem Release.

Armaq
2007-01-24, 12:29:04
Was ATI macht ist einfach nur schädlich. Wenn sie es haben, dann raus damit. NV wird dadurch sicher nicht schwächer.

Schaut halt ins Forum. Wir reden über die Ableger der 8800er und nebenbei wird ATI mit dem r600 diskutiert. Was sagt uns das?

Anarchy-HWLUXX
2007-01-24, 12:48:41
Ein schönes Drama, das du hier vorspielst. Es ist schon lange bekannt, dass R600 im März kommen soll. Und die paar popeligen High-End-Karten, die nV bis zum R600 Launch verkauft, werden sich in der Statistik nicht mal zeigen lassen, so unbedeutend wenig werden das in diesem Preissegment sein. Der einzige, der momentan den Preis pruzeln lässt, ist übrigens nV - warum auch immer.

Es sind vielleicht wenige Karten - dafür spült ne einzelne 8800GTX mehr Gewinn in die Kassen als hunderte Low-End Teile ! Je länger ATI braucht umso mehr G80er kann nV ungestört an den mann bringen ... und woher nimmst du das mit purzelnden Preisen ? Die Preisempfehlung von nV hat sich nicht verändert in den letzten Wochen - was man jetzt merkt ist der Preiskampf unter den einzelnen Händlern ... die leiute die nicht sonderlich auf's Geld achten haben scho gekauft, jetzt müssen die Preise runter damit die weniger gut betuchten und Schnäppchenjäger auch noch kaufen.

StefanV
2007-01-24, 12:51:49
Mei das hat ATI vor ein paar Jahren schon einmal gemacht. Ich weiss jetzt nur nicht mehr genau bei welchem Produkt das war.
R200 -> 8500 wurd zu 9100 (allerdings auch weitaus günstiger als als 8500, da man noch einige R200 Chips hatte und man die unbedingt irgendwie losbekommen musste und wie wir alle wissen ist verschenken billiger als entsorgen).

"Still planning ..." Also Ende März, vorher nicht. Wird wohl Aufgrund höherer Gewalt eher April werden. ATi lernt es nicht, sie geben wieder seit Monaten Marktanteile ab und verschlafen einen psychologischen Launch mit Vista. Ob AMD dann auch Preisnachlässe mitspielen wird?
Die Frage ist doch vielmehr, was AMD denn nun wirklich plant??
Ob die nicht ev. doch eher einen Hardlaunch bevorzugen statt eines Paperlaunches, der ja schon locker möglich wäre...
Dazu kommt noch das in China zeitweise für 'ne Woche alle Fabriken still stehen, aufgrund von Neujahr...

Da machts nun auch nicht wirklich sinn, in diesem Zeitraum irgendwas zu veröffentlichen...

Mancko
2007-01-24, 13:05:56
Ein schönes Drama, das du hier vorspielst. Es ist schon lange bekannt, dass R600 im März kommen soll. Und die paar popeligen High-End-Karten, die nV bis zum R600 Launch verkauft, werden sich in der Statistik nicht mal zeigen lassen, so unbedeutend wenig werden das in diesem Preissegment sein.

Die aber ihre Auswirkungen auf den Marktanteil nach Umsatz haben und natürlich direkt auch auf die kleineren Produkte aufgrund der guten PR. Zahlen lügen nicht und die belegen seit mehr als 12 Monaten Marktanteilsverluste für ATI in wichtigen Segmenten. Da dürften rote Zahlen winken wie auch bei der AMD Mutter zur Zeit.

Mancko
2007-01-24, 13:09:02
Die Verspätung vom R600 ist zwar bedauerlich, aber wie so oft, dürfte ATI wieder das überlegene Produkt anbieten, so dass die Verzögerung hinnehmbar ist, besonders weil die Mainstream-Chips gut in der Zeit liegen. Freuen wir uns auf März.

Was heisst das überlegenere Produkt. Das überlegener Produkt ist der G80 weil seit Monaten existent bei Einzelhändlern und käuflich erwerblich. ATI hat nur einen R5xx anzubieten.

Ailuros
2007-01-24, 13:11:18
Da das Silizium produktionsreif ist, starten sie gerade mit der Massenproduktion. Ueber die Verfuegbarkeit kann man noch nichts sagen, denn fuer 2 Wochen machen die Asiaten fuer's chinesische neue Jahr dicht. Einen Paperlaunch sehe ich zwar nicht, aber breitere Verfuegbarkeit sollte man ab Mitte Maerz erwarten.

Gast
2007-01-24, 13:14:14
Was heisst das überlegenere Produkt. Das überlegener Produkt ist der G80 weil seit Monaten existent bei Einzelhändlern und käuflich erwerblich. ATI hat nur einen R5xx anzubieten.


Nur ist gut.Ati hat mit der X1950 Pro und X1950 XT 2 ueber P/L kracher im petto die sich sicherlich besser als die G80 Karten verkaufen.;)

Ailuros
2007-01-24, 13:14:18
Zu den Shots: NV sollte sich dringend ein paar talentierte artists einstellen, denn die Mehrzahl ihrer Techdemos sind zwar technisch fortschrittlich, aber sie sehen meistens ziemlich langweilig aus. Im Gegensatz haben die ATI Kerle viel mehr Geschmack und Phantasie, von demos, ueber wallpapers oder was auch immer.

Gast
2007-01-24, 13:15:42
Zu den Shots: NV sollte sich dringend ein paar talentierte artists einstellen, denn die Mehrzahl ihrer Techdemos sind zwar technisch fortschrittlich, aber sie sehen meistens ziemlich langweilig aus. Im Gegensatz haben die ATI Kerle viel mehr Geschmack und Phantasie, von demos, ueber wallpapers oder was auch immer.
Ja Ruby ist schon ziemlich Geil.

Die gelbe Eule
2007-01-24, 13:18:55
Wofür eigentlich der Respin? Hat man vielleicht gemerkt, das die Taktrate jetzt nicht reicht um die GTX zu schlagen? Das mit dem Resfreh ist Bullshit, weil dann würde erstmal alle wieder warten, bis das bessere Modell kommt.
NV wird kaum die 800er Marke fahren wollen, weil wenn sie es könnten, hätten sie es auch bereits. So müsste ein R600 1GHz fast doppelt so schnell sein, wie eine 8800GTX, wenn man sich anschaut wie gut die GTS mit mehr Takt skaliert. Und schon sind wir im Land der Träume ...

Ailuros
2007-01-24, 13:21:22
Nur ist gut.Ati hat mit der X1950 Pro und X1950 XT 2 ueber P/L kracher im petto die sich sicherlich besser als die G80 Karten verkaufen.;)

Es gibt direkte Konkurrenten fuer diese GPUs von NVIDIA, obwohl ich ehrlich gesagt heute ohne weiteren Gedanken bei einem solchen Dilemma sofort auf eine RV570 greifen wuerde. $200 GPUs haben ueberhaupt nichts gemeinsam mit $600+ Boliden.

Neben dem offensichtlichen finanziellen Verlust der R600 Verspaetung, gibt es noch einen weiteren sehr wichtigen Nebeneffekt: Entwickler die mit >D3D9 Spielentwicklung schon begonnen haben fuer die weitere Zukunft, haben um einiges frueher G80 in der Hand.

Ailuros
2007-01-24, 13:24:06
Wofür eigentlich der Respin? Hat man vielleicht gemerkt, das die Taktrate jetzt nicht reicht um die GTX zu schlagen? Das mit dem Resfreh ist Bullshit, weil dann würde erstmal alle wieder warten, bis das bessere Modell kommt.
NV wird kaum die 800er Marke fahren wollen, weil wenn sie es könnten, hätten sie es auch bereits. So müsste ein R600 1GHz fast doppelt so schnell sein, wie eine 8800GTX, wenn man sich anschaut wie gut die GTS mit mehr Takt skaliert. Und schon sind wir im Land der Träume ...

Nach den letzten Geruechten bin ich mir gar nicht so sicher dass die erste XTX erstmal 800MHz erreichen wird. Ein Refresh mit hoeherer Frequenz sollte man aber dann schon erwarten. Die Masche ist dann wie immer die uebliche: NV wartet auf R600 fuer G81; ATI wartet auf G81 fuer R6x0 usw usw. Wirklich nichts Neues ;)

reunion
2007-01-24, 13:26:39
Wofür eigentlich der Respin? Hat man vielleicht gemerkt, das die Taktrate jetzt nicht reicht um die GTX zu schlagen?

Stell' dir vor, auch bei G80 ist nicht das A0 Silizium gleich in Massenproduktion gegangen. :rolleyes:

Die gelbe Eule
2007-01-24, 13:27:36
Tja, nur ist immernoch NV damit vorne, weil sie nachlegen können, wenn sie müssen. SChon hat NV wieder Highmainstream Produkte, welche in den jetzigen Bereich von 300€ rutschen, ohne das sie was neues bauen müssten.
Und da leigt die Gefährlichkeit für ATi, etwas gleichwertiges entgegensetzen zu können, ohne Mehrkosten zu haben. NV brauch den Takt ja eh nicht, weil GX2 ;)

Stell' dir vor, auch bei G80 ist nicht das A0 Silizium gleich in Massenproduktion gegangen. :rolleyes:

Nur musste der G80 damals schon kommen? Man hatte die 7950GX2, welche eh schneller war als alles andere. ATi kann auch nicht zaubern, wenn GDDR4 Ram noch so teuer ist.

seahawk
2007-01-24, 13:28:12
Was heisst das überlegenere Produkt. Das überlegener Produkt ist der G80 weil seit Monaten existent bei Einzelhändlern und käuflich erwerblich. ATI hat nur einen R5xx anzubieten.

Das überlegen Produkt bedeutet, dass der Kunde länger was von der Karte hat. Besonders in Spiele für den API die KArte eigentlich gedacht war.

seahawk
2007-01-24, 13:32:25
Tja, nur ist immernoch NV damit vorne, weil sie nachlegen können, wenn sie müssen. SChon hat NV wieder Highmainstream Produkte, welche in den jetzigen Bereich von 300€ rutschen, ohne das sie was neues bauen müssten.
Und da leigt die Gefährlichkeit für ATi, etwas gleichwertiges entgegensetzen zu können, ohne Mehrkosten zu haben. NV brauch den Takt ja eh nicht, weil GX2 ;)

Nur musste der G80 damals schon kommen? Man hatte die 7950GX2, welche eh schneller war als alles andere. ATi kann auch nicht zaubern, wenn GDDR4 Ram noch so teuer ist.

NV muss den Preis senken weil die Dinger in den Regalen liegen bleiben.

KM hier hat im Laden 4 unterschiedliche GTX und 6 unterscheidliche GTS rumliegen. Aber gerade noch 1 X1950XTX und auch nur 2 X1950PRo, weil die Dinger so verkauft werden.

Gast
2007-01-24, 13:32:57
Das überlegen Produkt bedeutet, dass der Kunde länger was von der Karte hat. Besonders in Spiele für den API die KArte eigentlich gedacht war.
Also so wie jetzt der vergleich 7900/X1900.

Die gelbe Eule
2007-01-24, 13:35:45
NV muss den Preis senken weil die Dinger in den Regalen liegen bleiben.

KM hier hat im Laden 4 unterschiedliche GTX und 6 unterscheidliche GTS rumliegen. Aber gerade noch 1 X1950XTX und auch nur 2 X1950PRo, weil die Dinger so verkauft werden.

Es sind High End Produkte. Ist wie mit Oberklasseautos, die verkaufen sich auch nicht 10fach täglich beim Händler. Hier feilscht man um Ausstattung und Preis, was anderes passiert mit VGA Karten auch nicht. Wenn ich die Wahl habe, 2-3 Spiele für lau zu bekommen, welche einen Gegenwert von 75€ haben, warum sich nur mit 2 DVI Adaptern zufriedengeben?

LovesuckZ
2007-01-24, 13:36:24
Das überlegen Produkt bedeutet, dass der Kunde länger was von der Karte hat. Besonders in Spiele für den API die KArte eigentlich gedacht war.

Komm Seahawk. Deine wankene Meinung in ehren, aber du hast keine Belege für diese Aussagen.
Nvidia's Architektur scheint keine vergleichbaren Schwachpunkte zu haben, wie in der DX9 Ärea. Das zeigt auch schon die hohe Transistorzahl, welche annährend mit der von ATi gleichzieht.

Ailuros
2007-01-24, 13:36:52
Das überlegen Produkt bedeutet, dass der Kunde länger was von der Karte hat. Besonders in Spiele für den API die KArte eigentlich gedacht war.

AMD behauptet hinter den Kulissen dass R600 um ca. 10% schneller ist als G80 unter D3D10 und NVIDIA dass R600 den G80 um ueber 40% (generell) in den Boden stampft. Da Du selber die zweite Misinformation/FUD weitergetragen hast (und nein es ist kein Vorwurf, wir werden alle mal an der Nase herumgefuehrt...), kannst Du selber versuchen die Wahrheit auszugraben.

Falls der Unterschied wirklich am Rand des Gleichstands liegt, faellt das D3D10 Rennen nur noch auf die bessere und schnellere D3D10 Optimierung; und bevor jemand fragt die MUL geht bis jetzt im D3D10 Treiber auch noch nicht LOL ;)

reunion
2007-01-24, 13:39:55
Tja, nur ist immernoch NV damit vorne, weil sie nachlegen können, wenn sie müssen. SChon hat NV wieder Highmainstream Produkte, welche in den jetzigen Bereich von 300€ rutschen, ohne das sie was neues bauen müssten.
Und da leigt die Gefährlichkeit für ATi, etwas gleichwertiges entgegensetzen zu können, ohne Mehrkosten zu haben. NV brauch den Takt ja eh nicht, weil GX2 ;)


Eine GX2 mit G80 will ich erstmal sehen. Das dürfte wohl so manchen Tower sprengen. Und sonst, wo sind die Midrage- und Lowend-Produkte von nV? Sieht fast so aus, als ob ATi hier fast gleichzieht, und das trotz 65nm Fertigung.


Nur musste der G80 damals schon kommen? Man hatte die 7950GX2, welche eh schneller war als alles andere. ATi kann auch nicht zaubern, wenn GDDR4 Ram noch so teuer ist.

Das hat nichts mit müssen, oder können, oder wollen zu tun. Es ist bei einem solchen Chip völlig normal, dass nicht das erste Tapeout gleich in Massenproduktion geht. Viele Bugs werden erst bei der Fertigung erkannt, auch die Yieldrate ist bei ersten Tapeout meistens mieß, hier benötigt es Optimierungen, und das braucht eben seine Zeit. Und das unabhängig von ATi, nVidia, Intel, oder sonst wen.

Die gelbe Eule
2007-01-24, 13:44:36
NV musste doch deshalb im Mainstream nichts bedienen, weil Vista gar nicht da war. So langsam kommt das erst in Fahrt und es gibt noch keinen anderen Hersteller, egal ob Intel/AMD/S3 oder VIA, welche überhaupt DX10 Hardware anbieten. NV kann weiteroptimieren, Treiber testen, das Feedback von Kunden einholen, das liegt bei ATI noch in der Schublade. Und hier ist der klare Vorteil, nicht im jetzigen Verkauf. Du weißt wie lange ATI brauchte, um nur einen VISTA Treiber aktuell zu halten, oder?
AMD muss schwarze Zahlen schreiben, so eine Übernahme spart nicht nur Geld, sie kostet auch. Und jeder Tag nicht verkaufte DX10 Karten, ist ein verlorener Tag.

reunion
2007-01-24, 13:44:45
Das zeigt auch schon die hohe Transistorzahl, welche annährend mit der von ATi gleichzieht.

Ich glaube sogar, dass nV in dieser Hinsicht mehr zu bieten hat, wenn man sich mal rein die Die-Größen ansieht, und die normalerweise engere Packdichte bei nV. Die 720mio, welche irgend jemand in die Welt gesetzt hat, sind IMO nicht wirklich ernst zu nehmen.

Gast
2007-01-24, 13:47:03
NV muss den Preis senken weil die Dinger in den Regalen liegen bleiben.

Ganz im Gegenteil.


KM hier hat im Laden 4 unterschiedliche GTX und 6 unterscheidliche GTS rumliegen.


Na und?


Aber gerade noch 1 X1950XTX und auch nur 2 X1950PRo, weil die Dinger so verkauft werden.

Abverkauf alter Ware, welcher Händler bestellt denn jetzt noch das alte ATI Zeugs, wo der Nachfolger in den Startlöcher steht?

Ailuros
2007-01-24, 13:48:22
Eine GX2 mit G80 will ich erstmal sehen. Das dürfte wohl so manchen Tower sprengen. Und sonst, wo sind die Midrage- und Lowend-Produkte von nV? Sieht fast so aus, als ob ATi hier fast gleichzieht, und das trotz 65nm Fertigung.

Wenn R600@CF keine PCs sprengen wird, dann hat theoretisch eine GX2 auch kein Problem ;)

Das hat nichts mit müssen, oder können, oder wollen zu tun. Es ist bei einem solchen Chip völlig normal, dass nicht das erste Tapeout gleich in Massenproduktion geht. Viele Bugs werden erst bei der Fertigung erkannt, auch die Yieldrate ist bei ersten Tapeout meistens mieß, hier benötigt es Optimierungen, und das braucht eben seine Zeit. Und das unabhängig von ATi, nVidida, Intel, oder sonst wen.

Das erste tapeout kann auf keinen Fall zur Massenproduktion fuehren, so viel ist wahr. Was jetzt den Rest betrifft, NVIDIA hatte seit 2005 genug Zeit die SPs mit etwas Handarbeit auf 1.35GHz auf Trab zu bringen und den Stromverbrauch zu kontrollieren, waehrend ATI es verdammt schwer hatte nicht nur die ROP bugs zu beseitigen sondern auch die Frequenz und den Stromverbrauch unter Kontrolle zu bringen. Dass R600 mehr spins brauchte kannst Du locker schlucken, sonst haetten sie es auch zeitgleich veroeffentlicht. Die Dev-Exemplare einige Entwickler im Sommer von beiden IHVs bekamen, liess den einen wie einen IGP erscheinen im Vergleich zum anderen.

reunion
2007-01-24, 13:51:01
NV musste doch deshalb im Mainstream nichts bedienen, weil Vista gar nicht da war.


Mach dich nicht lächerlich, was für einen Sinn macht dann G80? :rolleyes:


So langsam kommt das erst in Fahrt und es gibt noch keinen anderen Hersteller, egal ob Intel/AMD/S3 oder VIA, welche überhaupt DX10 Hardware anbieten.


Intel hat schon ziemlich lange eine D3D10-IPG, auch wenn es da offensichtlich arge Treiberprobleme gibt.


Du weißt wie lange ATI brauchte, um nur einen VISTA Treiber aktuell zu halten, oder?

Ich weiß zwar nicht, was du mir mit diesem verkorksten Satz genau mitteilen willst, aber die aktuellen ATi-Vista-Treiber sind jedenfalls in punkto Kompatiblität und Leistung um einiges weiter als bei Nvidia. Es gibt ja AFAIK noch nicht mal einen vernünftigen D3D10-Treiber für G80.

Undertaker
2007-01-24, 13:54:29
Nur ist gut.Ati hat mit der X1950 Pro und X1950 XT 2 ueber P/L kracher im petto die sich sicherlich besser als die G80 Karten verkaufen.;)

nicht wirklich...

http://www.steampowered.com/status/survey.html

praktisch identisch viele x1950 und 8800er... wenn man jetzt bedenkt, das die 8800er erst weitaus später auf den markt kamen und deutlich teurer sind, gehen die 1950er nicht gerade gut weg...

Die gelbe Eule
2007-01-24, 13:56:26
Der G80 war fertig, konnte also raus und man hatte damit das schnellste und beste Gerät auf dem Markt, das auf Monate gesichert. Alles andere habe ich ausgeführt. ATi hat nichtmal eine Karte für einen D3D10 Treiber, was ist also vernünftiger?

reunion
2007-01-24, 13:57:52
Wenn R600@CF keine PCs sprengen wird, dann hat theoretisch eine GX2 auch kein Problem ;)


Nur will ich erstmal sehen, wie nV einen GX2 auf G80-Basis nach dem Vorbild der 7950GX2 baut. Bei dem Stromverbauch dürfte es etwas schwieriger sein, zwei Platinen so eng zusammenzuklatschen, und auf einer Platine (darauf bezog ich mich oben) würde es wohl jeden Tower sprengen.

ATi hat nichtmal eine Karte für einen D3D10 Treiber, was ist also vernünftiger?

Es wäre ja schon toll, wenn wenigstens die D3D9-Treiber vernünftig funktionieren würden. Oder wenn es wenigstens überhaupt schon einen offiziellen Vista-Treiber für G80 geben würde.

Gaestle
2007-01-24, 13:58:15
ATi hat nichtmal eine Karte für einen D3D10 Treiber, was ist also vernünftiger?

Du drehst Dir's aber auch so wie Du's brauchst.

LovesuckZ
2007-01-24, 14:00:57
Nur will ich erstmal sehen, wie nV einen GX2 auf G80-Basis nach dem Vorbild der 7950GX2 baut.

Werden sie nicht.
Sie haben es auch nur gemacht, weil der G71 so verdammt sparsam war.
Auch haben sie jetzt nForce Chipsätze für C2D Prozessoren auf dem Markt, wodurch sie auch hier SLI ermöglichem.

Ailuros
2007-01-24, 14:03:52
Nur will ich erstmal sehen, wie nV einen GX2 auf G80-Basis nach dem Vorbild der 7950GX2 baut. Bei dem Stromverbauch dürfte es etwas schwieriger sein, zwei Platinen so eng zusammenzuklatschen, und auf einer Platine (darauf bezog ich mich oben) würde es wohl jeden Tower sprengen.

GX2 war auch keine 2*7900GTX ;) Theoretisch ist es schon moeglich, die Frage ist eher ob sich solch eine Loesung lohnt oder ob man sie auch wirklich braucht.

seahawk
2007-01-24, 14:06:39
Nur will ich erstmal sehen, wie nV einen GX2 auf G80-Basis nach dem Vorbild der 7950GX2 baut. Bei dem Stromverbauch dürfte es etwas schwieriger sein, zwei Platinen so eng zusammenzuklatschen, und auf einer Platine (darauf bezog ich mich oben) würde es wohl jeden Tower sprengen..

2 niedriger getaktete G80 (sagen wir GTS -Takt) könnte man evtl. in einem Anfall von Irrsinn schon hinbekommen.

Undertaker
2007-01-24, 14:08:47
Es wäre ja schon toll, wenn wenigstens die D3D9-Treiber vernünftig funktionieren würden. Oder wenn es wenigstens überhaupt schon einen offiziellen Vista-Treiber für G80 geben würde.

den wird es zum offiziellen launch geben, und wer sich jetzt schon vista besorgt hat (der großteil wohl eh illegal) wird die paar tage auch noch mit einem (gar nichtmal so miesen) betatreiber leben können

seahawk
2007-01-24, 14:08:55
AMD behauptet hinter den Kulissen dass R600 um ca. 10% schneller ist als G80 unter D3D10 und NVIDIA dass R600 den G80 um ueber 40% (generell) in den Boden stampft. Da Du selber die zweite Misinformation/FUD weitergetragen hast (und nein es ist kein Vorwurf, wir werden alle mal an der Nase herumgefuehrt...), kannst Du selber versuchen die Wahrheit auszugraben.

Falls der Unterschied wirklich am Rand des Gleichstands liegt, faellt das D3D10 Rennen nur noch auf die bessere und schnellere D3D10 Optimierung; und bevor jemand fragt die MUL geht bis jetzt im D3D10 Treiber auch noch nicht LOL ;)

Jetzt bin ich völlig verwirrt, welchen Sinn sollte es für NV machen ne FUD Kampagne zu fahren in der man das eigene Produkt übertrieben schlecht darstellt ?

Ailuros
2007-01-24, 14:09:23
Intel hat schon ziemlich lange eine D3D10-IPG, auch wenn es da offensichtlich arge Treiberprobleme gibt.

Es gehoert zwar in einen anderen Thread, aber ich hab das muerbe Gefuehl dass das Treiberproblem erst mit SGX beseitigt werden wird *shrug*

Ich weiß zwar nicht, was du mir mit diesem verkorksten Satz genau mitteilen willst, aber die aktuellen ATi-Vista-Treiber sind jedenfalls in punkto Kompatiblität und Leistung um einiges weiter als bei Nvidia. Es gibt ja AFAIK noch nicht mal einen vernünftigen D3D10-Treiber für G80.

R600/G80 Vista Treiber haben nichts mit anderen GPUs zu tun. Ich weiss zwar nicht ob ATI nicht auch zu einer Trennung des R600 Treibers gezwungen sein wird, aber es wuerde mir keinen besonderen Eindruck machen. Wie dem auch sei DX9 HW under Vista ist kein Vergleich fuer D3D10 HW. Ob der D3D10 Treiber des G80 jetzt vernuenftig ist oder nicht, weisst Du jetzt selber woher?

mapel110
2007-01-24, 14:11:35
Mit PCIe 2.0 ist das dann doch sowieso möglich von der Leistungsaufnahme her, soweit ich informiert bin. Aber ich würde eher davon ausgehen, dass sowas frühestens beim Refresh in einer kleineren Fertigungsstruktur ansteht.

Aber wir sind hier ziemlich offtopic mal wieder. ;(

Ailuros
2007-01-24, 14:12:04
Jetzt bin ich völlig verwirrt, welchen Sinn sollte es für NV machen ne FUD Kampagne zu fahren in der man das eigene Produkt übertrieben schlecht darstellt ?

Genau aus dem gleichen Grund wie R520 8 quads hatte. Ausser Du glaubst NV weiss nicht schon seit einiger Zeit was sie von R600 mehr oder weniger erwarten koennen? Entwickler blubbern auch gerne off the record.

Gaestle
2007-01-24, 14:13:19
Jetzt bin ich völlig verwirrt, welchen Sinn sollte es für NV machen ne FUD Kampagne zu fahren in der man das eigene Produkt übertrieben schlecht darstellt ?

Meine Ideen dazu:
a) man könnte eine anfangs eventuell begrenzte Verfügbarkeit eigener Produkte durch eine gesenkte Nachfrage kaschieren

b) man hat (von ATi) enttäuschte Leute, wenn die neue Ati-HW diesen Phantasmen nicht gerecht wird und gleichzeitig gute Verfügbarkeit der eigenen Produkte (und evtl. einen geringeren Preis)

reunion
2007-01-24, 14:14:40
Jetzt bin ich völlig verwirrt, welchen Sinn sollte es für NV machen ne FUD Kampagne zu fahren in der man das eigene Produkt übertrieben schlecht darstellt ?

Psychologie. Wenn die Kunden etwas erwarten, was nicht eingehalten wird, ist man enttäuscht, und kauft nicht. Wenn hingegen die Erwartungen übertroffen werden, ist man begeistert und kauft.

seahawk
2007-01-24, 14:20:31
Aber das würde nur funktionieren, wenn G80 schnller oder gleichschnell wäre. Ansonsten wäre die auf R600 wartenden Kunden zwar von diesem enttäsucht würden aber trotzdem im Zweifel wohl die schnellere Karte nehmen.

Es gibt eigentlich nur 2 Optionen bei denen es Sinn macht, wenn R600 geringfügig schneller wäre.

a) man senkt den Preis und versaut ATI/AMD so die Marge, was man sich aber selber erstmal leisten können muss

b) außer man hätte den eigenen Refresh schon in Hinterhand, der schneller und/oder kostengünstiger wäre

reunion
2007-01-24, 14:21:31
Es gehoert zwar in einen anderen Thread, aber ich hab das muerbe Gefuehl dass das Treiberproblem erst mit SGX beseitigt werden wird *shrug*


Nachdem man mittlerweile nach mehreren Monaten statt dem lange ersehnten 14.26er-Treiber (welcher angeblich endlich Hardware-Shader liefern soll) nur einen 14.25.50er-Treiber gebracht hat, habe ich schon fast das selbe Gefühlt: http://downloadmirror.intel.com/df-support/12540/ENG/relnotes_2k_xp_gfx.htm



R600/G80 Vista Treiber haben nichts mit anderen GPUs zu tun. Ich weiss zwar nicht ob ATI nicht auch zu einer Trennung des R600 Treibers gezwungen sein wird, aber es wuerde mir keinen besonderen Eindruck machen. Wie dem auch sei DX9 HW under Vista ist kein Vergleich fuer D3D10 HW. Ob der D3D10 Treiber des G80 jetzt vernuenftig ist oder nicht, weisst Du jetzt selber woher?

Ich habe nicht von D3D10 gesprochen, diese gibt es ja AFAIK noch gar nicht. Ich weiß nur, dass die aktuellen Vista-Treiber bei Nv wesentlich mehr Probleme machen als bei ATi. Bei meiner 6600GT funktioniert ungefähr jedes zweites Spiel nicht richtig, oder nur mit äußerst enttäuschender Geschwindigkeit. Bei ATi habe ich mit dem Vista Cat 7.1 hauptsächlich in OpenGL Probleme.

den wird es zum offiziellen launch geben, und wer sich jetzt schon vista besorgt hat (der großteil wohl eh illegal) wird die paar tage auch noch mit einem (gar nichtmal so miesen) betatreiber leben können

Es gibt mehr als genug Leute, die beruflich schon lange mit Vista arbeiten, und auch die SB-Version ist schon bei vielen Händler lieferbar.

Ailuros
2007-01-24, 14:28:06
Aber das würde nur funktionieren, wenn G80 schnller oder gleichschnell wäre. Ansonsten wäre die auf R600 wartenden Kunden zwar von diesem enttäsucht würden aber trotzdem im Zweifel wohl die schnellere Karte nehmen.

Es gibt eigentlich nur 2 Optionen bei denen es Sinn macht, wenn R600 geringfügig schneller wäre.

a) man senkt den Preis und versaut ATI/AMD so die Marge, was man sich aber selber erstmal leisten können muss

b) außer man hätte den eigenen Refresh schon in Hinterhand, der schneller und/oder kostengünstiger wäre

Gleich schnell klingt mir zu pessimistisch. Einen gesunden Vorsprung sollte R600 schon schaffen koennen, aber wohl keine 60%.

seahawk
2007-01-24, 14:31:42
Bei einem gesunden Vorsprung muss man aber selber eine Refresh bereithalten, der kurz danach selber einen gesunden Vorsprung hat. Oder man könnte sich einen Preiskampf ala G71 erlauben, was ich aber bei der Größe des G80 irgendwie nicht glauben mag.

Ailuros
2007-01-24, 14:33:47
Ich habe nicht von D3D10 gesprochen, diese gibt es ja AFAIK noch gar nicht. Ich weiß nur, dass die aktuellen Vista-Treiber bei Nv wesentlich mehr Probleme machen als bei ATi. Bei meiner 6600GT funktioniert ungefähr jedes zweites Spiel nicht richtig, oder nur mit äußerst enttäuschender Geschwindigkeit. Bei ATi habe ich mit dem Vista Cat 7.1 hauptsächlich in OpenGL Probleme.

Unter dem G80/Vista und XP/D3D9.0 Treiber-Druck leiden alle vorigen Produkte momentan. Das erste Ziel NV's ganz oben auf der Liste ist der G80/D3D10 Treiber; so bald sie mit dem Ding so weit sind, kehren sie dann alles andere zurecht.

NV will (und wohl ATI ebenso und auch gerechtfertigt) nicht duselig dastehen beim Vista-Launch (verdammt OT: aber mir gefaellt das backup Dingsbums in Vista Ultimate am meisten).

Ailuros
2007-01-24, 14:35:24
Bei einem gesunden Vorsprung muss man aber selber eine Refresh bereithalten, der kurz danach selber einen gesunden Vorsprung hat. Oder man könnte sich einen Preiskampf ala G71 erlauben, was ich aber bei der Größe des G80 irgendwie nicht glauben mag.

G71 kam auch erst nach der R520 und setzte sich gegen R580. Dabei war G70@110nm und G71@90nm. Faellt der Groschen jetzt? :wink:

Godmode
2007-01-24, 14:38:37
G71 kam auch erst nach der R520 und setzte sich gegen R580. Dabei war G70@110nm und G71@80nm. Faellt der Groschen jetzt? :wink:

G71 wurde doch in 90nm gefertigt! Die Frage ist jetzt ob G81 in 80nm oder gleich in 65nm kommt?

edit: du warst schneller beim editieren deines Beitrages ;D

LovesuckZ
2007-01-24, 14:41:20
G71 wurde doch in 90nm gefertigt! Die Frage ist jetzt ob G81 in 80nm oder gleich in 65nm kommt?

Es kommt drauf an, was der G81 ist.
Ich denke, dass der Konter auf dem r600 ein G80 in 80nm sein wird. Soweit sollte Nvidia im Sommer sein.
Der "richtige" Nachfolgechip (nicht neue Chipgeneration) wird dann wohl in 65nm kommen.

Ailuros
2007-01-24, 14:42:32
G71 wurde doch in 90nm gefertigt! Die Frage ist jetzt ob G81 in 80nm oder gleich in 65nm kommt?

Ich hatte Zeit genug den Tippfehler zu korrigieren, wie Du im quote auch sehen kannst. G80 war die letzte GPU auf 90nm, alles andere kommt auf 80nm von jetzt ab. Und da aus 65nm vor H2 nichts mehr wird, stehen die Chancen genau wie hoch dass ein G8x-Refresh davor auf 65nm kommen wuerde?

Ailuros
2007-01-24, 14:44:01
Es kommt drauf an, was der G81 ist.
Ich denke, dass der Konter auf dem r600 ein G80 in 80nm sein wird. Soweit sollte Nvidia im Sommer sein.
Der "richtige" Nachfolgechip (nicht neue Chipgeneration) wird dann wohl in 65nm kommen.

Refreshes kommen zwar immer seltener mit 6-monatigem Unterschied, aber wann erschien G80 nochmal auf Ladentischen?

LovesuckZ
2007-01-24, 14:46:54
Refreshes kommen zwar immer seltener mit 6-monatigem Unterschied, aber wann erschien G80 nochmal auf Ladentischen?

8. November. :)
Ich rechne nicht mit einem Preview auf der Cebit eines solchen Chips. Wahrscheinlich wird er irgendwann zwischen Mai und Juli präsentiert werden.

seahawk
2007-01-24, 14:54:51
G71 kam auch erst nach der R520 und setzte sich gegen R580. Dabei war G70@110nm und G71@90nm. Faellt der Groschen jetzt? :wink:

Danke. Das macht natürlich Sinn und paßt perfekt zur NV Strategie seit G7X.

deekey777
2007-01-24, 16:56:34
Wäre es möglich die Diskussion zu der Steam-Umfrage einzustellen? Für diese gibt es zunächst einen Thread, dann wurde dort auch alles gesagt.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=343128

dargo
2007-01-24, 17:42:35
Hier wird schon eine GX2 mit G80 GPUs prophezeit. :hammer:

Hat sich überhaupt schon jemand Gedanken über die Wärmeentwicklung gemacht? Nehmen wir mal an, die neue GX2 würde aus zwei G8800GTS GPUs bestehen. Die durch das PCB verdeckte GPU würde das nie überleben.

Eine G7950GX2 besteht praktisch aus zwei niedriger getakteten G7900GTs. Eine G7900GT mit 512MB liegt bei ca. 55W (mit den Taktraten der G7950GX2). Eine G8800GTS verbraucht mehr als das doppelte!

Ich halte eine GX2 auf G80 Basis zumindest in 90nm für ausgeschlossen! In 80nm ehrlich gesagt auch. In 65nm durchaus machbar.

Undertaker
2007-01-24, 17:52:57
ich wäre mir da nicht ganz so sicher, fakt ist: bzgl wärmeentwicklung ist noch spielraum nach oben vorhanden... eine 8800gtx bleibt auch unter vollast noch sehr leise, wenn man jetzt einen stärkeren lüfter verbaut, den kühler aus vollkupfer macht und weiter vergrößert sind bestimmt nocheinmal ~40w mehrverbrauch möglich - nimmt man nun 2 gts chips, selektiert diese nach geringster spannungsanforderung und bekommt beide auf ein board (was ich zusammen mit 20 speicherchips für ein arges problem halte), wäre das wohl gerade noch beherrschar...

aber dennoch stimme ich dir zu, eine solche karte ist extrem unwahrscheinlich... weitaus teurer und unpraktischer als zb eine selektierte gtx mit ~650-680/1200 (kann der g80 mit gddr4 umgehen?) welche wohl nicht viel langsamer wäre... ist wohl aber eh alles hypotetisch, so spät wie der r600 kommt, wird man sich wohl eher im fall der fälle mit ein paar wenigen wochen/monaten rückstand zufriedengeben um mit dem g81 dann wieder gleichzuziehen...

dargo
2007-01-24, 17:57:06
ich wäre mir da nicht ganz so sicher, fakt ist: bzgl wärmeentwicklung ist noch spielraum nach oben vorhanden... eine 8800gtx bleibt auch unter vollast noch sehr leise, wenn man jetzt einen stärkeren lüfter verbaut, den kühler aus vollkupfer macht und weiter vergrößert sind bestimmt nocheinmal ~40w mehrverbrauch möglich - nimmt man nun 2 gts chips, selektiert diese nach geringster spannungsanforderung und bekommt beide auf ein board (was ich zusammen mit 20 speicherchips für ein arges problem halte), wäre das wohl gerade noch beherrschar...

Du vergisst hier aber eins - eine GPU ist bei der GX2 auf einen Singleslotkühler angewiesen. Zusätzlich kommt noch ein weiterer großer Nachteil, dass eben diese GPU durch das PCB bedeckt ist was die Temperaturen noch mehr ungünstig beeinflusst.

deekey777
2007-01-24, 18:00:40
Auch wenn jetzt die meisten schreien, dass die c't unfähig sei, Grafikkarten zu testen, so haben die geschrieben, dass der Chip kühl bleibt und der Lüfter erste Sahne ist, aber die Platine an sich unnötig heiß wird (besonders die Rückseite).

Undertaker
2007-01-24, 18:05:46
wenn dann hätte ich auch eher an beide chips auf einer platine hintereinander gedacht... aber das ist wohl noch schwieriger zu realisieren :rolleyes:

dargo
2007-01-24, 18:12:44
wenn dann hätte ich auch eher an beide chips auf einer platine hintereinander gedacht... aber das ist wohl noch schwieriger zu realisieren :rolleyes:
Die Karte würde in kein Gehäuse (wegen der Länge) mehr passen.

deekey777
2007-01-24, 18:14:23
wenn dann hätte ich auch eher an beide chips auf einer platine hintereinander gedacht... aber das ist wohl noch schwieriger zu realisieren :rolleyes:

Gehäuse aufsägen?:biggrin:

Ehrlich gesagt, glaube ich nicht, dass es wieder GX2 geben wird, insbesondere weil beide Hersteller auf Lösungen mit 3 PEGs setzen (selbst wenn diese mit PCIe-Lanes nicht voll bestückt sind).
Aber auch hier heißt es: Tee trinken und abwarten.
Zu den Ruby-Bildern und der mangelnden Realität:
Hat Ruby je realistisch ausgesehen? Nein, sie hatte immer ihren Comic-Character.

Undertaker
2007-01-24, 18:16:14
naja, wie oben erwähnt, der platz ist halt das größte problem... daran wird auch ein 80/65nm shrink nichts ändern, high-end chips werden wohl auf absehbare zeit nur noch mit dualslotlüftern auskommen - damit wird zumindest eine klassische gx2 unmöglich

dargo
2007-01-24, 18:22:48
naja, wie oben erwähnt, der platz ist halt das größte problem... daran wird auch ein 80/65nm shrink nichts ändern ...
Mit 65nm wäre es möglich, sollte man durch den Die-Shrink die Verlustleistung des G80 bzw. dann schon vom Refreshchip auf das Niveau des G71 senken können. Es ist alles eine Frage der Verlustleistung der GPU. Ist diese klein gehalten hält sich die Stromversorgung auch in Grenzen womit das PCB nicht zu groß ausfallen muss.

Gast
2007-01-24, 18:38:47
Das Problem sind doch eher nicht die Grafik Chips sondern die Unmengen an Speicher Bausteinen und die ganze Elektronik für die Spannungsversorgung.
Ne 65mn G80 mit niedrigeren Taktraten daraus lässt sich sicher eine GX2 basteln, aber ob das wirtschaftlich ist oder nicht sei mal dahin gestellt. Vieleicht war GX2 auch nur eine Marketing Kampagne, es gab ja schon vorher viele Prototyp Karten mit älteren Chips die 2 Chips auf einer Karte Präsentierten nur halt als Tec Demo. Das hat man nun mal auf den Markt geworfen und ich denke je nachdem wie es ankam in blanken Zahlen wird man weiter sehen.
Muss ja auch nicht eine GTX GX2 sein, eine 8600GT GX2 wäre doch auch denkbar.

Gast
2007-01-24, 19:01:18
Auch wenn jetzt die meisten schreien, dass die c't unfähig sei, Grafikkarten zu testen, so haben die geschrieben, dass der Chip kühl bleibt und der Lüfter erste Sahne ist, aber die Platine an sich unnötig heiß wird (besonders die Rückseite).

Das ist aber ungewöhnlich, vielleicht lag der Kühler nicht 100% richtig auf der GPU auf und man hatte dort einen schlechten Wärmeübergang.

dargo
2007-01-24, 19:03:33
Das Problem sind doch eher nicht die Grafik Chips sondern die Unmengen an Speicher Bausteinen und die ganze Elektronik für die Spannungsversorgung.

Es wäre auch eine G8900GX2 (in 65nm?) mit 2x 512MB Vram denkbar. Und selbst bei 2x 640MB sehe ich nicht das große Problem. Sind ja nur 2 Chips je PCB mehr.
Nochmal, die Dimension der Spannungsversorgung hängt in erster Linie von der Verlustleistung der GPU ab.


Muss ja auch nicht eine GTX GX2 sein, eine 8600GT GX2 wäre doch auch denkbar.
Eine G8600GX2 wäre imho Unsinn da es sogar schnellere Single-GPU Grakas gibt. Das war eben der größte Vorteil der G7950GX2, es war die schnellste Graka für einen Slot.

w0mbat
2007-01-24, 19:11:43
Gehts hier nicht um den R600?

Soll jetzt mit 6+6 Pin statt 8+6 Pin kommen. Dazu 34cm Länge -.-

Black-Scorpion
2007-01-24, 19:13:38
Dazu 34cm Länge -.-
Wie viele cm sind 9" nochmal?
Jedenfalls einiges von 34cm entfernt. ;)

w0mbat
2007-01-24, 19:20:50
Wie viele cm sind 9" nochmal?
Jedenfalls einiges von 34cm entfernt. ;)

Es werden aber 13 1/2 inch. Der Kühler ist länger als das PCB :rolleyes:

dargo
2007-01-24, 19:22:37
Auch wenn jetzt die meisten schreien, dass die c't unfähig sei, Grafikkarten zu testen, so haben die geschrieben, dass der Chip kühl bleibt und der Lüfter erste Sahne ist, aber die Platine an sich unnötig heiß wird (besonders die Rückseite).
Schöne Grüße von zehn GDDR3 Speicherchips @800Mhz und der Stromversorgung. ;)

AnarchX
2007-01-24, 19:28:41
Es werden aber 13 1/2 inch. Der Kühler ist länger als das PCB :rolleyes:

Naja, VR-Zone ist im Bezug auf ATi bisher nicht die beste Quelle gewesen.
Wenn es doch stimmt, beziehen sich die 34cm wohl eher auf die OEM-Variante.

Undertaker
2007-01-24, 19:38:19
Mit 65nm wäre es möglich, sollte man durch den Die-Shrink die Verlustleistung des G80 bzw. dann schon vom Refreshchip auf das Niveau des G71 senken können. Es ist alles eine Frage der Verlustleistung der GPU. Ist diese klein gehalten hält sich die Stromversorgung auch in Grenzen womit das PCB nicht zu groß ausfallen muss.

wenn man 65nm zur verfügung hat, gibts aber wohl schon den g81, zumindest aber eine deutlich taktgesteigerte version welche die gewonnenen verbrauchsminderungen wieder auffrisst - eine gx2 mit 8800gts chips wäre dann wieder so sinnvoll wie eine 8600gx2 in nächster zeit

Ailuros
2007-01-24, 22:48:17
Schöne Grüße von zehn GDDR3 Speicherchips @800Mhz und der Stromversorgung. ;)

Komischerweise wird meine nie so heiss. Rechne ab wieviel eine GPU abkuehlen kann bis ich den PC ausschalte und sie beruehren kann (bei offenem Kasten) und man kann auch die Umgebungstemperaturen unter jedem Fall abmessen.

Das einzige was hier gruessen laesst sind vorzeitige Schlussfolgerungen ohne jegliche Echtzeit-Erfahrung mit dem Stueck zu haben.

DrumDub
2007-01-25, 10:01:52
Der OT-Kram zu Downloadrechnern und Stromverbrauch ist hier zu finden: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=345661

dargo
2007-01-25, 15:03:21
Das einzige was hier gruessen laesst sind vorzeitige Schlussfolgerungen ohne jegliche Echtzeit-Erfahrung mit dem Stueck zu haben.
Dafür brauche ich keine G80 Graka. Das PCB einer X1900XT wird auch nicht gerade kühl in Betrieb. Und, dass der Vram und die Stromversorgung die Wärme ans PCB weitergeben sollte mittlerweile jeder wissen.

Gast
2007-01-25, 16:36:04
ne gx2 ist sicher schon in 80nm und moderaten taktungen möglich

ein singleslot kühler auf der länge einer 7900gx2 sollte da locker ausreichen
die karte passt auch noch gut in viele gehäuse rein

nur an eine silentkühlung braucht man wohl erst gar net zu denken(wenn man von einer lukü ausgeht)

dargo
2007-01-25, 16:38:12
ne gx2 ist sicher schon in 80nm und moderaten taktungen möglich

Moderate Taktungen reichen aber nicht. Welchen Sinn sollte so eine Graka dann machen wenn sie im Endeffekt "nur" so schnell wie eine einzelne G8800GTX ist?

seahawk
2007-01-25, 17:26:23
Sagen wir zwei volle Chips ala G80 und einer Taktung von 550Mhz. Eine einzelne Karte müßte, bei einer angenommen SLI-Effizienz von 60%, um 800Mhz takten.

Fetza
2007-01-25, 22:45:54
Sagen wir zwei volle Chips ala G80 und einer Taktung von 550Mhz. Eine einzelne Karte müßte, bei einer angenommen SLI-Effizienz von 60%, um 800Mhz takten.

60 prozent ist aber viel zu tief gegriffen, sli skaliert wesentlich besser.

Gast
2007-01-25, 23:19:38
60 prozent ist aber viel zu tief gegriffen, sli skaliert wesentlich besser.
Aber nicht im durschnitt.:rolleyes:

Ailuros
2007-01-26, 06:18:02
Dafür brauche ich keine G80 Graka.
Das PCB einer X1900XT wird auch nicht gerade kühl in Betrieb. Und, dass der Vram und die Stromversorgung die Wärme ans PCB weitergeben sollte mittlerweile jeder wissen.

Keine Praxisnahe Erfahrung unterstuetzt natuerlich jegliche Schlussfolgerung :rolleyes: Wie dem auch sei die ambiente Temperatur liegt stets um ca. 15C niedriger als die Core-Temperatur. Wenn ich den Kasten offen lasse, abschalte und die GPU von hinten antaste, dann ist sie zwar nicht kuehl, aber man kann sie anfassen ohne sich die Finger zu verbrennen. Anders ist es auch nicht auf der X1900 bei einem aehnlichen Experiment (und ja stets nach so hoch wie moeglicher Last), aber so ein Vergleich sagt mir gleich gar nichts bei den Unterschieden der beiden.

Bei default 60% fan duty cycle, arbeitet der Luefter bei ca. 1460rpm.

dargo
2007-01-26, 10:40:58
@Ailuros
Ich zitiere nochmal DK777.
Auch wenn jetzt die meisten schreien, dass die c't unfähig sei, Grafikkarten zu testen, so haben die geschrieben, dass der Chip kühl bleibt und der Lüfter erste Sahne ist, aber die Platine an sich unnötig heiß wird (besonders die Rückseite).
Es wurde schon gesagt, dass die GPU kühl bleibt.
Keine Praxisnahe Erfahrung unterstuetzt natuerlich jegliche Schlussfolgerung Wie dem auch sei die ambiente Temperatur liegt stets um ca. 15C niedriger als die Core-Temperatur. Wenn ich den Kasten offen lasse, abschalte und die GPU von hinten antaste, dann ist sie zwar nicht kuehl, aber man kann sie anfassen ohne sich die Finger zu verbrennen.
1. Offenes Gehäuse - wie praxisnah. :rolleyes:
2. Die ambiente Temperatur bezieht sich in der Regel nur auf einen Punkt am PCB. Und wenn der Sensor direkt in der Nähe des Lüfters ist oder an irgendeiner "kühlen" PCB Stelle nutzt mir diese Temp. recht wenig. Ist praktisch so sinnlos wie jeder Systemsensor auf nem Mainboard.

Gast
2007-01-26, 11:50:34
Aber nicht im durschnitt.:rolleyes:Doch, auch im Durchschnitt. Aber eben nicht immer out-of-the-box. Wenn man sich aber ein wenig mit dem Nhancer und den SLI-Profilen auseinandersetzt, bekommt man in GPU-limitierten Situationen eigentlich immer eine sehr gute Performancesteigerung durch SLI.

Anarchy-HWLUXX
2007-01-26, 12:04:13
1. Offenes Gehäuse - wie praxisnah. :rolleyes:

Nen offenes case resultiert in nicht vorhandenem Airflow - die Hardware wird wärmer ...

Moralelastix
2007-01-26, 12:17:55
Nen offenes case resultiert in nicht vorhandenem Airflow - die Hardware wird wärmer ...

Vielleicht hat er Ihn ja jetzt draußen stehen.:biggrin:

dargo
2007-01-26, 12:29:14
Nen offenes case resultiert in nicht vorhandenem Airflow - die Hardware wird wärmer ...
Quatsch!
In erster Linie hängt es vom verwendeten Gehäuse und Gehäuselüftern ab. Bei meinem CS-601 zb. wird bei offenem Gehäuse die Festplatte ca. 2°C wärmer, die CPU und Grafikkarte dafür bis zu 5°C kühler.

Ailuros
2007-01-26, 13:20:29
1. Offenes Gehäuse - wie praxisnah. :rolleyes:

Bis ich in einem geschlossenen Gehaeuse das side panel abschraube, hat die GPU etwas mehr Zeit abzukuehlen; und nein ich hab nicht irgendwelche verrueckte Experimente vorgenommen, sondern der chipsatz Fan wollte mich nerven bis ich das verdammte Ding ausgetauscht habe.

Die GPU zu beruehren mit offenem Gehaeuse ist praxisnaher als jeder andere Fall, wenn jemand gerade mit der GPU oder deren direkten Umgebung herumfuchtelt (da der verdammte chipsatz Fan direkt darunter liegt).

2. Die ambiente Temperatur bezieht sich in der Regel nur auf einen Punkt am PCB. Und wenn der Sensor direkt in der Nähe des Lüfters ist oder an irgendeiner "kühlen" PCB Stelle nutzt mir diese Temp. recht wenig. Ist praktisch so sinnlos wie jeder Systemsensor auf nem Mainboard.

Wer sagte dass die Messung weder von der GPU noch vom Mainboard kommt?

Ailuros
2007-01-26, 13:22:05
Vielleicht hat er Ihn ja jetzt draußen stehen.:biggrin:

Der Albernheit zuliebe ist es momentan waermer draussen als im Zimmer. Ein leicht ausgerastetes subtropisches Klima laesst gruessen.

dargo
2007-01-26, 13:26:51
Wer sagte dass die Messung weder von der GPU noch vom Mainboard kommt?
Ok, dann hast du anscheinend entweder mit der Hand gefühlt oder einen externen Temperatursensor irgendwo auf dem PCB plaziert.
Aber wie gesagt, hier ging es nicht um die Rückseite der GPU sondern um die gesamte Platine. Wenn die GPU schon kühl ist dann wird die Rückseite der GPU auch kühl bleiben.

Moralelastix
2007-01-26, 13:28:12
Noch kein Schnee auf der Akropolis? Scheiß Klimawandel!

Ailuros
2007-01-26, 13:29:49
Noch kein Schnee auf der Akropolis?

Nur die Bauern leben in der Hauptstadt :P

Gast
2007-01-26, 14:44:40
Moderate Taktungen reichen aber nicht. Welchen Sinn sollte so eine Graka dann machen wenn sie im Endeffekt "nur" so schnell wie eine einzelne G8800GTX ist?
sorry aber willst du mich verarschen?
nur weil der chip 100mhz niedriger getaktet und die shader meinetwegen ca. 200mhz, sind 2 chips noch lange nicht so langsam wie ein einzelner

welchen sinn hatte in deinen augen die 7950gx2?
war auch langsamer als ne 7900gtx, ne?

Nakai
2007-01-26, 14:54:06
Weil 100Mhz ausreichen werden.:wink:

Der G80 muss mehr runtergetaktet werden...

mfg Nakai

Godmode
2007-01-26, 15:53:00
Weil 100Mhz ausreichen werden.:wink:

Der G80 muss mehr runtergetaktet werden...

mfg Nakai

Ich denke wenn man den Chip in 80nm fertigt, müsste das schon gehen! Ist aber hier sehr OT.

Nakai
2007-01-26, 16:05:54
Im 80Nm?! Denk ich eher nicht.

mfg Nakai

dargo
2007-01-26, 16:14:48
sorry aber willst du mich verarschen?
nur weil der chip 100mhz niedriger getaktet und die shader meinetwegen ca. 200mhz, sind 2 chips noch lange nicht so langsam wie ein einzelner

welchen sinn hatte in deinen augen die 7950gx2?
war auch langsamer als ne 7900gtx, ne?
Schau dir ertmal die Verlustleistung einer G7900GT 512MB und einer G8800GTX an dann wirst du selbst feststellen, dass 100Mhz weniger GPU-Takt für eine G8800GX2 (was die Wärmeentwicklung angeht) nicht ausreichen werden. Eine G8800GTS taktet schon 75Mhz weniger und sonst ist sie gut beschnitten. Trotzdem behaupte ich, dass selbst zwei G8800GTS für eine G8800GX2 nicht ausreichen um sie auf Betriebstemperatur zu halten. Zumindest nicht bei der G7950GX2 Bauweise.

Und wenn man die GTS noch um 100Mhz beim GPU-Takt und um 200Mhz beim Shadertakt reduziert dann wird die G8800GX2 sich kaum von einer G8800GTX absetzen können.

Gast
2007-01-26, 18:04:49
hier spricht aber keiner von beschneiden sondern nur von takt runterschrauben

und du weist natürlich das eine taktsenkung bei 80nm nicht ausreicht :rolleyes
die 7950gx2 war vollkommen im grünen bereich, und da war nur eine minikühler drauf
ein doppelt so großer hat locker platz, zudem nimmste noch kupfer und einen etwas größeren lüfter
fertig ist das ganze

du tust so als wär der G80 ein extrem

Gast
2007-01-26, 18:13:02
Muss ich aber auch sagen.
Wenn man sich den Schritt von 7800gtx auf 7900gt anschaut(vergleiche ich mal mit G80 nach G81(80nm)) und dann eine niedrigere Taktung annimmt, kommt man knapp unter den Verbrauch einer 7900gtx/7800gtx raus.

Warum sollte man also keine "Doppelkarte" kühlen können?
Die 7800gt hat auch nur einen leisen singleslot kühler.

Undertaker
2007-01-26, 18:19:00
dann sind aber auch weit schnellere singlekarten möglich, die eine niedriger getaktete dualchip karte preislich und auch von der leistung her überholen sollten...

dargo
2007-01-26, 18:19:14
hier spricht aber keiner von beschneiden sondern nur von takt runterschrauben

Warum denkst du verbraucht die G8800GTS ca. 30W weniger wie eine G8800GTX? Bestimmt nicht nur durch die 75Mhz weniger GPU- und 150Mhz Shadertakt. ;)
Die zusätzlichen 128MB Vram spielen dabei kaum eine Rolle.


und du weist natürlich das eine taktsenkung bei 80nm nicht ausreicht :rolleyes

Bei 80nm bin ich mir eben nicht so sicher. Dazu müsste man zuerst wissen wie stark die Verlustleistung der GPU durch den Die-Shrink gesenkt werden kann.


die 7950gx2 war vollkommen im grünen bereich, und da war nur eine minikühler drauf
ein doppelt so großer hat locker platz, zudem nimmste noch kupfer und einen etwas größeren lüfter
fertig ist das ganze

Wo soll bei dieser Karte ein größerer Kühler Platz haben? Vorallem der untere?

http://pics.computerbase.de/1/4/6/4/7/53_m.jpg

Und was das Kupfer angeht, schon mal an das Gesamtgewicht der Graka gedacht?


du tust so als wär der G80 ein extrem
Ist er das nicht mit ~681 Mio. Transistoren?

dann sind aber auch weit schnellere singlekarten möglich, die eine niedriger getaktete dualchip karte preislich und auch von der leistung her überholen sollten...
Eben das ist der Punkt! Bis man soweit ist die G8800GX2 in 80nm zu bringen gibt es schon eine schnellere Single-GPU Graka (G8900GTX ?) in 80nm.

Ailuros
2007-01-26, 21:14:17
Eben das ist der Punkt! Bis man soweit ist die G8800GX2 in 80nm zu bringen gibt es schon eine schnellere Single-GPU Graka (G8900GTX ?) in 80nm.

Wie sehen denn die Spezifikationen genau einer G8x@80nm aus und was genau ueberzeugt Dich dass diese schneller sein sollte als eine hypothetische 8800GX2?

Ist er das nicht mit ~681 Mio. Transistoren?

7900GX2 kam erst als man auf 90nm stieg, die Transistoren reduziert wurden und dabei sind es eher 2*7900GT als 2*7900GTX. Es geht hier weniger darum ob es geht und mehr ob NV solch einen Schachzug wirklich noetig hat. Ohne zu wissen wie ein rein theoretischer 5 cluster chip (und ja es ist nur ein einfaches Beispiel) von Grund auf fuer 80nm gebaut aussieht was Transistoren-count, Stromverbrauch usw betrifft, sehe ich keinen einzigen Punkt der Sinn macht.

Und all das obrige soll gar nichts heissen, weder ob es ueberhaupt einen G81 oder irgend eine GX2 geben wird.

deekey777
2007-01-26, 22:02:56
Wollen wir nicht einfach über den R600 diskutieren?

Ailuros
2007-01-26, 22:08:18
Wollen wir nicht einfach über den R600 diskutieren?

Gute Idee; jemand bemerkte bei B3D dass ATI's GPU Namen in letzter Zeit zu viele "X" haben :biggrin: (...ok ok nicht hauen ;) )

dargo
2007-01-27, 11:39:42
Wie sehen denn die Spezifikationen genau einer G8x@80nm aus und was genau ueberzeugt Dich dass diese schneller sein sollte als eine hypothetische 8800GX2?

Es ist ganz einfach. Eine G8800GTX ist ca. 30-50% schneller als eine G8800GTS. Würde also bedeuten, dass 2 G8800GTS (G8800GX2) ca. 33-54% schneller wären als eine G8800GTX. Da ich aber nicht glaube, dass man zwei G8800GTS GPUs in der Bauweise einer G7950GX2 verbauen kann (ob man es mir glaubt oder nicht) muss man entweder die Taktraten und Spannungen stark senken und/oder den Chip weiter beschneiden. Somit wäre man wieder irgendwo in der Region einer einzelnen G8800GTX. Macht also keinen Sinn. Mit 80nm könnte man eventuell die Daten einer G8800GTS beibehalten, dann haben wir aber schon eventuell eine G8900GTX in 80nm. Und wenn eine G8900GTX keine ~30% schneller ist als eine G8800GTX dann kann man sich den ganzen Shrink gleich sparen, imho. Ich glaube kaum, dass NV nur einen Shrink vornimmt und die Taktraten der G8800GTX so lässt wie sie jetzt sind.

Somit wäre dann eine G8800GX2 ca. 10-20% schneller wie eine einzelne G8900GTX. Ob dafür sich der ganze Aufwand lohnt bezweifle ich mal stark.

Wollen wir nicht einfach über den R600 diskutieren?
Gerne, nur leider gibts nichts Neues. ;(
So langsam müssten paar Benchmarks erscheinen, wir haben schon fast Februar. :|

deekey777
2007-01-27, 11:57:03
Was war jetzt an meinem Posting so unklar, dass du weitermachst?
Führt eure Diskussion per PN oder sonst irgendwie, aber sie ist hier OT.

horn 12
2007-01-27, 12:45:43
nun sickern erste bilder zum angeblichen OEM Lüfter der R600 durch.
seht selbst:

AnarchX
2007-01-27, 12:52:33
"<-open" "close->" ....;D

Da wird wohl das Rendering von VR-Zone, doch die Realiät sehr nah getroffen haben.

MartinRiggs
2007-01-27, 12:54:20
gibt es auch ein gesamtbild???

Gast
2007-01-27, 14:33:23
nun sickern erste bilder zum angeblichen OEM Lüfter der R600 durch.
seht selbst:
Welchen Zweck hat der Deckel da? Für bessere Belüftung bei Crossfire?
Obere Karte dann Deckel auf der Oberseite und hinten auf, saugt also dann von hinten an.
Untere Karte Rückseite Deckel drauf, saugt von unten/Vorderseite an.

Moralelastix
2007-01-27, 15:18:40
Welchen Zweck hat der Deckel da? Für bessere Belüftung bei Crossfire?
Obere Karte dann Deckel auf der Oberseite und hinten auf, saugt also dann von hinten an.
Untere Karte Rückseite Deckel drauf, saugt von unten/Vorderseite an.

Jupp würd ich auch sagen.

anddill
2007-01-27, 15:46:03
Oder als Zugang zum Reinigen des Lüfters.

reunion
2007-01-27, 16:23:51
Für mich unverständlich, warum man hier zwei verschiedene Kühlervarianten bringt. Vermutlich hat der Retailkühler doch ärgere Defizite was die Lautstärke/Kompatibilität/Temperatur oder sonst irgendwas betrifft, anders kann ich mir das kaum erklären.

Godmode
2007-01-27, 16:34:42
Kommt der R600 eigentlich in 90 oder in 80nm, weiß man dazu schon mehr?

reunion
2007-01-27, 16:38:45
80nm. Orton sagte schon von einer halben Ewigkeit, dass es keine R6XX-Chips in 90nm geben wird.

StefanV
2007-01-27, 16:45:52
Für mich unverständlich, warum man hier zwei verschiedene Kühlervarianten bringt. Vermutlich hat der Retailkühler doch ärgere Defizite was die Lautstärke/Kompatibilität/Temperatur oder sonst irgendwas betrifft, anders kann ich mir das kaum erklären.
Vermute doch mal das naheliegenste:

Preis!
Der OEM Kühler könnt ja z.B. um einiges teurer als der 'normale' sein ;)

Gmax
2007-01-27, 16:49:08
Das Bild sieht mir nicht nach einen Rendering (bevor manche das sagen) aus. Eher
billige Kamera.

reunion
2007-01-27, 16:50:53
Vermute doch mal das naheliegenste:

Preis!
Der OEM Kühler könnt ja z.B. um einiges teurer als der 'normale' sein ;)

Das macht aber auch keinen Sinn, sofern er nicht auch wesentlich besser ist. Sonst könnte man ja den "billigeren Kühler" auch im OEM-Segment verbauen. Wobei ich nicht glaube, dass das bei einer solchen Karte, welche über 500€ kosten wird, von Relevanz ist.

Ich glaube das der Kühler einfach wesentlich leiser ist. Und da viele Hersteller wie zB Dell ohnehin froh sind, einen solchen Henkel an der Karte zu haben, um diese zu stabilisieren (Dell baut ja tw. sogar an wesentlich kürzere Karten einen solchen Henkel dran), ist die Länge im OEM-Segment nebensächlich. Im Retailmarkt kann man natürlich nicht einen solchen Koloss verkaufen.

Odal
2007-01-27, 17:29:46
nun sickern erste bilder zum angeblichen OEM Lüfter der R600 durch.
seht selbst:

Wenn man jetzt gemein wär könnte man sagen: "Die habn ja gleich nen Griff zum wegschmeissen an das Teil gemacht :D" aber ich denke das der R600 schon ein recht performantes stück hardware wird.
Sieht auf jedenfall lustig aus.

Gast
2007-01-27, 17:52:45
Das Bild sieht mir nicht nach einen Rendering (bevor manche das sagen) aus. Eher
billige Kamera.
Mit Rendering war ja auch das gemeint gewesen
http://www.vrforums.com/showthread.php?t=120679

[MK2]Mythos
2007-01-27, 19:30:04
Vielleicht dient der gekapselte Lüfter ja auch der Geräuschreduktion?

The_Silent_One
2007-01-27, 20:20:25
wozu hat der eigentlich zwei kabelstränge am lüfter?

StefanV
2007-01-27, 20:23:41
Ich seh nur einen...

Raff
2007-01-27, 20:48:32
nun sickern erste bilder zum angeblichen OEM Lüfter der R600 durch.
seht selbst:

Wenn man jetzt gemein wär könnte man sagen: "Die habn ja gleich nen Griff zum wegschmeissen an das Teil gemacht :D" aber ich denke das der R600 schon ein recht performantes stück hardware wird.
Sieht auf jedenfall lustig aus.

Der Griff ist echt nichts Neues ... aber trotzdem selten. Mir kam allerdings mal wieder sofort die in den Sinn:

http://666kb.com/i/albvsk8f3y8dpq0nl.jpg

;)

Offenbar sehr angesagt bei "Full Length"-Karten.

MfG,
Raff

Gast
2007-01-27, 22:24:10
Der Griff ist echt nichts Neues ... aber trotzdem selten. Mir kam allerdings mal wieder sofort die in den Sinn:

http://666kb.com/i/albvsk8f3y8dpq0nl.jpg

;)

Offenbar sehr angesagt bei "Full Length"-Karten.

MfG,
Raff
Oder die hier:
http://www.falconfly.de/identify/Quantum3D_Obsidian_100SB-4400.jpg
Mal gucken, ob der R600 dem Griff auch gerecht wird.

dargo
2007-01-28, 00:19:56
Oder die hier:
http://www.falconfly.de/identify/Quantum3D_Obsidian_100SB-4400.jpg
Mal gucken, ob der R600 dem Griff auch gerecht wird.
Bei den von euch abgebildeten Grakas ist das PCB auch deutlich länger. Das PCB des R600 soll nur 9" betragen.

Gmax
2007-01-28, 00:27:32
Der Griff ist echt nichts Neues ... aber trotzdem selten. Mir kam allerdings mal wieder sofort die in den Sinn:

http://666kb.com/i/albvsk8f3y8dpq0nl.jpg

;)

Offenbar sehr angesagt bei "Full Length"-Karten.

MfG,
Raff

Man kann den Griff bei geeigneten Gehäusen an der Innenseite der Front einschieben. Damit ist sichergestellt, daß sich die Larte nicht biegt und festsitzt.
Ich hatte mal eine Matrox Schnittkarte in voller Länge, da war das genauso.

seahawk
2007-01-28, 11:38:03
Wobie bei der Länge auch die gesamte Gehäusekühlung angepaßt sein muss.

Black-Scorpion
2007-01-28, 11:45:40
Jedes normale ATX Gehäuse (Tower) dürfte Probleme haben mit den Karten bekommen.
Da fehlt die Leiste für den Griff und meist sitzt dort auch noch der Laufwerkskäfig und ein Lüfter.

Gast
2007-01-28, 14:31:52
viele gehäuse haben ein 90° gedrehten käfig
wenn dann die tiefe einigermaßen stimmt passt das

bei meinem casetek cs-1019 passt ne 7900gx2 locker rein

Gmax
2007-01-28, 14:45:28
Jedes normale ATX Gehäuse (Tower) dürfte Probleme haben mit den Karten bekommen.
Da fehlt die Leiste für den Griff und meist sitzt dort auch noch der Laufwerkskäfig und ein Lüfter.
Ich hab ein normales Midi Gehäuse, wo die Karte ohne weiteres reinpassen würde; die Matrox reingepasst hat.

Coda
2007-01-28, 14:45:43
Bei den von euch abgebildeten Grakas ist das PCB auch deutlich länger. Das PCB des R600 soll nur 9" betragen.

Das is doch völlig unerheblich, es geht im Endeffekt nur darum wie lang die Karte ist.

Hvoralek
2007-01-28, 14:54:50
Was für einen Sinn ergibt es eigentlich, eine Platine mit 16 Speicherchips auf 9'' zusammen zu quetchen und dann einen überstehenden Kühler zu bauen? Wäre dann nicht dieses krampfhafte Platzsparen umsonst?

reunion
2007-01-28, 15:00:25
Was für einen Sinn ergibt es eigentlich, eine Platine mit 16 Speicherchips auf 9'' zusammen zu quetchen und dann einen überstehenden Kühler zu bauen? Wäre dann nicht dieses krampfhafte Platzsparen umsonst?

Wenn es nur eine Version mit langem Kühler geben würde, schon. Aber da die Retailversion ja einen wesentlich kürzeren Kühler haben wird, und man logischerweise nicht zwei unterschiedliche PCBs bauen will, macht das schon Sinn. Diese Version wird man ja nur an OEM-Kunden wie Dell verkaufen, die einen solchen Henkel ohnehin wollen.

Nakai
2007-01-28, 15:11:30
@Coda:
Man könnte ja auch eine Wasserkühlung draufbauen, dann wäre in kürzeres PCB von Nutzen.^^

mfg Nakai

€:
Warum muss es denn ein Lüfter sein? Solange man keine freie Sicht auf dieses Ding hat, könnte es sich auch um etwas anderes handeln.
Vll wirds ja der Radiator einer Wakü.
Ach vergisst es, ne schlechte Überlegung^^

Gast
2007-01-28, 15:41:43
Was für einen Sinn ergibt es eigentlich, eine Platine mit 16 Speicherchips auf 9'' zusammen zu quetchen und dann einen überstehenden Kühler zu bauen? Wäre dann nicht dieses krampfhafte Platzsparen umsonst?
Welchen Zweck hat der Deckel da? Für bessere Belüftung bei Crossfire?
Obere Karte dann Deckel auf der Oberseite und hinten auf, saugt also dann von hinten an.
Untere Karte Rückseite Deckel drauf, saugt von unten/Vorderseite an.
Darum bin ich ja zusammen mit dem Deckel auf die Idee für die Crossfire Belüftung gekommen. Wenn die Karten wirklich soviel verbrauchen, ist das die einzige Möglichkeit bei normalen Slotabstand die einigermaßen kühl zu bekommen. Kann mir vorstellen, dass ATi einmal eine Kühlerkonstruktion für Crossfire Karten bringt und die Karten, die auschließlich für Single Betrieb ausgelegt sind mit einer billigeren kürzeren Konstruktion ausstattet.

StefanV
2007-01-28, 15:43:43
Jedes normale ATX Gehäuse (Tower) dürfte Probleme haben mit den Karten bekommen.
Da fehlt die Leiste für den Griff und meist sitzt dort auch noch der Laufwerkskäfig und ein Lüfter.
Öhm, nö.

Wobei die ironie an der Ganzen Sache doch ist, das das ganze hauptsächlich die betrifft, die ein relativ neues Gehäuse haben.
Diejenen welchen aber ein steinaltes ATX Gehäuse der esten Generation haben, sind hier die Glücklichen, bei denen passts.

Übrigens auch bei vielen OEM Gehäusen wie meinem Compaq:
http://img170.imageshack.us/img170/466/rimg0313zw7.th.jpg (http://img170.imageshack.us/my.php?image=rimg0313zw7.jpg)
(dieses Gehäuse, in etwas abgewandelter Form, wird auch heute noch von HP eingesetzt, nur eben mit Platten quer).

Black-Scorpion
2007-01-28, 15:55:04
Was verstehst du unter relativ neues Gehäuse?
Ich habe hier noch ein 5 Jahre altes und das hat keine Möglichkeit der Henkelbefestigung.
Und das wird wohl bei fast allen Gehäusen der Fall sein die nicht für OEMs gedacht sind.

Ailuros
2007-01-29, 06:11:34
Wenn es nur eine Version mit langem Kühler geben würde, schon. Aber da die Retailversion ja einen wesentlich kürzeren Kühler haben wird, und man logischerweise nicht zwei unterschiedliche PCBs bauen will, macht das schon Sinn. Diese Version wird man ja nur an OEM-Kunden wie Dell verkaufen, die einen solchen Henkel ohnehin wollen.

Ich bin zu faul all die OEM GeForce Bilder auf die man bei B3D verlinkt hat, zu deuten. Tatsache ist dass es nichts Neues oder abkoemmliches ist fuer alle IHVs die auch im OEM Markt verkaufen.

reunion
2007-01-29, 10:47:48
ATI's R600 is on track for Q1 launch (http://www.the-inquirer.net/default.aspx?article=37247)

Gast
2007-01-29, 11:04:55
ATI's R600 is on track for Q1 launch (http://www.the-inquirer.net/default.aspx?article=37247)Was wirklich neues steht da ja nun wirklich nicht drin. ;)

deekey777
2007-01-29, 11:28:24
ATI's R600 is on track for Q1 launch (http://www.the-inquirer.net/default.aspx?article=37247)
Sorry, aber: http://www.beyond3d.com/#news37931
wozu hat der eigentlich zwei kabelstränge am lüfter?
Der eigentliche Lüfter ist so groß, dass er einen eigenen Lüfter braucht.
SCNR. ;(

Odal
2007-01-29, 21:19:45
kleine zwischenfrage...wann wird der R600 jetzt nochmal ungefähr vorgestellt?

w0mbat
2007-01-29, 21:26:54
CeBit

deekey777
2007-01-29, 21:32:36
CeBit
Sagen wir: vor dem Ende des ersten Quartals.
Aber das chinesische Neujahrfest... Da wird nicht gearbeitet, sondern nur gefeiert. Wenn ATi die Verfügbarkeit gewährleisten will, so muss der R600 schon in Produktion sein.

Gaestle
2007-01-30, 10:20:42
Sagen wir: vor dem Ende des ersten Quartals.
Aber das chinesische Neujahrfest... Da wird nicht gearbeitet, sondern nur gefeiert. Wenn ATi die Verfügbarkeit gewährleisten will, so muss der R600 schon in Produktion sein.

Und eigentlich auch schon bei den GraKa-Firmen, wie z.B. Sapphire ( es sei denn, die ersten Exemplare sind alle "Build By ATi"). Dafür, finde ich, sickern ganz schön wenige Infos durch.

Gast
2007-01-30, 11:03:09
Und eigentlich auch schon bei den GraKa-Firmen, wie z.B. Sapphire ( es sei denn, die ersten Exemplare sind alle "Build By ATi"). Dafür, finde ich, sickern ganz schön wenige Infos durch.

Die Zeiten ändern sich halt, seit AMD am Ruder ist, wird nicht mehr so viel geschwaffelt bei ATI; Sprich; Keine WEITERGABE von Wissen vor dem Launch, auch die NDA Politik bzw. die VOLLSTÄNDIGKEIT der Infos ist eine andere geworden die die PR Fraktion erhält.

Black-Scorpion
2007-01-30, 13:36:48
Und eigentlich auch schon bei den GraKa-Firmen, wie z.B. Sapphire ( es sei denn, die ersten Exemplare sind alle "Build By ATi"). Dafür, finde ich, sickern ganz schön wenige Infos durch.
Du weißt aber schon das Sapphire die BBA Karten fertigt. ;)
Dann ergibt der Satz keinen Sinn.

Gaestle
2007-01-30, 15:29:22
Du weißt aber schon das Sapphire die BBA Karten fertigt. ;)
Dann ergibt der Satz keinen Sinn.

Der Sinn entsteht, in dem man das z.B. nicht übersieht. Aber war von mir wirklich suboptimal formuliert...

Ich war mir nicht sicher, ob Sapphire der BBA-Produzent ist (deswegen, z.B.), aber es gibt ja noch andere Firmen. Deswegen die Fragen
a) ob andere Firmen auch (jetzt schon) Chips bekommen (oder erst später)
b) wenn andere Firmen auch jetzt schon Chips haben, dürfte die Anzahl derer die den endgültigen Chip gesehen haben, so groß sein, das ein Info-Leck sehr wahrscheinlich wird.

Black-Scorpion
2007-01-30, 16:35:10
Der Sinn entsteht, in dem man das z.B. nicht übersieht. Aber war von mir wirklich suboptimal formuliert...

Ich war mir nicht sicher, ob Sapphire der BBA-Produzent ist (deswegen, z.B.), aber es gibt ja noch andere Firmen. Deswegen die Fragen
a) ob andere Firmen auch (jetzt schon) Chips bekommen (oder erst später)
b) wenn andere Firmen auch jetzt schon Chips haben, dürfte die Anzahl derer die den endgültigen Chip gesehen haben, so groß sein, das ein Info-Leck sehr wahrscheinlich wird.
Die Frage ist ob andere überhaupt Karten selbst bauen oder wieder nur den Aufkleber auf den Kühler pappen.
Und wenn sie Karten bauen, kommen sie bestimmt später wie etwa HIS.
Die bauen ja teilweise selber.

|MatMan|
2007-01-30, 21:11:07
ich schätze zum Launch kommen die wieder nur von einem Hersteller. Hat nVidia beim G80 ja auch so gemacht.
Die Frage ist halt, ob das wieder Sapphire sein wird oder nicht, wahrscheinlich ist es ja, da das in der Vergangenheit auch so war.

Wer entwickelt eigentlich das PCB des R600, ist das ATI/ AMD selber oder ein Grafikkartenhersteller (wie beim G80), also Sapphire/ ASUS/ MSI ...?

Blutmaul
2007-02-01, 18:05:25
Aus dem B3D-Forum:
"We know that ATI AMD has pledged to release in the first quarter of the flagship products which DirectX 10 graphics chip R600. RV630 and RV610 and may accelerate deployment of these two mainstream low-end products.
The latest rumor today revealed R600 R600 : R600 confirmed that the performance of 80nm process about large-scale production, there is no more advanced manufacturing process plans.
R600 R580 Z no-AA performance is 2.5 times FP16 filtration performance is 2.7 times the R580, FP32filtration performance is 3.9 times the R580, R580 FP16 is eight times the filtration performance.
According to the latest projections hearsay, R600 in the final core 814MHz frequency. R600 color modules, there is the possibility of unity in the 64.
In addition, the latest rumors have indicated that the RV610 graphics chip aimed at low-end markets using 65nm technology. GDDR4 Xiancun will match supply and digital PWM chip, PCB layer 800, Xiancun using the RV630 256MB/128MB 64bit DDR2; aimed at the mainstream market. using 65nm technology, a two-way electricity supply PWM chip for graphics chips. PWM chip for one-way Xiancun electricity supply Xiancun for 2x256MB 128bit GDDR4 specifications.
However, R600/RV630/RV610 final specifications or other graphics chip to AMD ATI official announcement."
http://google.com/translate?u=http%3A%2F%2Fnews.mydrivers.com%2Fpage s%2F20070201175345_82812.htm&langpair=zh-CN%7Cen&hl=en&ie=UTF8
"Xiancun using the RV630 256MB/128MB 64bit DDR2; aimed at the mainstream market."
64bit ddr2 mainstream card? looks like this is only google translate fault, with babelfish this part looks ok

Babelfish version:
"Moreover, the newest hearsay also demonstrated that, uses the 65nm craft in view of the low end market RV610 graph chip, will match GDDR4 to reveal saves with the digital PWM power supply chip, PCB achieved 8, will reveal saves uses 256MB/128MB 64bit DDR2; In view of mainstream market RV630, uses the 65nm craft, uses the bidirectional power supply the PWM chip for the graph chip power supply, the unidirectional power supply PWM chip for reveals saves the power supply, reveals saves is 2x256MB 128bit the GDDR4 specification."

So ein Kauderwelsch versteh ich nicht...

StefanV
2007-02-01, 18:19:22
Das liest sich, als ob das Original japanisch oder Chinesisch ist :|
Da die Übersetzer Wort-Wörtlich übersetzen, kann man sowas in die Tonne kloppen...

Naja, werden wohl noch 'echte' englische Infos kommen ;)

dargo
2007-02-01, 18:22:07
Bedeutet das jetzt, dass der R600 2,7 mal schneller ist als die X1900XTX mit HDR?

LovesuckZ
2007-02-01, 18:24:29
Bedeutet das jetzt, dass der R600 2,7 mal schneller ist als die X1900XTX mit HDR?

Nein, da der r5xx keine FP - Filterung untersützt. ;)

dargo
2007-02-01, 18:40:58
Ok, dann eben ohne AA 2,5 mal so schnell? Das wäre der Hammer. Mit AA sollte der Vorsprung dank der enormen Bandbreite noch höher ausfallen. :O

BlackBirdSR
2007-02-01, 18:47:29
Ok, dann eben ohne AA 2,5 mal so schnell? Das wäre der Hammer. Mit AA sollte der Vorsprung dank der enormen Bandbreite noch höher ausfallen. :O

Steht da nicht !Z! ohne AA = 2.5x so schnell?

Gouvernator
2007-02-01, 18:48:19
Ok, dann eben ohne AA 2,5 mal so schnell? Das wäre der Hammer. Mit AA sollte der Vorsprung dank der enormen Bandbreite noch höher ausfallen. :O

Das ist absolut gar nix. Man muss doch nicht gleich von 100fps@r580 ausgehen und dann mal 2.5 für r600. Stellt euch vor der r580 macht nur 7 fps :biggrin: dann wären 2.5 gar nichts

Gast
2007-02-01, 18:48:40
Aus dem B3D-Forum:
"We know that ATI AMD has pledged to release in the first quarter of the flagship products which DirectX 10 graphics chip R600. RV630 and RV610 and may accelerate deployment of these two mainstream low-end products.
The latest rumor today revealed R600 R600 : R600 confirmed that the performance of 80nm process about large-scale production, there is no more advanced manufacturing process plans.
R600 R580 Z no-AA performance is 2.5 times FP16 filtration performance is 2.7 times the R580, FP32filtration performance is 3.9 times the R580, R580 FP16 is eight times the filtration performance.
According to the latest projections hearsay, R600 in the final core 814MHz frequency. R600 color modules, there is the possibility of unity in the 64.
In addition, the latest rumors have indicated that the RV610 graphics chip aimed at low-end markets using 65nm technology. GDDR4 Xiancun will match supply and digital PWM chip, PCB layer 800, Xiancun using the RV630 256MB/128MB 64bit DDR2; aimed at the mainstream market. using 65nm technology, a two-way electricity supply PWM chip for graphics chips. PWM chip for one-way Xiancun electricity supply Xiancun for 2x256MB 128bit GDDR4 specifications.
However, R600/RV630/RV610 final specifications or other graphics chip to AMD ATI official announcement."
http://google.com/translate?u=http%3A%2F%2Fnews.mydrivers.com%2Fpage s%2F20070201175345_82812.htm&langpair=zh-CN%7Cen&hl=en&ie=UTF8
"Xiancun using the RV630 256MB/128MB 64bit DDR2; aimed at the mainstream market."
64bit ddr2 mainstream card? looks like this is only google translate fault, with babelfish this part looks ok

Babelfish version:
"Moreover, the newest hearsay also demonstrated that, uses the 65nm craft in view of the low end market RV610 graph chip, will match GDDR4 to reveal saves with the digital PWM power supply chip, PCB achieved 8, will reveal saves uses 256MB/128MB 64bit DDR2; In view of mainstream market RV630, uses the 65nm craft, uses the bidirectional power supply the PWM chip for the graph chip power supply, the unidirectional power supply PWM chip for reveals saves the power supply, reveals saves is 2x256MB 128bit the GDDR4 specification."

So ein Kauderwelsch versteh ich nicht...

so langsam wird klar warum nividia kramphaft versucht 2GPUs auf einen brett zu verbauen.

dargo
2007-02-01, 18:50:27
Stellt euch vor der r580 macht nur 7 fps :biggrin: dann wären 2.5 gar nichts
:ucrazy:

Seit wann sind 7fps spielbar? :|

Steht da nicht !Z! ohne AA = 2.5x so schnell?
Und das heißt?

Edit:
Kann es sein, dass der R600 die enorme Bandbreite für die FP32 Filterung braucht?

Botcruscher
2007-02-01, 18:59:27
:ucrazy:

Seit wann sind 7fps spielbar? :|



Stell dir vor R580 macht nur 20. 50FPs wären also schon gigantisch viel.=)

dargo
2007-02-01, 19:02:06
Stell dir vor R580 macht nur 20. 50FPs wären also schon gigantisch viel.=)
Eben. Ich denke da eher in Richtung 30fps bei meiner X1900XT. Also hart an der Grenze (je nach Game). Da kommen die 2,5x mehr gerade richtig. :)

Gouvernator
2007-02-01, 19:03:49
Ich sag man wird spezielle Benchmarks unter 2560x1600 fahren und da wird r580 nicht viel mehr als 10-12 fps machen. Schon mal Splinter Cell DA unter 2560 gesehn? Was da mit r580 machbar ist? Oder bald TDU...

dargo
2007-02-01, 19:06:10
Ich sag man wird spezielle Benchmarks unter 2560x1600 fahren und da wird r580 nicht viel mehr als 10-12 fps machen.
Das ist zwar schön, aber diese Extreme interessiert mich nicht. :)
Mein TFT begrenzt mich eh auf 1280x1024. Und das ist auch gut so.

Hvoralek
2007-02-01, 19:10:42
Eben. Ich denke da eher in Richtung 30fps bei meiner X1900XT. Also hart an der Grenze (je nach Game). Da kommen die 2,5x mehr gerade richtig. :)Es geht dabei allerdings um die 2,5- fache z- Leistung. Eine 8800 GTX z.B. verfügt etwa über die fünfache z- Leistung einer X1900XTX bzw. die zehnfache bei z- only.

Eine Vervielfachung der FP- Filterkapazitäten bei R600 ist auch kein Wunder. R580 macht das über den Shader, da dürfte sogar ein G71 deutlich schneller sein.

LovesuckZ
2007-02-01, 19:12:03
http://forums.vr-zone.com/showpost.php?p=3200441&postcount=11

Sieht länger als ide prophezeiten 9 Zoll.

AnarchX
2007-02-01, 19:16:11
http://forums.vr-zone.com/showpost.php?p=3200441&postcount=11

Sieht länger als ide prophezeiten 9 Zoll.

Das auf dem Bild ist ja auch die 13" OEM-Version, das PCB allein sieht schon eher nach 9" aus.

Gmax
2007-02-01, 19:17:31
http://666kb.com/i/algvyzj7ywem7o71w.jpg

Warum denn so verschwommen?

seahawk
2007-02-01, 19:29:49
Die Karte ist im Z-Test also 2,5 mal schneller als der R580. R580 kann afaik 16 sampels pro Takt verwerfen. Danach müßte R600 40 sampel pro Takt verwerfen können. G80 kann 192 Pixel verwerfen.

R580 data: http://www.beyond3d.com/reviews/ati/x1950xtx/index.php?p=02
G80 : http://www.beyond3d.com/reviews/nvidia/g80-arch/index.php?p=02

Also wäre der R600 bei gleichem Takt ca. 80% langsamer - taktbereinigt wären es immer noch knapp 70%.

robbitop
2007-02-01, 19:33:05
Die Karte ist im Z-Test also 2,5 mal schneller als der R580. G80 ist z.B. in diesme BEreich viermal schneller als G71.
Sechsmal meinst du? ;)

AnarchX
2007-02-01, 19:33:06
Infos zum RV630/610 PCB
RV630:
- hochqualitatives 8 Layer Design
- GDDR4
- 128Bit
- 256/512MB

RV610:
- 64Bit
- 128/256MB
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcpop.com%2Fdoc%2F0%2F175%2F175552.shtml&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

Da scheint man wohl bei ATi auch sich diesmal noch für 128Bit zu entschieden haben, wobei aber GDDR4 positver als GDDR3 bei nV klingt.

Botcruscher
2007-02-01, 19:35:46
Warum denn so verschwommen?

Tolle Werbung um die Leute bei der Stange zu halten. :rolleyes:

Die groben Umrisse der Karte sind ja seit dem Renderbild bekannt. Man ich will Fakten und nicht so eine verarsche.

robbitop
2007-02-01, 19:38:10
Sollte die 8600 nicht GDDR4 bekommen?

seahawk
2007-02-01, 19:38:38
Sechsmal meinst du? ;)

Ja, habs nochmal etwas überarbeitet um ein besseres Verhätlnis zu R580 zubekommen.

AnarchX
2007-02-01, 19:39:45
Sollte die 8600 nicht GDDR4 bekommen?

Laut VR-Zone hat die 8600GT 900MHz GDDR3, aber es scheint noch eine 8600GTS zu geben, vielleicht hat diese ja GDDR4.;)

seahawk
2007-02-01, 19:42:05
Bandbreite ist nicht alles, amn muss sie auf effizient nutzen können, ;) Wäre der Vorteil im Z-Test bei den Chips ähnlich, dannn...

robbitop
2007-02-01, 19:44:29
Laut VR-Zone hat die 8600GT 900MHz GDDR3, aber es scheint noch eine 8600GTS zu geben, vielleicht hat diese ja GDDR4.;)
Ich hab da vor einigen Wochen noch was von 1400 MHz GDDR4 fuer die Ultra gelesen.

AnarchX
2007-02-01, 19:47:28
Ich hab da vor einigen Wochen noch was von 1400 MHz GDDR4 fuer die Ultra gelesen.

Die "8600Ultra" hatte 256Bit 1400MHz DDR... ;)
Aber jetzt sollten wir dieses OT-Thema, an dieser Stelle beenden...

deekey777
2007-02-01, 19:50:41
Nein, da der r5xx keine FP - Filterung untersützt. ;)

Ist auch richtig.
Die andere Möglichkeit wäre, dass in den SM-3.0-Tests in 2006 der R600 mit der Simulation der FP-Filterung um 2,7mal schneller ist als R580.

Coda
2007-02-01, 19:55:59
Das ist aber unwahrscheinlich, da die G7x sicher selber filtern dürfen und die Caps dafür auch bestimmt bei R600 an sind :)

reunion
2007-02-01, 20:08:14
Infos zum RV630/610 PCB
RV630:
- hochqualitatives 8 Layer Design
- GDDR4
- 128Bit
- 256/512MB

RV610:
- 64Bit
- 128/256MB
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcpop.com%2Fdoc%2F0%2F175%2F175552.shtml&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

Da scheint man wohl bei ATi auch sich diesmal noch für 128Bit zu entschieden haben, wobei aber GDDR4 positver als GDDR3 bei nV klingt.

Kaum vorstellbar bei 512-bit im Highend, und 65nm Fertigung bei RV630. Entwerde blödsinn, oder man bringt wieder nur so eine möchtegern Midragekarte wie RV530 IMHO. Auch die nur 64-bit bei RV610 sind in relation zum High-End-Chip viel zu wenig.

AnarchX
2007-02-01, 20:08:21
The latest rumor out there revealed that R600 is 80nm process technology and is entering mass production soon . R600's Z no-AA performance is 2.5x, FP16 blending & filtering performance is 2.7x, FP32 blending & filtering performance is 3.9x, FP16 filtering performance is 8x of R580. R600 final clocks could be at 814MHz and has 64 unified shaders. [This could mean 32 ROPs]. According to the rumor, it seems that low end RV610 will be on 65nm process, Digital PWM, 8 layers PCB, 256MB/128MB 64bit DDR2. For the mainstream RV630, it will be on 65nm process, bi-directional PWM for GPU and uni-directional PWM for memories, support 2x256MB 128bit GDDR4.
http://vr-zone.com/?i=4571
ATi has finally provided some updates to their eagerly awaiting partners regarding the schedule of their upcoming DX10 cards. R600 will be launched in CeBIT but cards availability in April and we heard that the official name could be Radeon X2900. As for low-end R610 and mid range R630, they will be launched in April but availability in May.
http://vr-zone.com/?i=4572

VR-Zone scheint aber gerade down zu sein...

Kaum vorstellbar bei 512-bit im Highend, und das noch dazu in 65nm. Entwerde blödsinn, oder man bringt wieder nur so eine möchtegern Midragekarte wie RV530.
Stellt sich die Frage wie sinnvoll die hohe Bandbreite der Highend-R600-Modelle ist, wohl eher weniger.
Deshalb sind scheinbar eben 128Bit+GDDR4 für den Mainstream, wo es auf jeden Dollar ankommt, ausreichend.

StefanV
2007-02-01, 20:12:33
Und das heißt?


Da schnell, wo man Z braucht, z.B. Stencil Schatten.

Edit:
Kann es sein, dass der R600 die enorme Bandbreite für die FP32 Filterung braucht?
Unter anderem.

Aber stell dir mal vor:
FP32 + AA

LovesuckZ
2007-02-01, 20:13:14
"64 unified shaders" werden wohl auf Vec4 + 1 Skalar hindeuten, da es sonst ziemlich mager gegenüber r580 wäre.
Dann bleibt natürlich die Frage, ob AMD bei einem Verhältnis von 3:1 ALU:TMU bleibt.

reunion
2007-02-01, 20:17:20
Stellt sich die Frage wie sinnvoll die hohe Bandbreite der Highend-R600-Modelle ist, wohl eher weniger.
Deshalb sind scheinbar eben 128Bit+GDDR4 für den Mainstream, wo es auf jeden Dollar ankommt, ausreichend.

Sinnvoller wie 256-bit bei R580, oder 128-bit bei RV530. Das ergibt doch keinen Sinn. R600 wird ein 512-bit SI haben, und dann soll man den Midragechip auf 128-bit, und den Lowendchip gar auf 64-bit beschneiden? Selbst eine X1300 hatte 128-bit. Und das noch dazu in 65nm. Sorry, halte ich für unlogisch. Aber wir werden es ja bald erfahren, wenn beide Chips wirklich schon so bald vorgestellt werden sollen.

"64 unified shaders" werden wohl auf Vec4 + 1 Skalar hindeuten, da es sonst ziemlich mager gegenüber r580 wäre.
Dann bleibt natürlich die Frage, ob AMD bei einem Verhältnis von 3:1 ALU:TMU bleibt.

Es wird je nach zählweise IMO sogar 4:1.

StefanV
2007-02-01, 20:19:12
Selbst eine X1300 hatte 128-bit. Und das noch dazu in 65nm. Sorry, halte ich für unlogisch.
Aber nicht jede 1300!
Meine z.B. nicht.

deekey777
2007-02-01, 20:21:34
Das ist aber unwahrscheinlich, da die G7x sicher selber filtern dürfen und die Caps dafür auch bestimmt bei R600 an sind :)
Aber was anderes fällt mir auch nicht ein.
Die Übersetzung ist eh für den Popo:
R600 R580 Z no-AA performance is 2.5 times FP16 filtration performance is 2.7 times the R580, FP32filtration performance is 3.9 times the R580, R580 FP16 is eight times the filtration performance.
Was soll das überhaupt heißen?
"Z no-AA performance" ist 2,5mal so hoch. 32 ROPs a la R580? Oder 16 ROPs a la RV530?

LS: Die Frage ist, wie diese "5D"-ALUs unterteilt sin: Vec4+1 (Xenos) oder flexibler (zB Vec2+Vec2 wie beim G70/G71).

reunion
2007-02-01, 20:22:13
Aber nicht jede 1300!
Meine z.B. nicht.

Darum gehts doch gar nicht. Der Chip hatte ein 128-bit SI. Dass nicht alle Hersteller dieses auch voll ausgenutzt haben, ist eine andere Sache.

AnarchX
2007-02-01, 20:23:32
Sinnvoller wie 256-bit bei R580, oder 128-bit bei RV530. Das ergibt doch keinen Sinn. R600 wird ein 512-bit SI haben, und dann soll man den Midragechip auf 128-bit, und den Lowendchip gar auf 64-bit beschneiden?
Man nimmt halt den günstigen Bandbreitenpush durch GDDR4 mit.

GDDR4 1100-1200MHz bringt halt 60-70% mehr Bandbreite gegenüber dem GDDR3 der bisher bei den Mainstreammodellen verwendet wird und wird wohl preislich nicht viel höher liegen, da es ja eher der Lowend bis Mainstream GDDR4 ist.

Und das noch dazu in 65nm. Sorry, halte ich für unlogisch.
So unlogisch ist es auch nicht, diesmal möchte vielleicht ATi auch Mainstream-Produkt haben, mit dessen Preis sie die Konkurrenz stark unter Druck setzen können und trotzdem noch eine gute Marge haben.
Langsam sollte sich ja in diesem Bereich etwas tun, nach den Fehlschlägen in der Vergangenheit.;)

reunion
2007-02-01, 20:27:05
LS: Die Frage ist, wie diese "5D"-ALUs unterteilt sin: Vec4+1 (Xenos) oder flexibler (zB Vec2+Vec2 wie beim G70/G71).

Du mischt hier einiges durcheinander. G71 hat eine vec3+1-ALU (genau wie R300-R580)und Xenos eine vec4+1-ALU. Diese können je nach Chip unterschiedlich gesplittet werden. AFAIK kann auch Xenos seine ALUs splitten. Und R600 wird hier sicherlich sehr flexibel sein.

dargo
2007-02-01, 20:27:51
Aber stell dir mal vor:
FP32 + AA
Ja, das meinte ich natürlich. :)

Man nimmt halt den günstigen Bandbreitenpush durch GDDR4 mit.

GDDR4 1100-1200MHz bringt halt 60-70% mehr Bandbreite gegenüber dem GDDR3 der bisher bei den Mainstreammodellen verwendet wird und wird wohl preislich nicht viel höher liegen, da es ja eher der Lowend bis Mainstream GDDR4 ist.

Im Prinzip es es doch egal wie man die Bandbreite erreicht. Ob durch breiteres SI oder mehr Speichertakt. AMD/ATI wird schon wissen was günstiger ist.

reunion
2007-02-01, 20:32:16
Man nimmt halt den günstigen Bandbreitenpush durch GDDR4 mit.

GDDR4 1100-1200MHz bringt halt 60-70% mehr Bandbreite gegenüber dem GDDR3 der bisher bei den Mainstreammodellen verwendet wird und wird wohl preislich nicht viel höher liegen, da es ja eher der Lowend bis Mainstream GDDR4 ist.


Den "günstigen Bandbreitenpush" nimmt man auch bei R600 mit.


So unlogisch ist es auch nicht, diesmal möchte vielleicht ATi auch Mainstream-Produkt haben, mit dessen Preis sie die Konkurrenz stark unter Druck setzen können und trotzdem noch eine gute Marge haben.
Langsam sollte sich ja in diesem Bereich etwas tun, nach den Fehlschlägen in der Vergangenheit.;)

Das beste Druckmittel ist nach wie vor die Leistung. Ich halte das wie schon gesagt für blödsinn, da es in relation zu R600 keine Sinn ergibt. Wir können uns ja im April nochmal darüber unterhalten.

dargo
2007-02-01, 20:33:23
Den "günstigen Bandbreitenpush" nimmt man auch bei R600 mit.

Der spielt aber in einer ganz anderen Preis-Liga.

reunion
2007-02-01, 20:35:23
Niemand hat etwas zu verschenken, egal in welcher Preisliga.

deekey777
2007-02-01, 20:40:12
Du mischt hier einiges durcheinander. G71 hat eine vec3+1-ALU (genau wie R300-R580)und Xenos eine vec4+1-ALU. Diese können je nach Chip unterschiedlich gesplittet werden. AFAIK kann auch Xenos seine ALUs splitten. Und R600 wird hier sicherlich sehr flexibel sein.
G70-ALU: Vec3+1 oder 2+2
Xenos: Vec4+1 ("5D")

dargo
2007-02-01, 20:41:28
Niemand hat etwas zu verschenken, egal in welcher Preisliga.
Wieso verschenken?
Anscheinend braucht der R600 diese Bandbreite. Und mit einem 384Bit SI bräuchte man schon 1,6Ghz GDDR4. Ob das günstiger heute wäre?

reunion
2007-02-01, 20:44:41
Wieso verschenken?
Anscheinend braucht der R600 diese Bandbreite. Und mit einem 384Bit SI bräuchte man schon 1,6Ghz GDDR4. Ob das günstiger heute wäre?

Eben. Und wenn RV630 ein halber R600 wird, dann braucht er das 256-bit SI mit entsprechenden Taktraten genau so dringend wie R600 das 512-bit SI.

AnarchX
2007-02-01, 20:47:53
Den "günstigen Bandbreitenpush" nimmt man auch bei R600 mit.
Aber hier stellt sich die Frage, ob es mehr als ein Papierfeature ist.
150GB/s werden imo abseits von 2xxx x1xxx + 8xMSAA+AAA nicht viel dem R600 bringen.


Das beste Druckmittel ist nach wie vor die Leistung.
Aber zu welchem Preis...

Mit dem Verkauf von Highend-GPUs(X800GT/X1800GTO) oder viel zu schwachen Mainstream-GPUs im Verhältnis zu ihrem Transistorcount(RV530/RV560(570)), wo die Konkurrenzprodukte eine deutlich höhere Marge haben, fährt man halt langfristig nicht so gut, da dieser Markt eben nicht ganz unbedeutend ist.


Ich halte das wie schon gesagt für blödsinn, da es in relation zu R600 keine Sinn ergibt.
R600 war halt strategisch auf 512Bit geplant, bei RV610/630 hat man halt in Anbetracht, dass mit GDDR4 alles klappt halt umgeplant.


Wir können uns ja im April nochmal darüber unterhalten.
Ja, bis dahin wissen wir hoffentlich mehr.

dargo
2007-02-01, 20:49:58
Eben. Und wenn RV630 ein halber R600 wird, dann braucht er das 256-bit SI mit entsprechenden Taktraten genau so dringend wie R600 das 512-bit SI.
Das sehe ich nicht so. Mainstream ist nicht auf hohe Auflösung + viel AA ausgelegt.

reunion
2007-02-01, 20:56:02
G70-ALU: Vec3+1 oder 2+2
Xenos: Vec4+1 ("5D")

Sorry, mein Fehler. Habe das falsch gelesen.


Aber hier stellt sich die Frage, ob es mehr als ein Papierfeature ist.
150GB/s werden imo abseits von 2xxx x1xxx + 8xMSAA+AAA nicht viel dem R600 bringen.


Das wird sich zeigen. Würde es nichts bringen, dann könnte man auch wesentlich billigeren Speicher verbauen.


Aber zu welchem Preis...

Mit dem Verkauf von Highend-GPUs(X800GT/X1800GTO) oder viel zu schwachen Mainstream-GPUs im Verhältnis zu ihrem Transistorcount(RV530/RV560(570)), wo die Konkurrenzprodukte eine deutlich höhere Marge haben, fährt man halt langfristig nicht so gut, da dieser Markt eben nicht ganz unbedeutend ist.


R600 ist in 80nm im Vergleich zu G80 relativ klein. Jetzt soll RV630/610 in 65nm kommen und nur halbierte, bzw. geviertelte R600-Cores sein. Ich glaube nicht, dass man hier ein Problem mit der Die-Größe haben wird.


R600 war halt strategisch auf 512Bit geplant, bei RV610/630 hat man halt in Anbetracht, dass mit GDDR4 alles klappt halt umgeplant.


Etwas mehr als eine VR-Zone Meldung, die in der Vergangenheit schon sehr viel BS verbreitet haben, brauche ich schon, um das so wie du als Tatsche hinzustellen, und sämtliche Logik außer acht zu lassen.

/Edit: Ich sehe gerade die Meldung kam von PCPOP.com. Kommt im Grunde auf gleiche hinaus. :)

Headman
2007-02-01, 20:58:42
Das ein R600 Mainstream Chip mit 256 bit kommen wird ist mehr als wahrscheinlich, die Frage ist nur ob es sich dabei schon um den R630 oder nicht doch um einen etwas später erscheinenden r660 oder r670 handelt.

AnarchX
2007-02-01, 21:04:51
Das wird sich zeigen. Würde es nichts bringen, dann könnte man auch wesentlich billigeren Speicher verbauen.
Das scheint ja man auch ausserhalb der X2800XTX zu machen und 1200MHz GDDR4 ist ja auch nicht das Schnellste, was Samsung im Angebot hat.


R600 ist in 80nm im Vergleich zu G80 relativ klein. Jetzt soll RV630/610 in 65nm kommen und nur halbierte, bzw. geviertelte R600-Cores sein. Ich glaube nicht, dass man hier ein Problem mit der Die-Größe haben wird.
Gut dass du soviel Vertrauen in ATi hast, obwohl man gerade hier in der Vergangenheit nicht wirklich punkten konnte.


Etwas mehr als eine VR-Zone Meldung, die in der Vergangenheit schon sehr viel BS verbreitet haben, brauche ich schon, um das so wie du als Tatsche hinzustellen, und sämtliche Logik außer acht zu lassen.
Die 128Bit wurden ja nicht nur von VR-Zone berichtet.
Aber wie schon gesagt, sollten wir abwarten, aber die Möglichkeit eines Preiskampf-RV630 mit 128Bit+GDDR4 klingt auch nicht unbedingt so unlogisch.;)

reunion
2007-02-01, 21:25:25
Das sehe ich nicht so. Mainstream ist nicht auf hohe Auflösung + viel AA ausgelegt.

Das halte ich für eine grundsätzliche Fehleinschätzung. Dass Mainstream-GPUs bei hoher Last schneller die Luft ausgeht, ist klar, deshalb haben Midragechips in der Regel auch ein leicht höheres Füllraten-/Bandbreitenverhältnis, aber nicht in diesem Ausmaß.

Das scheint ja man auch ausserhalb der X2800XTX zu machen und 1200MHz GDDR4 ist ja auch nicht das Schnellste, was Samsung im Angebot hat.


Wäre 1200Mhz GDDR4 nutzlos, würde man sie auch auf der XTX nicht verbauen. Es geht um die Relation. Und diese ist hier extrem verzerrt. Sofern RV630 ein halber R600 ist, glaube ich daran nicht.


Gut dass du soviel Vertrauen in ATi hast, obwohl man gerade hier in der Vergangenheit nicht wirklich punkten konnte.


Tolles Statement. :|
Das kann man aus der Die-Größe des R600 und dem Fertigungsprozess der kleiner Chips sehr gut abschätzen. Und das habe ich oben auch ausgeführt. Dein Kommentar war völlig unnötig. Eine neue Generation bedeutet neue Voraussetzungen. Hier irgendwelche Leichen auszugraben, bringt gar nichs. Ich bin eher gespannt, wie das nV mit 80nm und einer vermutlich ähnlich hohen Transistorenanzahl lösen will.


Die 128Bit wurden ja nicht nur von VR-Zone berichtet.
Aber wie schon gesagt, sollten wir abwarten, aber die Möglichkeit eines Preiskampf-RV630 mit 128Bit+GDDR4 klingt auch nicht unbedingt so unlogisch.;)

Die Lücke zwischen R600 und RV630 wäre viel zu groß. Die Cores basieren auf der gleichen Architektur, nein, das erscheint mir nicht logisch. Ein Midragechip hatte in der Vergangenheit soweit ich mich erinnern kann immer ein halb so breites SI wie der High-End-Chip. Es wäre ja auch unlogisch, das eine zu halbieren, und das andere zu vierteln. Das würde eine völlig unbarlancierten Chip ergeben. Preiskampf schön und gut, aber das Ganze sollte schon etwas besser begründet sein. Und das RV610 angeblich nur mit einem 64-bit SI kommen soll, wo auch im Lowend-Bereich 128-bit schon lange Standard ist, man in einen kleinen Fertigungsprozess fertigt, und R600 offensichtlich auf 512-bit aufgestockt wurde, etc. nimmt mir den letzten Glauben, dass diese Meldung der Realität entspricht.

Gast
2007-02-01, 22:27:51
Sofern RV630 ein halber R600 ist, glaube ich daran nicht.


wer sagt denn dass ein RV630 ein halber R600 ist?

die X1600 ist auch nur 1/4 X1900.

reunion
2007-02-01, 22:38:54
wer sagt denn dass ein RV630 ein halber R600 ist?

die X1600 ist auch nur 1/4 X1900.

Eben, deshalb habe ich weiter hinten ja auch geschrieben, "sofern man keinen möchtegern Midragechip wie RV530 bringt". Wobei mir dann die 64-bit von RV610 noch immer unrealistisch erscheinen.

w0mbat
2007-02-01, 22:46:49
R600 OEM:
http://img176.imageshack.us/img176/3029/r600na3.jpg

dildo4u
2007-02-01, 22:50:31
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5216309#post5216309 ;)

w0mbat
2007-02-01, 22:53:13
Damm, so weit oben^^ Sry, war zu spät und schäme mich dafür.

Gast
2007-02-01, 23:38:06
Sieht ziemlich gross aus die Karte?

Ich tippe mall auf 37 Cm.

maximus_hertus
2007-02-01, 23:57:19
Die Karte sollte ca. 31 cm (12") lang sein.

seahawk
2007-02-02, 07:07:58
Die Frage ist was ein MAinstreamchip ist. Eine Art 1950PRO z.B., nur plant ATI ja auch abgespeckte Versionen des R600 mit deaktivierten Teilen des Chips. Daneben braucht man akut keine Mainstreamlösung.

Primär wichtig sind

a) High-End
b) Einstiegssegment
c) OEM Performance Segment also NAchfolger für X1600 und 7600.

Den Rest kann man mit defekten High-End-Chips und Chips der Vorgängergenration erstmal abdecken.