PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kommende GeForce 200 - Teil 2


Seiten : [1] 2 3 4 5

AnarchX
2008-10-09, 14:05:14
<Teil 1< (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6836757#post6836757)

nVidia - GeForce GTX 295: (P)Review-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=441300)

Erste GTX260 in 55nm im Anmarsch! (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=441670)


Nachdem nun GT200 als GTX 280 und 260 in die Öffentlichkeit getretten ist, soll es hier nun um die zum Teil schon bekannten Nachfolger bzw. Ableger gehen.

G200B:
- (optischer) Shrink von GT200 auf 55nm, der in einen ~470mm² Die resultieren soll -> Kostenersparnis durch geringe Produktionskosten und geringere TDP
- H2 2008: 22. Oktober?
(http://www.nvnews.net/vbulletin/showthread.php?p=1780841#post1780841)
You want to see something amazing? =)
That's supposedly GT200 die...

http://i33.tinypic.com/o794c8.jpg

http://i33.tinypic.com/o5nsbt.jpg

...But it doesn't look like GT200 die and it's size is much smaller (G80 die is different too although the size is more or less comparable).
Any ideas what this is?

So the result is that this is GT200b? =)

Here's another picture, with broken G80 side by side:

http://i36.tinypic.com/2rqy8uv.jpg

http://forum.beyond3d.com/showthread.php?t=47604&page=3


http://img78.imageshack.us/img78/2654/55nmgt200lc9.jpg (http://imageshack.us)
http://en.expreview.com/2008/12/02/the-worlds-first-image-of-55nm-gt200-exposed.html

weitere GeForce 200 GPUs von integriert bis High-End:
GT206 iGT206 iGT209 GT212 GT214 GT216 GT218
http://forum.beyond3d.com/showpost.php?p=1163221&postcount=1073
NVIDIA_DEV.06A0.01 = "NVIDIA GT214"
NVIDIA_DEV.06B0.01 = "NVIDIA GT214 "
NVIDIA_DEV.0A00.01 = "NVIDIA GT212"
NVIDIA_DEV.0A10.01 = "NVIDIA GT212 "
NVIDIA_DEV.0A30.01 = "NVIDIA GT216"
NVIDIA_DEV.0A60.01 = "NVIDIA GT218"
NVIDIA_DEV.0A70.01 = "NVIDIA GT218 "
NVIDIA_DEV.0A7D.01 = "NVIDIA GT218 "
NVIDIA_DEV.0A7F.01 = "NVIDIA GT218 "
NVIDIA_DEV.0CA0.01 = "NVIDIA GT215"
NVIDIA_DEV.0CB0.01 = "NVIDIA GT215 "



http://img398.imageshack.us/img398/4585/nvidiaroadmapgt212gt206wz6.jpg (http://imageshack.us)

http://en.expreview.com/2008/09/09/elsa-hints-nvidias-next-step-is-45nm-gt212/

Infos zu 40nm @ TSMC (http://www.tsmc.com/download/english/a05_literature/02_40_and_45_Nanometer_Process_Technology.pdf)

GeForce GTX = Enthusiast
GeForce GT = High-end performance
GeForce GS = Mid-range performance (tentative)
GeForce G = Entry (IGP products and sharing)

GTX= 260 through 290
GT= 230 through 250
GS= 210 through 220
G= 201 through 209
http://hkepc.com/?id=1321&fs=c1hh

GeForce 200 und GDDR5:
- laut Industriequellen (http://www.bit-tech.net/news/2008/06/05/d12u-will-be-first-nvidia-gpu-with-gddr5-support/1) momentan nicht vor 2009 geplant

Mobile GeForce 200/GT21x:
http://img123.imageshack.us/img123/9020/nvmobilegpu20090775116se3.gif (http://imageshack.us)
http://vr-zone.com/articles/nvidia-40nm-mobile-gpus-line-up-for-2009/6378.html?doc=6378


GTX 260 mit 216SPs @ 65nm:
GTX 260 mit 216SPs im September = GTX 270? (http://en.expreview.com/2008/08/21/nvidia-will-offer-a-upgraded-gtx-260-in-mid-september/)

In einem Gespräch mit Nvidia hat uns Jens Neuschäfer, PR-Manager für Zentraleuropa, nun verraten, dass diese Gerüchte den Tatsachen entsprechen. So wird die GeForce GTX 260 ab sofort aufgerüstet und die langsameren Modelle sollen mit der Zeit abverkauft werden. Eine von uns vorgeschlagene Namensänderung auf „GeForce GTX 270“ soll es allerdings nicht geben, da dazu die Modifizierungen zu gering sein sollen. Ab der zweiten Septemberhälfte soll die neue GeForce GTX 260 im Handel erhältlich sein.
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/august/nvidia_gtx_260_216_alus/

HKEPC-Test der GTX 260 GOLD mit 216SPs (http://hkepc.com/?id=1684&fs=c1hh)

GTX 260 mit 216SPs @ 55nm und neuem PCB:
http://img370.imageshack.us/img370/6241/260card5940044im8.jpg (http://imageshack.us)
http://en.expreview.com/2008/12/05/first-look-of-55nm-geforce-gtx260.html
- 10 PCB-Layer anstatt 14
- einseitige Bestückung mit Speicherchips
- 55nm G200
- Design-Kit für Hersteller
-> günstigere Preise für die Zukunft möglich


GTX 290? GTX 285
NVIDIA_GT200.DEV_05E0.1 = "NVIDIA GT200-400"
- Leistung: GTX 280 + 10%
- TDP: 186W (http://en.expreview.com/2008/12/11/1602.html)
- Taktraten: 648/1476/1242MHZ (http://en.expreview.com/2008/12/16/reliable-information-shows-improved-frequency-of-nvidia-gtx285.html)
- Launch: CES 8.1.09

http://img381.imageshack.us/img381/1745/gtx285173705997378262tm4.jpg (http://imageshack.us)
http://img387.imageshack.us/img387/3120/gtx285273914717395994yv4.jpg (http://imageshack.us)

Neues, einseitig mit Speicher bestücktes PCB:
http://img114.imageshack.us/img114/9073/285042408324od6.jpg (http://imageshack.us)
http://www.expreview.com/news/hard/2009-01-03/1230967847d11034.html


GTX 295 (G200-GX2)
Nvidia scheint sich zur 4870X2 geäußert zu haben und macht dabei eine Andeutung:
So meint man, dass der Vergleich GTX 280 mit X2 nicht fair wäre, da letzere auf 2 GPUs setzt und wenn dies Nvidia ebenfalls machen würde, dann wäre die Leistung höher als bei der X2.
Wenn der Markt es verlangt dann wird Nvidia auch eine Dual-GPU-SKU vorstellen, zumal Nvidia die bessere Bildqualität und das bessere MGPU-Konzept bietet.

Quelle (http://news.ccw.com.cn/chipProduce/htm2008/20080813_482654.shtml)

So you just have to take it case by case and -- but we think our approach is the right approach. The best approach is to do both. If we could offer a single chip solution at 399, it certainly doesn’t preclude us from building a two-chip solution at something higher. So I think that having the right price, right product at each price point and the best-performing product at each price point is the most important thing.
http://seekingalpha.com/article/90644-nvidia-f2q09-qtr-end-7-27-08-earnings-call-transcript?page=-1

NVIDIA Dual-GPU GTX260 GX2 shows up Jan 09 (http://en.expreview.com/2008/11/19/nvidia-dual-gpu-gtx260-gx2-shows-up-jan-09.html)

As informer tells, NVIDIA has decided to release GeForce GTX260 GX2 to hit back in January next year. Anyway, we know the emergence of such a product is really the way to go.

http://img214.imageshack.us/img214/2326/geforcegtx29512166266hv4.jpg (http://imageshack.us)
http://vr-zone.com/articles/geforce-gtx-295-card-exposed/6264.html?doc=6264
- Launch: CES 8.1.09
- 2x240SPs, 2x448-Bit, 2x896MiB (http://en.expreview.com/2008/12/09/geforce-gtx295-with-480sp-surely-to-come-in-ces-09.html)
Weitere Bilder der GTX 295:
http://vr-zone.com/articles/more-geforce-gtx-295-card-shots/6274.html?doc=6274

http://img72.imageshack.us/img72/802/gtx29519499493lc3.jpg (http://imageshack.us)

http://img72.imageshack.us/img72/3163/gtx285295specs9264878pn8.gif (http://imageshack.us)

http://img72.imageshack.us/img72/2205/gtx29549318937or6.jpg (http://imageshack.us)
http://vr-zone.com/articles/geforce-gtx-295-vs-hd-4870-x2-benchmarks/6297.html?doc=6297
Mehr Bilder, PhysX-Benchmark:
http://publish.it168.com/2008/1215/20081215046302.shtml
http://img72.imageshack.us/img72/7428/1277874qo8.jpg

Ailuros
2008-10-09, 14:19:12
@Ailuros

Wieso soll das nicht gehen? Eine GTX 260 hat eine ähnliche Verbraucharakteristik wie eine HD 4870 und 2 davon sind schneller als eine HD4870.

Wenn der G206 wirklich 8 G200 Cluster ist mit hier und da ein paar Einsparungen am Chip könnte ich mir durchaus eine Dual Karte damit vorstellen.
Wenn NV ganz verzweifelt ist, könnten sie ja auch wie ATi an der Bildqualität drehen. Dadurch wird der Balken so einer Dual Karte auch nochmal länger.

GT206 aka GT200b soll aber ein einfacher die shrink sein und kein 8 cluster GT200 (und ich sehe uebrigens auf Tesla Spezifikationen 240SPs und nicht weniger) was wohl irgendwo um die 460-470mm^2 @55nm bedeuten koennte wenn gar nichts entfernt wurde. Ich bin jetzt mal grosszuegig und sage dass es "nur" 400 quadratmillimeter pro core sind, der ganze Spass mal 2x und dazu noch 2GB Speicher. Du kannst mir ja gerne sagen dass sie das Ding fuer $600 verkaufen koennen, sag mir aber dann auch gleich ob sie auch noch Gewinn von dem oeden Ding noch machen koennen. Wenn's natuerlich ein "limited edition" Exemplar wird fuer benchmarks und reviews und ein paar hundert verstreute Verbraucher, ja klar kein Problem. Aber so ein Ding in Massen-produktion zu schicken waere finanzieller Selbstmord; stets natuerlich IMHLO.

VooDoo7mx
2008-10-09, 15:06:56
Aber so nen nVidia Fuzzi hat ja gesagt, dass sie sich dieses jahr noch die Balkenkrone wiederholen. Der wird das nicht einfach so gesagt ahben ohne ein wirkliches Produkt ind er Pipeline zu haben.

Nightspider
2008-10-09, 15:12:36
Um in jedem Spiel vor einer HD4870 zu sein müsste Nvidia zum Shrink auch noch die Taktraten erhöhen, was den Strombedarf wieder erhöht.

Ich möchte nicht wissen was solch ein GX2 Monster verbraten würde. Vllt werden die 300W ja noch wahr. :eek:

Wie soll die dann heißen? GTX290 GX2 ?

Zudem hat Nvidia alle Nachteile auf seiner Seite.

Nvidia hat 2 dicke 512 Bit Speicherinterface, baut wohl sicherlich wieder die GX2 aus 2 Platinen anstatt aus einer langen wie ATI. Zwar spart Nvidia am GDDR3 Speicher im Gegegensatz zu 2GB GDDR5 wie bei der X2 aber 2 Platinen mit 512 Bit SI sind echt der hammer...wer weiß vllt verbaut Nvidia auch jetzt schon GDDR5

Ailuros
2008-10-09, 15:18:13
Aber so nen nVidia Fuzzi hat ja gesagt, dass sie sich dieses jahr noch die Balkenkrone wiederholen. Der wird das nicht einfach so gesagt ahben ohne ein wirkliches Produkt ind er Pipeline zu haben.

Kommt ganz drauf an wie man sich die angebliche Balkenkrone holt.

reunion
2008-10-09, 15:20:13
Zwar spart Nvidia am GDDR3 Speicher im Gegegensatz zu 2GB GDDR5 wie bei der X2[..]

Nicht unbedingt, da nV für 2GB GDDR3 an zwei 512-bit Busse 32(!) Speicherbausteine benötigt, AMD für die 2GB GDDR5 an den zwei 256-bit Bussen nur 16. Das ganze ist völlig unrealistisch in meinen Augen.

Nightspider
2008-10-09, 15:23:04
Nicht unbedingt, da nV für 2GB GDDR3 an zwei 512-bit Busse 32(!) Speicherbausteine benötigt, AMD für die 2GB GDDR5 an den zwei 256-bit Bussen nur 16. Das ganze ist völlig unrealistisch in meinen Augen.

Okay da hast du auch wieder Recht...

VooDoo7mx
2008-10-09, 15:36:17
Nicht unbedingt, da nV für 2GB GDDR3 an zwei 512-bit Busse 32(!) Speicherbausteine benötigt, AMD für die 2GB GDDR5 an den zwei 256-bit Bussen nur 16. Das ganze ist völlig unrealistisch in meinen Augen.

Solange du nicht mit Preistabellen von den Herstellern kommst, um das zu beweisen istd ies absolut bedeutungslos.
Gerade GDDR5 dürfte ziemlich teuer sein, da 1. sehr neu und 2. im Vergleich zu GDDR3 in winzigen Massen hergesetllt wird.

reunion
2008-10-09, 15:41:56
Solange du nicht mit Preistabellen von den Herstellern kommst, um das zu beweisen istd ies absolut bedeutungslos.
Gerade GDDR5 dürfte ziemlich teuer sein, da 1. sehr neu und 2. im Vergleich zu GDDR3 in winzigen Massen hergesetllt wird.

Ich habe nicht ohne Grund geschrieben "nicht unbedingt" anstatt zB "sicher nicht". Kann sich ja jeder selbst seinen Teil denken. Wieviel AMD oder nV konkret für Speicher xy zahlen ist Vertragssache und natürlich ein gut gehütetes Geheimnis. So oder so wären zwei Platinen, zwei 512-bit Busse, NVIO, PCIe-Bridge, zwei >450mm² Chips und 2GB GDDR3 Speicher bei 32 Speicherbausteinen ein finanzpolitischer Supergau, wenn es überhaupt praktisch umsetzbar ist.

Undertaker
2008-10-09, 16:36:46
Wenn dafür der doppelte Preis einer GTX260 verlangt werden kann...?

Sorkalm
2008-10-09, 16:39:08
Wenn dafür der doppelte Preis einer GTX260 verlangt werden kann...?

Ist immer noch teurer. Man braucht ja nicht nur vollständig funktionierende Dice (im Gegensatz zur GTX 260) und auch noch einen Tick mehr Speicherbausteine, sondern auch noch zusätzliche Entwicklungskapazitäten für die Konstruktion (viel auf engen Raum, gerade für die Kühlung schwierig) und vmtl. auch eine Anpassung der SLI-Treiber.

Dural
2008-10-10, 00:42:02
Man müsste halt immer noch wissen was ein GT206 genau ist, wenn es ein abgespeckter G200 mit 256Bit GDDR5 SI ist, ist eine Dual GPU Karte ohne Probleme möglich.

und ich glaube genau das wird auch der Fall sein, es macht auch keinen Sinn einen G200b plötzlich GT206 zu nenen.

Von mir ausgesehen ist der GT206 nur die Antwort auf den RV770, nicht mehr und nicht weniger! NV war doch von Anfang klar das sie mit dem G200 Preislich nicht mit dem RV770 mithalten konnte und haben sich an die Entwicklung eines kleineren Chips gemacht.

Ist immer noch teurer. Man braucht ja nicht nur vollständig funktionierende Dice (im Gegensatz zur GTX 260) und auch noch einen Tick mehr Speicherbausteine, sondern auch noch zusätzliche Entwicklungskapazitäten für die Konstruktion (viel auf engen Raum, gerade für die Kühlung schwierig) und vmtl. auch eine Anpassung der SLI-Treiber.

Wie so braucht man den einen vollen G200? Man könnte da auch sehr gut die GTX 260 216SP Chips nehmen, die dank geringer Spannung sogar
weniger Verbrauchen als die alten GTX 260 192SP! Grösstes Problem beim G200 wäre wohl das SI, das müsste man auf min. 384Bit reduzieren, mit Einsatz von GDDR5 wären natürlich 256Bit ideal...

Gast
2008-10-10, 08:08:13
und ich glaube genau das wird auch der Fall sein, es macht auch keinen Sinn einen G200b plötzlich GT206 zu nenen.


Warum nicht? Nvidia ist ja in letzter Zeit sehr großzügig mit dem umfirmieren von Produktnamen. vielleicht haben sie das jetzt auch bei internen Projektnamen so gemacht. GT206 klingt halt viel besser als GT200b.

Unyu
2008-10-10, 09:18:46
sondern auch noch zusätzliche Entwicklungskapazitäten für die Konstruktion (viel auf engen Raum, gerade für die Kühlung schwierig) und vmtl. auch eine Anpassung der SLI-Treiber.
Warum sollte der Platz bei 2 PCBs knapp werden?

Bei AMDs 4870 X2 gilt das Platzproblem nicht oder was?

pest
2008-10-10, 09:20:13
vom ökonomischen Standpunkt aus betrachtet legt NV ein Verhalten an den Tag, das man fast davon ausgehen kann, das im Nov neue Karten kommen

igg
2008-10-10, 09:47:19
Wenn der GT206 tatsächlich nur ein GT200b ohne Modifikation ist, wird es Nvidia bis zum DX11 Chip noch sehr schwer haben... aber ich kann mir eigentlich nicht vorstellen, dass sie keinen GDDR5 Chip mit kleinerem (günstigeren) SI für H2 08 geplant haben. Selbst ohne den RV770 wäre das strategisch sinnvoll gewesen.

MEDIC-on-DUTY
2008-10-10, 10:30:04
CB hat´s auch gerade von den Dächern verkündet:

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/oktober/geforce_gtx_270_gtx_290_gx2_november/
Ein paar noname Bilder gibt´s auch dazu: quelle: http://forum.beyond3d.com/showthread.php?t=47604&page=4

Beste Grüße
Medic

Ailuros
2008-10-10, 20:42:21
CB hat´s auch gerade von den Dächern verkündet:

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/oktober/geforce_gtx_270_gtx_290_gx2_november/
Ein paar noname Bilder gibt´s auch dazu: quelle: http://forum.beyond3d.com/showthread.php?t=47604&page=4

Beste Grüße
Medic

CB erwaehnt den Inquirer als Quelle. Zu einer hypothetischen GX2 kann AMD kinderleicht mit einer Preisreduktion ihrer 4870X2 reagieren ohne irgend ein Loch in die Rechnung zu bohren.

horn 12
2008-10-10, 21:50:00
Ja ein Preissturz auf die 320-330 Euro würde NV wohl nun fast schon das Genick brechen, und von dem Preisschema sollte man schon fast ausgehen.
Karte war/ ist nun seit ca. 3 Monaten Preisstabil gewesen, eher noch zu teuer den letzten Monat!
Fakt ist aber auch dass die X² er Karten derzeit total überteuert sind, vor allem bei uns in Italien kaum eine unter die 400 Euro zu finden!

Nightspider
2008-10-11, 01:21:13
Meint ihr wirklich das da noch großartig Spielraum ist, um die X2 im Preis zu senken? Neben den 2GB GDDR5 Speicher, dem extra-Chip auf der Platine um die Bandbreite zwischen den Chips zu erhöhen und dem teureren PCB wird es sicherlich keinen soo großen Spielraum geben. Zumal ich denke das AMD die Preise schon rel. aggressiv gestaltet hat, als die Karten auf den Markt geworfen hat.

Sorkalm
2008-10-11, 02:48:33
Die Preise waren aggressiv betrachtet man Performance zum Preis. Aber nicht was die Produktionskosten angeht. Die HD 4850 hat nun nichts sonderlich teures und kann trotzdem ab 130 Euro verkauft werden. Die X1950 Pro lag damals um 100 Euro und drunter, gar nicht lange nach Vekaufsstart. Mit einem ähnlich großen Die. Die HD 4870 hat GDDR5-Speicher und nen besseren Kühler (mehr) Takt und kann um 200 Euro verkauft werden - das ist doch traumhaft. Und die 1024 MiB-4870-Versionen zeigen auch, dass der GDDR5-Speicher nicht so teuer ist. Zumal der jeden Tag billiger werden dürfte.

Und naja, es ist ein PCB. Sicher etwas komplexer, aber wenn man sich überlegt was Nvidia ab 200 Euro verkauft, wird man sich das beim High-End-Modell leisten können. ;)

Undertaker
2008-10-11, 07:02:42
Also traumhaft sind die Gewinne bestimmt nicht, wenn man noch vor 2-3 Jahren kleinere Chips auf Karten im Bereich von 400-500€ verbaut hat - der RV770 ist kein riesiger Chip, aber etwas größeres für 120€ praktisch direkt nach dem Launch der Generation gab es wohl noch nie - hier waren in der Vergangenheit eigentlich immer deutlich kleinere Midrangekarten auf dem Markt.

Ailuros
2008-10-11, 09:53:27
Meint ihr wirklich das da noch großartig Spielraum ist, um die X2 im Preis zu senken? Neben den 2GB GDDR5 Speicher, dem extra-Chip auf der Platine um die Bandbreite zwischen den Chips zu erhöhen und dem teureren PCB wird es sicherlich keinen soo großen Spielraum geben. Zumal ich denke das AMD die Preise schon rel. aggressiv gestaltet hat, als die Karten auf den Markt geworfen hat.

Grossartig nicht, aber AMD hat eben den Luxus dank dem kleinerem die stets um einen Schnitt billiger verkaufen zu koennen. Kommt NV tatsaechlich mit einer GX2@55nm an, dann koennen sie so ein Ding garantiert nicht mit nur sagen wir mal 350+ Euro verkaufen ohne in die Unkosten zu beissen.

Logischerweise haette NV eine GX2 fuer 40nm geplant fuer irgendwo Fruehling 2009 (Verfuegbarkeitsprobleme bei TSMC inklusive); kommt jetzt doch noch eine GX2@55nm macht nur sehr begrenzte Verfuegbarkeit Sinn.

Sorkalm
2008-10-11, 13:02:44
Also traumhaft sind die Gewinne bestimmt nicht, wenn man noch vor 2-3 Jahren kleinere Chips auf Karten im Bereich von 400-500€ verbaut hat - der RV770 ist kein riesiger Chip, aber etwas größeres für 120€ praktisch direkt nach dem Launch der Generation gab es wohl noch nie - hier waren in der Vergangenheit eigentlich immer deutlich kleinere Midrangekarten auf dem Markt.

Du darfst aber nicht vergessen, dass die Grafikchips erst seit etwa geschätzt 2006 auch komplett auf 300mm-Wafern gefertigt werden dürften (eher hat meines Wissens TSMC die relevanten Fabriken nicht umgerüstet). Das sie auf 200ern teurer waren versteht sich ja von selbst.

LovesuckZ
2008-10-11, 20:32:41
2006 hat nVidia 19xmm^2 für 500€ Euo verkauft. Heute hat man 25% mehr Fläche für nur noch 1/5 des Preises. Dazu kommt teurer Speicher, aufwendigere Platinen.
Klar, Gewinne macht man schon, nur eben nicht soviel wie früher.

Sorkalm
2008-10-11, 21:36:59
Naja, der G71 war aber auch ne einmalige Ausnahme. Der NV40 war auch schon deutlich größer.

LovesuckZ
2008-10-11, 21:39:06
NV40 kostete auch 500+. Die Margen gehen einfach in den Keller und das betrifft beide Firmen. Und da wird man sich in den nächsten Jahren auch nicht mehr erholen können.

reunion
2008-10-12, 12:47:08
NV40 kostete auch 500+. Die Margen gehen einfach in den Keller und das betrifft beide Firmen. Und da wird man sich in den nächsten Jahren auch nicht mehr erholen können.

Solange nV weiterhin Monsterdice in solch niedrige Preisregionen drücken wird sicher nicht. Alleine schon eine GTX 260 um 200€ ist eigentlich eine mittelschwere Katastrophe IMHO.

LovesuckZ
2008-10-12, 13:00:20
Das hört sich so an als ob 260mm^2 für 120€ besser wären. Oder wie wäre es mit 145mm^2 für 70€?
AMD selbst verschärbelt ihre konkurrenzfähigen Produkte, so dass am Ende kaum etwas übrig bleibt - außer einem kaputten Markt, der für beide Hersteller kein Potential mehr hergibt.

Leonidas
2008-10-13, 18:50:48
Bei AMD regiert IMO derzeit der pure Drang zum größeren Marktanteil. Was auch - sieht man sich an, wo man 2007 stand - irgendwo nachzuvollziehen ist.

Schlammsau
2008-10-13, 19:42:42
Das hört sich so an als ob 260mm^2 für 120€ besser wären. Oder wie wäre es mit 145mm^2 für 70€?
AMD selbst verschärbelt ihre konkurrenzfähigen Produkte, so dass am Ende kaum etwas übrig bleibt - außer einem kaputten Markt, der für beide Hersteller kein Potential mehr hergibt.

Wie bekommt man verlorene Marktanteile zurück?

[ ] durch einen höheren Preis als die Konkurrenz
[ ] durch den gleichen Preis wie die Konkurrenz
[x] durch einen niedrigeren Preis als die Konkurrenz

LovesuckZ
2008-10-13, 19:48:58
Wem geht es denn um Marktanteile? Man kann sie schnell gewinnen und verlieren. Einen kaputten Markt wird man ewig erhalten.

reunion
2008-10-13, 19:50:28
Vorallem mit effizienten Produkten. AMD hat in praktisch jedem Segment kleinere Dice als nV und kann sich deshalb den niedrigen Preis mit Sicherheit eher leisten.

Schlammsau
2008-10-13, 19:54:01
Wem geht es denn um Marktanteile? Man kann sie schnell gewinnen und verlieren. Einen kaputten Markt wird man ewig erhalten.

Wieso sollte der Markt kaputt sein? Wie definierst du einen kaputten Markt?
Hast du zu beiden Konzernspitzen Kontakt? Hat sich Jen-Hsun Huang an deiner Schulter ausgeweint, wie pöse den ATi nur ist, und den Kartenpreis so niedrig hält? Ich glaubs ja nicht.......
Und Marktanteile bekommt man nur zurück, wenn du erstens billiger bist und zweitens, die bessere Performance bringst. ;)

Vorallem mit effizienten Produkten. AMD hat in praktisch jedem Segment kleinere Dice als nV und kann sich deshalb den niedrigen Preis mit Sicherheit eher leisten.
Seh ich auch so. Zumal eine 4850 kaum teurer als eine 3870 in der Herstellung sein soll.

LovesuckZ
2008-10-13, 20:07:20
Wieso sollte der Markt kaputt sein? Wie definierst du einen kaputten Markt?


Das Einbrechen des Preises um mehr als die Hälfte innerhalb von nichtmal einem Jahr zeigt die Entwicklung doch sehr deutlich - und das bei nur zwei Herstellern.
Zwei Jahre nach dem G80 hat die Konkurrenz 50% Mehrleistung erreicht. Und man muss noc mindesten 6 Monate warten, bis irgendwer die verdoppelte Leistung schafft. Beide Hersteller werden nicht mehr an den gewinn von nVidia aus dem Jahr 2006-2007 heranreichen, selbst wenn die Konkurrenz mal wieder patzt. Und das führt zwangsläufig auch zum Nachteil des Kunden.

reunion
2008-10-13, 20:10:58
Och bitte leg doch mal eine andere Platte auf. Das gleiche kam schon nach der X1950pro und heute dreht sich die Erde immer noch. Konkurrenz belebt das Geschäft, das war schon immer so. Und höhere Preise kommen ganz sicher nicht dem Kunden zu gute, sondern höchstens den Profiten der Konzerne. Niemand wird verlustbringend verkaufen. Ohne harter Konkurrenz hätte es Produkte wie G80 oder R300 erst gar nicht gegeben. Da würden wir noch immer bei wesentlich langsameren Produkten zu wesentlich höheren Preisen herumkrebsen.

Schlammsau
2008-10-13, 20:13:29
Das Einbrechen des Preises um mehr als die Hälfte innerhalb von nichtmal einem Jahr zeigt die Entwicklung doch sehr deutlich - und das bei nur zwei Herstellern.
Zwei Jahre nach dem G80 hat die Konkurrenz 50% Mehrleistung erreicht. Und man muss noc mindesten 6 Monate warten, bis irgendwer die verdoppelte Leistung schafft. Beide Hersteller werden nicht mehr an den gewinn von nVidia aus dem Jahr 2006-2007 heranreichen, selbst wenn die Konkurrenz mal wieder patzt. Und das führt zwangsläufig auch zum Nachteil des Kunden.

Von welchen Nachteilen redest du? Wir Kunden haben durch die niedrigen Preise doch nur Vorteile! Ich versteh dich nicht.
Und vergiss nicht, die extrem niedrigen Preise hierzulande, sind auch durch den niedrigen Euro-Dollar Kurs zustande gekommen.

Dural
2008-10-13, 22:51:04
Der Kunde hat durch niedrige Preise nie einen Vorteil, der Gewinn wird halt irgend wo anders raus geholt (zb. Entwicklung, Support, Qualität usw.) wo es dann für den Kunden nicht mehr lustig wird. :frown:

Oder meint wirklich jemand ernsthaft dass die Entwicklung von Multi GPU Karten Vorteilhaft für den Verbraucher ist? Da geht es nur darum bei möglichst billigen Entwicklungs / Herstellungs Kosten das Maximum reinzuholen ;)

Da kann man eingentlich froh sein das NV beim G200 Komplett den anderen Weg gewählt hat, bis jetzt jedenfalls :(

LovesuckZ
2008-10-13, 23:27:35
Och bitte leg doch mal eine andere Platte auf. Das gleiche kam schon nach der X1950pro und heute dreht sich die Erde immer noch.

Ja, weil man es erst mit den 38xx und 8800GT Karten geschafft hat, an der 1950pro vorbeizuziehen. Man hat ja gesehen, wie ATi mit dieser Karte den Markt beschädigt hat.

Konkurrenz belebt das Geschäft, das war schon immer so. Und höhere Preise kommen ganz sicher nicht dem Kunden zu gute, sondern höchstens den Profiten der Konzerne. Niemand wird verlustbringend verkaufen. Ohne harter Konkurrenz hätte es Produkte wie G80 oder R300 erst gar nicht gegeben. Da würden wir noch immer bei wesentlich langsameren Produkten zu wesentlich höheren Preisen herumkrebsen.

Wir krebsen seit zwei Jahren auf G80 Niveau herum - trotz starker Konkurrenz. Wo sind denn die tollen Weiterentwicklungen? Ich sehe nur billige Karten, die sich kaum absetzen können oder nicht gerade ökologisch besser sind.
Zwischen G70 und G80 lagen 1 Jahr und ca. 4 Monate. Zwischen G80 und GT200 liegen ca. 1 Jahr und 8 Monate und ich sehe kaum einen Fortschritt. Weder von der Leistung, Bildqualität oder Stromverbrauch. Selbst AMD hat nichts vorzuweisen, was wiklich als toll zu betrachten wäre.
Und solange die beiden Hersteller nicht genug erwirtschaften, wird es nur schlimmer. Und ichtig interessant wird es erst dann, wenn man durch Marktsättigung nicht mehr die Stückzahlen absetzen kann.

Gast
2008-10-14, 03:58:46
Zwei Jahre nach dem G80 hat die Konkurrenz 50% Mehrleistung erreicht.

50% guter Witz

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/23/#abschnitt_performancerating_qualitaet


Und Nvidia hat selbst nur 65% mehr als beim G80 gebracht ;)

reunion
2008-10-14, 08:29:59
Ja, weil man es erst mit den 38xx und 8800GT Karten geschafft hat, an der 1950pro vorbeizuziehen. Man hat ja gesehen, wie ATi mit dieser Karte den Markt beschädigt hat.

Tolles Argument. Eine gute Karte beschädigt also den Markt. Na dann hat nV mit G80 auch den Markt beschädigt, man sieht ja wie lange es gedauert hat, bis jemand vorbeiziehen konnte.


Wir krebsen seit zwei Jahren auf G80 Niveau herum - trotz starker Konkurrenz. Wo sind denn die tollen Weiterentwicklungen? Ich sehe nur billige Karten, die sich kaum absetzen können oder nicht gerade ökologisch besser sind.

Eine 4870 X2 schlägt eine 8800GTX um Längen und kostet keine 400€. Selbst eine 4850 um 120€ schlägt eine 8800GTX. Man muss schon ganz schön blind sein um hier keinen Fortschritt zu sehen.


Zwischen G70 und G80 lagen 1 Jahr und ca. 4 Monate. Zwischen G80 und GT200 liegen ca. 1 Jahr und 8 Monate und ich sehe kaum einen Fortschritt. Weder von der Leistung, Bildqualität oder Stromverbrauch.

Weil der Fortschritt größtenteils nicht in Spiele investiert wurde, sondern in den professionellen Bereich. Grund: Mangelnde Konkurrenz zum Zeitpunkt der Entwicklung, aber sicher kein mangelndes Kapital, nV schrieb bis vor kurzem nämlich Rekordgewinne. Und so würde es weiter gehen ohne ausreichende Konkurrenz.


Selbst AMD hat nichts vorzuweisen, was wiklich als toll zu betrachten wäre.

In der eigenen Produktpalette sehrwohl. Und du kannst eben nicht jeder Jahr doppelte Leistung erwarten wenn höchstens alle zwei Jahre ein neuer Fertigungsprozess zur Verfügung steht.


Und solange die beiden Hersteller nicht genug erwirtschaften, wird es nur schlimmer. Und ichtig interessant wird es erst dann, wenn man durch Marktsättigung nicht mehr die Stückzahlen absetzen kann.

Jede Wette das beide Grafikhersteller in diesem Quartal Gewinne schreiben werden. Zumal die Stückzahlen kontinuierlich wachsen. Du siehst Gespenster.

Und das war auch schon der letzte Beitrag von mir zu diesem Thema. Ich habe schlicht keine Lust mehr den gleichen Schmarren immer und immer wieder mit dir zu diskuttieren. Wenn du meinst der Markt wird kaputt wenn es Konkurrenz gibt dann hast du das Prinzip der freien Marktwirtschaft schlicht nicht begriffen.

Schlammsau
2008-10-14, 08:38:50
Ja, weil man es erst mit den 38xx und 8800GT Karten geschafft hat, an der 1950pro vorbeizuziehen. Man hat ja gesehen, wie ATi mit dieser Karte den Markt beschädigt hat.

Du hast doch gar keine Ahnung wovon du redest.
Du kannst ja um den Markt wieder aufzpeppeln, nVidia Geld überweisen und sie damit vor dem sicheren Tod beschützen. :rolleyes:


Wir krebsen seit zwei Jahren auf G80 Niveau herum - trotz starker Konkurrenz. Wo sind denn die tollen Weiterentwicklungen? Ich sehe nur billige Karten, die sich kaum absetzen können oder nicht gerade ökologisch besser sind.
Zwischen G70 und G80 lagen 1 Jahr und ca. 4 Monate. Zwischen G80 und GT200 liegen ca. 1 Jahr und 8 Monate und ich sehe kaum einen Fortschritt. Weder von der Leistung, Bildqualität oder Stromverbrauch. Selbst AMD hat nichts vorzuweisen, was wiklich als toll zu betrachten wäre.
Und solange die beiden Hersteller nicht genug erwirtschaften, wird es nur schlimmer. Und ichtig interessant wird es erst dann, wenn man durch Marktsättigung nicht mehr die Stückzahlen absetzen kann.

Das nVidia es nicht geschafft hat, einen erneuten G80 zu releasen, ist nicht die Schuld der Konkurrenz. Wohl eher hat sich nVidia zu sehr auf ihren Lorbeeren ausgeruht, und der Konkurrenz keine grossen Sprünge zugetraut.
Was hat nVidia da gemacht.....1 1/2 Jahre nach dem G80 schmeissen sie den GT200 auf den Markt der "nur" 1,5x schneller ist. Liegt das an ATi? Mit Sicherheit nicht! Konkurrenz soll eher das Gegenteil bringen.

Du hast eine derart verquere Denkweise......da komm ich nicht mit! Das ist mir zu "hoch".

Ailuros
2008-10-14, 09:00:13
50% guter Witz

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/23/#abschnitt_performancerating_qualitaet


Und Nvidia hat selbst nur 65% mehr als beim G80 gebracht ;)

Wenn ich mir Deinen Link so ansehe war er teilweise sogar etwas grosszuegig mit den 50%.

1. Ist in spielbaren Regionen (aka 1600+4xAA) rundum nach diesem Link die 4870 um 38% schneller als die 8800GTX, 24% schneller als die 8800Ultra.

2. Sehe ich keinen sehr klaren Gewinner zwischen 4870X2 und 2*260@SLi was die Leistung bzw. Stromverbrauch betrifft. Nur ist eben momentan die erste um ca. 80 Euro billiger.

Fazit: bitte nicht solche Links benutzen da sie sich eher als Boomerang wenden und nicht unbedingt ein rundum objektives Bild praesentieren.

Im guten Ganzen hatte er schon recht dass es eine gewisse Stagnation im GPU Markt gibt und das von allen Seiten. Ist aber am Ende auch normal da es sich bei beiden IHVs lediglich um Refreshes handelt. Und ja AMD gewinnt durch das bessere Preis-/Leistungsverhaeltnis von oben nach unten, und ja ich persoenlich finde den Schachzug die Preise zu reduzieren als aeusserst gut durchgedacht.

Ich will hoffen dass es zumindest ab H2 2009 wieder interessanter werden wird.

Da kann man eingentlich froh sein das NV beim G200 Komplett den anderen Weg gewählt hat, bis jetzt jedenfalls

Das dumme ist nur dass GT200 nie sein originales Ziel erreicht hat, naehmlich zu beweisen dass high end single chip immer noch die bessere Loesung ist. Benchmarks und Argumente hin und her, die Mehrzahl der Verbraucher wurden nicht ueberzeugt und sobald man sich in eine unendliche Debatte ueber X und Y einlaesst, sieht man sich als NV Verteidiger doch am Ende gezwungen z.B. das 2*260@SLi Argument zu benutzen.

Tatsache ist dass ein IHV nicht immer gewinnen kann; und bevor mir jetzt jemand noch irgendwelche Maerchen ueber SLi erzaehlt das Zeug kam als erstes von NVIDIA auf den Markt und ATI hinkte mit der ersten leicht verkorksten Crossfire Loesung um einige Zeit spaeter nach. Es gibt zwar wichtige Unterschiede zwischen scan line interleaving und scalable link interface, aber die alte 3dfx Philosophie hat sich doch irgendwo durchgesetzt. Das Sueppchen haben sie sich selber eingebrockt und da Du schon sagst "bis jetzt" weiss keiner was sie fuer die Zukunft genau vorhaben.

Wenn die Konkurrenz mit Strategie X besser da steht und man hat keine effektivere Alternative, bleibt nur noch eine aehnliche Strategie anzuwenden. Das soll jetzt gar nichts heissen, aber selbst fuer NVIDIA ist nichts in Stein gemetzelt; erster Beweiss dieses ist GT212@40nm. (***edit: und damit ziele ich natuerlich auf den Herstellungsprozess).

***edit Deux:

Das nVidia es nicht geschafft hat, einen erneuten G80 zu releasen, ist nicht die Schuld der Konkurrenz. Wohl eher hat sich nVidia zu sehr auf ihren Lorbeeren ausgeruht, und der Konkurrenz keine grossen Sprünge zugetraut.
Was hat nVidia da gemacht.....1 1/2 Jahre nach dem G80 schmeissen sie den GT200 auf den Markt der "nur" 1,5x schneller ist. Liegt das an ATi? Mit Sicherheit nicht! Konkurrenz soll eher das Gegenteil bringen.

AMD hat sich von einem relativ niedrigen Ausgangspunkt (R600) so gut wie moeglich aufgebaut. Mehr war IMHLO auch nicht moeglich am Ende. Im Gegensatz hat NVIDIA zwei Fehler gleichzeitig gemacht: man investierte in Regionen die dem durchschnittlichen Gamer egal sind und glaubte zur gleichen Zeit dass die Konkurrenz um einiges moderater ankommen wird. GT200 haette theoretisch mit seinen 1.4Mrd. Transistoren um einiges schneller sein koennen, RV770 hingegen nicht. Haette sich AMD ausserhalb ihrem heutigen Transistoren-budget bewegt, wuerde das heutige sehr gute Preis-/Leistungs-Verhaeltnis auch schnell ins Klo fliessen.

Ailuros
2008-10-14, 10:03:30
So und jetzt zurueck zum Thema; wenn Herr Triolet den richtigen chip erwischt hat, dann duerfte GT206 bei ~470mm^2 liegen.

Psychopat
2008-10-14, 14:22:13
Wir krebsen seit zwei Jahren auf G80 Niveau herum - trotz starker Konkurrenz. Wo sind denn die tollen Weiterentwicklungen?

Also mit dem G80 hat nVidia wohl mehr als genug Gewinn gemacht. Trotzdem keine Weiterentwicklung. Du führst deine Theorie vom kaputten Markt gerade selber adabsurdum.

Oder wie viel teurer hätte der G80 verkauft werden müssen, damit nVidia genug Geld für eine tolle Weiterentwicklung gehabt hätte?

Gast
2008-10-14, 14:39:25
Wenn ich mir Deinen Link so ansehe war er teilweise sogar etwas grosszuegig mit den 50%.

1. Ist in spielbaren Regionen (aka 1600+4xAA) rundum nach diesem Link die 4870 um 38% schneller als die 8800GTX, 24% schneller als die 8800Ultra.



Die 50% hat LS gebracht ;) und auf seinen Ausagen von #35 war der Link mit der X2 bezogen.


Und es sind sogar 52% wenn man es genau nimmt =)

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_powercolor_radeon_hd_4870_pcs_1024_mb/21/#abschnitt_performancerating_qualitaet

AnarchX
2008-10-15, 06:22:15
40nm GT216 und RV870 im Juni 09? (http://www.cens.com/cens/html/en/news/news_inner_25020.html)

Ailuros
2008-10-16, 09:53:15
40nm GT216 und RV870 im Juni 09? (http://www.cens.com/cens/html/en/news/news_inner_25020.html)

GT216? :confused:

AnarchX
2008-10-16, 09:55:41
GT216? :confused:
Ist doch schon länger bekannt:
http://forum.beyond3d.com/showpost.php?p=1163221&postcount=1073
-> http://itnotice.ru/s-forumov/ixbt/buduschee-3d-grafiki-na-pc-a-takzhe-vskore-vihodyaschie-novinki-obsuzhdenie-tehnologij-prognozi-novosti---4-ya-vetka-prodolzhenie-5157.html

Ailuros
2008-10-16, 10:06:09
Ist doch schon länger bekannt:
http://forum.beyond3d.com/showpost.php?p=1163221&postcount=1073
-> http://itnotice.ru/s-forumov/ixbt/buduschee-3d-grafiki-na-pc-a-takzhe-vskore-vihodyaschie-novinki-obsuzhdenie-tehnologij-prognozi-novosti---4-ya-vetka-prodolzhenie-5157.html

Das dumme ist dass der Author behauptet dass GT216 die GTX280 ersetzen soll; falls es tatsaechlich 212,214,216,218 als Codenamen gibt, warum dann nicht 212 oder 218?

igg
2008-10-16, 11:00:38
Laut CB (http://www.computerbase.de/news/hardware/grafikkarten/2008/oktober/rv870_gt216_juni_2009/) wird der GT216 (und RV870) DX11 haben, was mich aber sehr wundert.

AnarchX
2008-10-16, 11:14:51
Laut CB (http://www.computerbase.de/news/hardware/grafikkarten/2008/oktober/rv870_gt216_juni_2009/) wird der GT216 (und RV870) DX11 haben, was mich aber sehr wundert.

Wieso wundert dich das? Auf der Forceware Roadmap steht doch DX11 im H2 09.
Natürlich vom Namen passt es nicht ganz, da sollte es eigentlich GeForce USA 3 sein, also G(T)3xx.

igg
2008-10-16, 11:20:05
@AnarchX: Ob die GT200 Architektur reif für DX11 ist? Insbesondere weil DX11 DX10.1 miteinschließt (soweit ich weiß)?

reunion
2008-10-16, 11:20:13
Wieso wundert dich das? Auf der Forceware Roadmap steht doch DX11 im H2 09.
Natürlich vom Namen passt es nicht ganz, da sollte es eigentlich GeForce USA 3 sein, also G(T)3xx.

GT216 und RV870 waren aber ursprünglich für das Q1/2009 geplant, nur wegen der Verschiebung des 40nm Prozesses wird es jetzt wohl Ende Q2. DX11 halte ich bei beiden für höchst unwahrscheinlich. Zumal man bei solchen Roadmaps zumeist immer sehr optimistisch ist und für gewöhnlich das Ende des Zeitrahmens meint. Also Ende 2009 wenn alles glatt geht. Und wie du schon sagst zeigt auch der Codename zumindest bei NV eindeutig das man keine neue Generation erwarten sollte.

Nightspider
2008-10-16, 11:22:19
@AnarchX: Ob die GT200 Architektur reif für DX11 ist? Insbesondere weil DX11 DX10.1 miteinschließt (soweit ich weiß)?

Definiere reif !?

Die Architektur wird an die neue API angepasst und gut ist.

Schlammsau
2008-10-16, 12:12:21
Definiere reif !?

Die Architektur wird an die neue API angepasst und gut ist.
Wenns so einfach wäre, hätten sie auch ganz leicht DX10.1 implementieren können! Haben sie aber nicht.......

Gast
2008-10-16, 12:52:48
Definiere reif !?

Die Architektur wird an die neue API angepasst und gut ist.
ich glaube du stellst dir das ein bisschen sehr einfach vor. das geht gut und gerne einige MONATE, von den anpassungen des chips über virtuellen aufbau bis samplen und dann testing, resample blabla.

Nightspider
2008-10-16, 12:59:57
Wenns so einfach wäre, hätten sie auch ganz leicht DX10.1 implementieren können! Haben sie aber nicht.......

ich glaube du stellst dir das ein bisschen sehr einfach vor. das geht gut und gerne einige MONATE, von den anpassungen des chips über virtuellen aufbau bis samplen und dann testing, resample blabla.

Hab ich gesagt das dies einfach ist oder schnell geht? Vllt habt ihr mich auch missverstanden.

Ich bezog mich darauf ob die G200 Architektur reif für DX11 sei. Im Grunde könnte man jede API in jede Architektur einbauen, ist nur eine Kosten-Effizienz-Frage und natürlich eine Frage der Zeit.

Von daher ist die Frage, ob die G200 Architektur reif für DX11 ist doch etwas sinn-frei oder!?

Gast
2008-10-16, 13:05:27
Wenns so einfach wäre, hätten sie auch ganz leicht DX10.1 implementieren können! Haben sie aber nicht.......

10.1 bringt keinen Mehrnutzen gegenüber 10.0, also gibt man dafür kein Geld aus.

Coda
2008-10-16, 13:12:45
Tut es schon. Allerdings wird sich nun wohl leider kein Entwickler mehr darum scheren.

Schlammsau
2008-10-16, 13:20:10
Ich bin immer mehr der Meinung, dass DX10 ein Reinfall ist. Bis jetzt, fast 2 Jahre nach Release gibt es nur eine Handvoll DX10 Games, die allesamt unter DX10 deutlich langsamer aber nicht deutlich schöner (wenn überhaupt schöner) als unter DX9 sind. Wann dürfen wir den den versprochenen Leistungs- und Qualitätsschub erwarten? In 2 Jahren? Jetzt steht schon DX11 vor der Tür.......

Gast
2008-10-16, 13:21:11
Wenn die wirklich erst mitte 2009 40nm liefern können werden wird wohl den GT212 der für Anfang 2009 geplant war gar wohl nie sehen...

Gast
2008-10-16, 13:24:23
oder er kommt halt doch von IBM ;)

Coda
2008-10-16, 13:48:47
Ich bin immer mehr der Meinung, dass DX10 ein Reinfall ist.
Das liegt aber nicht an der API, sondern eher an der Verbreitung von Vista und den "Next-Gen"-Konsolen die alle ein D3D9-Techlevel haben.

Die Technik hinter D3D10 ist sehr solide.

Gast
2008-10-16, 20:34:19
Ich bin immer mehr der Meinung, dass DX10 ein Reinfall ist.
Warum lobst du dann das .1 immer so?

Winter[Raven]
2008-10-17, 00:10:58
Ich bin immer mehr der Meinung, dass DX10 ein Reinfall ist.

D3D10 existiertschon beinahe seit 2 Jahren mit passender Hardware, und es gibt derzeit noch kein einziges "echtes" DX10 Spiel.

Also stellt sich da die einfach Frage: Warum nicht? Die antwort ist schlicht und einfach.

Größter Teil der Gamer besitzt immer noch WinXP und die dazugehörige DX9 Hardware.

Wenn die Spielehersteller jetzt nur noch "reine" D3D10 Spiele produzieren würden, wären die Spiele sogennate Ladenhüter, aus einem einfachen Grund, weil so gut wie nimmand spielen könnte.

Also wird derzeit jedes Spiel fleißig mit DX9 programmiert und D3D 10 Effekte oder Berechnungen nur dazugepackt um das Spiel besser aussehen zu lassen...

Damit ein D3D 10 Spiel schneller läuft wie DX9, müssen die Engines vom ersten Tag der Entwicklung auf D3D10 und die Features getrimmt sein...

Schlammsau
2008-10-17, 06:15:57
Warum lobst du dann das .1 immer so?
weil aus mit .1 endlich mal bessere Performance geboten würde.

Gaestle
2008-10-17, 13:54:04
Ich würde mir ja echt mal wünschen, dass sich jemand aus lauter Langeweile hinsetzt und identischen Content 2x programmiert:

1x DX10 from scratch
1x DX9

Vielleicht eine kleine Demo oder so. Wäre aber wahrscheinlich Microsofts Job, schließlich müssen/wollen die ja ihre Grafikschnittstelle breittreten.

Gast
2008-10-17, 13:57:45
Frage mich gerade von wo du das wissen willst, da es bis heute kein einziges Spiel gibt das DX10.1 hat, ausser ein Titel wo DX10.1 raus genommen wurde weil er fehlerhaft war...

Gast
2008-10-17, 14:12:11
weil aus mit .1 endlich mal bessere Performance geboten würde.

Wie willst du das wissen, wo es doch gar keine 10.1 Anwendung gibt?

Gast
2008-10-17, 14:37:05
Frage mich gerade von wo du das wissen willst, da es bis heute kein einziges Spiel gibt das DX10.1 hat, ausser ein Titel wo DX10.1 raus genommen wurde weil er fehlerhaft war...

Und wieder einer, der sich blenden ließ ... Dann zeig mir doch mal anhand einer ungepatchten Version von Assassins Creed mit DX10.1, wo da die großen Fehler sind.
Also außer bis zu 20% Mehr-Performance bei aktiviertem AA und der Eigenschaft, dass wirklich alle Kanten geglättet waren, ist mir nichts aufgefallen.

Gast
2008-10-17, 14:49:25
man muss schon extrem naiv sein um zu glauben das DX10.1 30-40% (oder was es damals war) mehr FPS bringt, wenn es nämlich so wäre hätte man schon längst überall DX10.1 in den Games drin und NV und fast alle Software Entwickler würde es nicht als Sinnlos absteppeln...

igg
2008-10-17, 16:08:30
Wir werden in FarCry 2 ja sehen wie groß der Zuwachs bei DX10.1 ausfallen wird (Quelle (http://www.fudzilla.com/index.php?option=com_content&task=view&id=9992&Itemid=1)).

ATI will shortly release a hotfix driver that should boost the performance of this game of Radeon HD 4870 X2 significantly and we our sources are confident that this driver should be enough to beat Geforce GTX 280 in this game.

Wenn Fud damit sagen will dass eine X2 dann die GTX280 schlägt wäre es aber für ATI wenig schmeichelhaft ;).

Coda
2008-10-17, 17:25:38
weil aus mit .1 endlich mal bessere Performance geboten würde.
10.0 bietet da weitaus mehr über 9, also 10.1 über 10.0. Du hast da eine falsche Vorstellung, weil die Engines momentan einfach nicht auf D3D 10 ausgelegt sind.

Gast
2008-10-17, 18:06:42
Wir werden in FarCry 2 ja sehen wie groß der Zuwachs bei DX10.1 ausfallen wird (Quelle (http://www.fudzilla.com/index.php?option=com_content&task=view&id=9992&Itemid=1)).

Da es eine reine Konsolen Umsetzung ist, wirds beim AA Vorteile geben, wobei dann sicher mit 8xMSAA gebencht wird und man den Vorteil nicht sieht, da hier ATI eh schneller ist ;) Nonsense

Gast
2008-10-17, 18:24:33
Da es eine reine Konsolen Umsetzung ist, wirds beim AA Vorteile geben, wobei dann sicher mit 8xMSAA gebencht wird und man den Vorteil nicht sieht, da hier ATI eh schneller ist ;) Nonsense

Mach dir mal keine Sorgen. Wird schon auch mit 4xMSAA gebencht ;)

Ailuros
2008-10-18, 07:56:13
GT216 und RV870 waren aber ursprünglich für das Q1/2009 geplant, nur wegen der Verschiebung des 40nm Prozesses wird es jetzt wohl Ende Q2. DX11 halte ich bei beiden für höchst unwahrscheinlich. Zumal man bei solchen Roadmaps zumeist immer sehr optimistisch ist und für gewöhnlich das Ende des Zeitrahmens meint. Also Ende 2009 wenn alles glatt geht. Und wie du schon sagst zeigt auch der Codename zumindest bei NV eindeutig das man keine neue Generation erwarten sollte.

http://forum.beyond3d.com/showpost.php?p=1229112&postcount=173

Ailuros
2008-10-18, 08:07:42
Ich bin immer mehr der Meinung, dass DX10 ein Reinfall ist. Bis jetzt, fast 2 Jahre nach Release gibt es nur eine Handvoll DX10 Games, die allesamt unter DX10 deutlich langsamer aber nicht deutlich schöner (wenn überhaupt schöner) als unter DX9 sind. Wann dürfen wir den den versprochenen Leistungs- und Qualitätsschub erwarten? In 2 Jahren? Jetzt steht schon DX11 vor der Tür.......

Ungluecklicherweise wiederholt sich die Geschichte durch die Jahre immer und immer wieder; aehnliches kann ich jedesmal nach einem neuen API-release lesen. Und nein es ist nicht boes gemeint aber ich wuerde erwarten, dass man durch die Jahre zu gewissen Erkenntnissen kommen kann.

Coda z.B. stimmt mit mir nicht ueberein wenn ich sage dass es noch keine reine D3D10 Spiele gibt und diese erst um einiges spaeter erscheinen werden. Kommt natuerlich auf die Perskeptive an aber IMHLO wird ein reines D3D9.0 Spiel nicht ploetzlich D3D10 weil man eben nur einen D3D10 path dazugeklatscht hat.

Wie sah es mit den ersten angeblichen D3D9.0 Spielen aus? Das "Hauptgeruest" war irgendwo in der DX7/8 Region und man klatschte ein paar DX9.0 Shader in den Brei und man hatte ploetzlich "DX9.0 Spiele" die aber ueberhaupt nichts gemeinsam haben mit den wahren DX9.0 Spiele der letzten paar Jahre.

Es kann gar nicht anders gehen als dass die Entwickler HW mit Komplianz X in die Haende bekommen um nach zumindest 2-3 Jahren nach der ersten GPU X ein reines X Spiel auf die Ladentische zu bekommen. Fuer D3D10 zaehlen wir seit November 2006 und es wird sich auch in der Zukunft nichts daran aendern.

***edit: was jetzt erste D3D11 GPUs betrifft ich bleibe bei meiner Meinung dass wir im ersten Halbjahr 2009 nichts davon sehen werden und wenn ich mir die TSMC Verspaetungen der letzten Zeit so ansehe bin ich gar nicht mal so optimistisch dass es innerhalb von 2009 noch etwas daraus werden koennte (wenn ja dann irgendwo kurz vor Weihnachten und das unter enormem Druck). Meine Infos plaudern davon dass INTEL's Larabee nicht auf 40nm sein wird; wenn jetzt einer der beiden anderen IHVs oder beiden andere mit 40nm antanzen sollten, dann ist erstmal ihr moeglicher die-size/Stromverbrauch Vorteil im Eimer. ;)

pervert
2008-10-21, 17:53:34
Nvidias GT216 in 40 nm ab 3. Quartal 2009?
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/oktober/nvidias_gt216_40_3_quartal_2009/

dargo
2008-10-21, 18:07:05
Ich bin immer mehr der Meinung, dass DX10 ein Reinfall ist. Bis jetzt, fast 2 Jahre nach Release gibt es nur eine Handvoll DX10 Games, die allesamt unter DX10 deutlich langsamer aber nicht deutlich schöner (wenn überhaupt schöner) als unter DX9 sind. Wann dürfen wir den den versprochenen Leistungs- und Qualitätsschub erwarten? In 2 Jahren? Jetzt steht schon DX11 vor der Tür.......
Und wann denkst du sehen wir die ersten nativen DX11 Games? Vor 2011-2012 würde ich da nicht viel erwarten.

pervert
2008-10-21, 18:33:07
Ich finde der Wechsel auf DX9 war deutlich interessanter und flotter und man sah wenigstens auch ansprechende optische Neuerungen. DX10 lohnt sich ja bis heute praktisch überhaupt nicht und wenn muss man extrem mit der Lupe suchen oder bekommt Effekte als DX10 verkauft, die ohne Probleme auch schnell genug unter DX9 wären. Man wird gar noch verarscht, Beispl. DX10 in Crysis und dann in alles gleich unter DX9 Warhead, sogar offiziell ohne Tweaking.
DX10.1 ist somit erst recht ein feuchter Witz.

igg
2008-10-22, 18:54:31
Sieht so aus als müssten wir noch warten, bei Fud ist man sich nichtmal sicher ob die noch im November kommen (http://www.fudzilla.com/index.php?option=com_content&task=view&id=10090&Itemid=34)...

aylano
2008-10-22, 23:17:23
Irgendwie glaube ich langsam, der GT200 in 55nm benötigte noch einen Respin.
Vor allem soll Nvidia lange diskutiert haben, ob sie den GT200 in 65nm oder gleich in 55nm rausbringen werden.

igg
2008-10-23, 09:12:05
@aylano: Rys vom beyond3d-Forum meinte ähnliches:
willard's right. It seems like one revision of the chip is shipping now with Tesla, with the last revision they taped out set for GeForce soon. My sources say it's just come back from packaging in Taiwan, so MP clearance should happen soon all going well.

That they needed another spin for GeForce should give a couple of hint as to what they plan to do with it, that they couldn't do with a revision that was OK for Tesla.

robbitop@work
2008-10-23, 09:55:39
Ich bin mal kurz über die Benchmarks geflogen. Wenn CF richtig funktioniert, scheint die R700 drastisch schneller als die GT200 zu sein. Ich glaube kaum, dass man das durch ein bisschen höheren Takt im GT200b aufholen kann. Gegebenenfalls könnte ATI die Taktraten ebenfalls anheben.

Unyu
2008-10-23, 13:15:04
Gegebenenfalls könnte ATI die Taktraten ebenfalls anheben.Da hat man auch noch so viel Raum nach oben bei 286W TDP. ;D

Gast
2008-10-23, 14:11:59
Da hat man auch noch so viel Raum nach oben bei 286W TDP. ;D
NV geht es ja soooo viel besser... ich denke dass durchaus 850mhz machbar sind, bei guter selektion und tiefer Vcore.

Gast
2008-10-23, 14:26:03
Ich bin mal kurz über die Benchmarks geflogen. Wenn CF richtig funktioniert, scheint die R700 drastisch schneller als die GT200 zu sein. Ich glaube kaum, dass man das durch ein bisschen höheren Takt im GT200b aufholen kann. Gegebenenfalls könnte ATI die Taktraten ebenfalls anheben.

WAHNSINN wie drastisch schneller doch dein R700 sein soll :D
http://www.pcgameshardware.de/aid,664277/Test/Benchmark/Grafikkarten-Treiber_Geforce_18042_im_Far-Cry-2-Test/?page=2

Und das noch mit ALTEN treibern! (z.b. 2x260) :D:D

robbitop@work
2008-10-23, 15:28:55
WAHNSINN wie drastisch schneller doch dein R700 sein soll :D
http://www.pcgameshardware.de/aid,664277/Test/Benchmark/Grafikkarten-Treiber_Geforce_18042_im_Far-Cry-2-Test/?page=2

Und das noch mit ALTEN treibern! (z.b. 2x260) :D:D
Ich bezog meine Schlüsse auf das Performancerating:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/23/#abschnitt_performancerating_qualitaet

Dort fließen ja Ergebnisse von vielen Spielen ein. Rein rechnerisch sollte es, sofern Crossfire funktioniert, auch hinkommen. Eine GTX280 ist rund 20 % schneller als eine einzelne 4870. Eine 4870X2 muss bei brauchbarer skalierung deutlich schneller sein.

Bitte keinen unterentwickelten Fanboykrieg draus machen. Mir geht es rum reine subjektive Fakten. Nicht um Streit oder irgendwelche IHVs.

|MatMan|
2008-10-23, 15:54:47
Ich glaube kaum, dass man das durch ein bisschen höheren Takt im GT200b aufholen kann. Gegebenenfalls könnte ATI die Taktraten ebenfalls anheben.
Vielleicht will man ja in die andere Richtung, also weniger Stromverbrauch um damit besser eine Dual-Chip-Karte bauen zu können, weil man es mit einer Single-Chip-Karte eh nicht schaffen würde.
Oder das Ziel ist eine höhere Ausbeute, also höhere Marge...

Mir geht es rum reine subjektive Fakten.
Du meinst sicher objektiv ;)

robbitop@work
2008-10-23, 16:37:46
Vielleicht will man ja in die andere Richtung, also weniger Stromverbrauch um damit besser eine Dual-Chip-Karte bauen zu können, weil man es mit einer Single-Chip-Karte eh nicht schaffen würde.
Oder das Ziel ist eine höhere Ausbeute, also höhere Marge...
Ich glaube, man will vor allem günstiger und schneller werden. Aber die X2 holt man damit kaum auf IMO.


Du meinst sicher objektiv ;)
Aww brainfart. Genau danke. ;)

Unyu
2008-10-23, 16:47:31
NV geht es ja soooo viel besser...
Wie viel muss es sein, das man "besser" schreiben darf?
80%? 200%?

pervert
2008-10-23, 19:19:30
So eine sinnlose Diskussion (und OT noch dazu)!

Es ist doch wohl klar, dass eine NV Dual Karte die 4870X2 übertrumpfen wird (sollte sie kommen), sonst bräuchte NV sowas gar nicht erst auf den Markt bringen und sie würden sich lächerlich machen!

Und mit Verlaub: Alle Benchmarks moderner Spiele, insbes. DX10. sehe ich ein GTX260er SLI System nur allzu oft vor einem CF System. Zudem sehe ich in jedem zweiten Titel CF Probleme und immer und immer wieder Treiberfixes die das ausbügeln müssen!
Und gerade bei modernen Spielen ist eine GTX280 gerne nicht 20% sondern unter 4xAA/16xAF gerne auch mal 30-50% schneller als eine 4870 (man sollte sich mal die richtigen Benchmarkwerte ansehen, wo nicht noch CPU-Limit mit einfließt!).

Der GT200 spielt doch in einer völlig anderen Klasse als der RV770. NV hat mit dem 55nm Shrink alle Optionen offen und sollte absolut kein Problem haben ATI zu übertrumpfen. Verbrauch und Kühlung wird schon geregelt werden, noch viel schlechter als bei der 4870X2 kann es ja kaum werden!


Sollte man mal gesehen haben, die frischesten FC2 Werte:
http://img216.imageshack.us/img216/9297/fc2hotfixbb21680dx10xf2.th.png (http://img216.imageshack.us/my.php?image=fc2hotfixbb21680dx10xf2.png)http://img216.imageshack.us/images/thpix.gif (http://g.imageshack.us/thpix.php)

reunion
2008-10-23, 19:25:32
Und mit Verlaub: Alle Benchmarks moderner Spiele, insbes. DX10. sehe ich ein GTX260er SLI System nur allzu oft vor einem CF System. Zudem sehe ich in jedem zweiten Titel CF Probleme und immer und immer wieder Treiberfixes die das ausbügeln müssen!
Und gerade bei modernen Spielen ist eine GTX280 gerne nicht 20% sondern gerne auch mal 30-50% schneller als eine 4870 (man sollte sich mal die richtigen Benchmarkwerte ansehen, wo nicht noch CPU-Limit mit einfließt!).


Sollte man mal gesehen haben, die frischesten FC2 Werte:
http://www.pcgameshardware.de/screenshots/original/2008/10/FC2HotFix_BB2_1680_DX10.PNG


Sorry, aber genau das Gegenteil ist der Fall. Mit neueren Treibern und neueren Spielen holt die 4870 zunehmend auf. Kein Wunder, sie hat auch eine sehr hohe arithmetische Rechenleistung, welche zunehmend an Bedeutung gewinnt. Und hier ein FarCry 2 Test mit den neuersten Treibern: http://www.pcgameshardware.de/aid,664277/Test/Benchmark/Grafikkarten-Treiber_Geforce_18042_im_Far-Cry-2-Test/?page=2

Wobei der Vergleich 4870 X2 vs. 2 x GTX260-216 eigentlich ziemlich unfair ist, da die GTXen auf zwei x16-Slots zugreifen können. Außerdem ist völlig unklar wie es jetzt mit den DX10.1 Optimierungen bei den jeweiligen IHVs aussieht. FC2 ist momentan nicht unbedingt optimal für Vergleiche.

Gast
2008-10-23, 19:28:56
Nvidia hat den Vorsprung eher ausgebaut und kommende 180.xx dürften noch Reserven freischalten. Beim Test auf guru schlägt die GTX280 sogar die mit 2 Chips bestückte 4870X2 in ganz hohen Auflösungen.

Gast
2008-10-23, 19:32:50
Hab mich verguckt sie ist gleichschnell zumindest bei 1900x1200

derguru
2008-10-23, 19:36:08
Nvidia hat den Vorsprung eher ausgebaut und kommende 180.xx dürften noch Reserven freischalten. Beim Test auf guru schlägt die GTX280 sogar die mit 2 Chips bestückte 4870X2 in ganz hohen Auflösungen.

genau die ist schneller in hohen auflösungen;)

der test ist eh total schrott,cpu lastiger gehts gar nicht. zwischen 1280*1024 mit 59fps und 2560*1600 51 fps liegen gerade mal 8fps,lol

http://www.abload.de/img/imageview.php6m4.png

pervert
2008-10-23, 19:44:12
Sorry, aber genau das Gegenteil ist der Fall. Mit neueren Treibern und neueren Spielen holt die 4870 zunehmend auf. Kein Wunder, sie hat auch eine sehr hohe arithmetische Rechenleistung, welche zunehmend an Bedeutung gewinnt. Und hier ein FarCry 2 Test mit den neuersten Treibern: http://www.pcgameshardware.de/aid,664277/Test/Benchmark/Grafikkarten-Treiber_Geforce_18042_im_Far-Cry-2-Test/?page=2

Wobei der Vergleich 4870 X2 vs. 2 x GTX260-216 eigentlich ziemlich unfair ist, da die GTXen auf zwei x16-Slots zugreifen können. Außerdem ist völlig unklar wie es jetzt mit den DX10.1 Optimierungen bei den jeweiligen IHVs aussieht. FC2 ist momentan nicht unbedingt optimal für Vergleiche.
Warum verlinkst Du den gleichen Artikel wie ich? Glaubst Du da kommt jemand zu neuen Erkenntnissen? Ich habe nämlich ganz bewusst nur den DX10 Benchmark in der höchsten Auflösung gewählt, alle anderen Werte sind ziemlich sinnlos, weil die Abstände der Karten zueinander IMMER schrumpfen wenn der CPU-Einfluss mit fallender Auflösung wächst! Zudem stehen die Werte der Top-Auflösungen auch immer stellvertretend für Spielszenen mit höchster Grafiklast, ebenso wie die wichtigen min. FPS, also genau die Werte wo die Grafikleistung am wichtigsten wird!

Der Vergleich 2x GTX216 zur 4870X2 ist unfair??? HALLO???
Wenn überhaupt ist der Vergleich der 4870X2 zu einem 2-Karten SLI-System unfair, wo doch bekannt ist, dass die Einzelkarte bei ATI nochmals schneller ist als ein System aus zwei CF-Karten! Der Abstand wäre noch größer würde man hier nicht Äpfel mit Birnen vergleichen!
Dann kommt noch hinzu, dass die 4870X2 nicht nur gegen eine Dual Karte vom schlage einer GTX260-216 sondern wohl eher gegen eine GTX270er Dualkarte antreten wird dürfen. Man stelle sich mal eine GTX290 dual mit GDDR5 vor..... (Aqua Edition / Voodoo Volts? ;) )

Ich verwette meine GTX280, dass ATI ab Erscheinen der 55nm NV Chips nur noch Staub sehen wird! Tun Sie ja jetzt schon (P/L mal außen vor, auch das ändert der Refresh). Mal gucken was denen noch so einfällt bis zur 40nm Generation die ja noch ne ganze Weile auf sich warten lässt.......

Gast
2008-10-23, 19:47:52
Mit neueren Treibern und neueren Spielen holt die 4870 zunehmend auf.
Schade das die BQ kaum überprüft wird.

Kein Wunder, sie hat auch eine sehr hohe arithmetische Rechenleistung, welche zunehmend an Bedeutung gewinnt.
Furmark zeigt ja, das eine Vollauslastung der ALUs bei weitem nicht möglich ist.
Zu viel Hoffnung braucht man sich nicht machen, wenn die Maximalauslastung bei 50% liegt.


Wobei der Vergleich 4870 X2 vs. 2 x GTX260-216 eigentlich ziemlich unfair ist, da die GTXen auf zwei x16-Slots zugreifen können. Ja immer alles unfair.
Einmal ist es unfair die 2 Slots Karte mit der 1 Slot Karte zu vergleichen, weil sie 2 Slots braucht, einmal ist es unfair weil die 2 Slot Karte von 2 Slots profitieren soll....

Den Umstand, das die X2 den Sideportvorteil hat verschweigst du...

Gast
2008-10-23, 19:54:35
Mal gucken was denen noch so einfällt bis zur 40nm Generation die ja noch ne Weile auf sich warten lässt.......
AMD hat schon immer ein gutes Händchen bei den Testern, sei es 6xAA vs 8x(Q)S oder AI vs HQ oder 8x vs 8xQ ......

Da würde mich "12xCFAA" vs 16xQ auch nicht mehr wundern.

pest
2008-10-23, 19:57:16
Den Umstand, das die X2 den Sideportvorteil hat verschweigst du...

der wird garnicht genutzt

Gast
2008-10-23, 19:59:13
das hier ist so lächerlich..... :rolleys:

pervert
2008-10-23, 20:06:22
AMD hat schon immer ein gutes Händchen bei den Testern, sei es 6xAA vs 8x(Q)S oder AI vs HQ oder 8x vs 8xQ ......
Da würde mich "12xCFAA" vs 16xQ auch nicht mehr wundern.
Ja diese Vergleiche sind manchmal seltsam.

Insbesonders weil die Bildqualität bei NVs AF und erst recht die Vielzahl an genialen AA-Modi mit Supersampling-Anteil ATI doch qualitativ haushoch überlegen ist. ATI kann nur Kanten glätten, sonst nichts. Alles andere flimmert freudig und unscharf (NV: 32/64xAF) vor sich hin...

Alleine aufgrund dessen würde ich nicht mehr zu ATI greifen, weil AA und AF bei NV einfach Welten besser sind und vorallem auch besser funktionieren (bessere Kompatibilität). Ich habe selbst (zu lange) ATI im Rechner gehabt und war so froh, als ich die x1900 gg. eine 8800GTX getauscht hatte.

reunion
2008-10-23, 20:09:08
Warum verlinkst Du den gleichen Artikel wie ich? Glaubst Du da kommt jemand zu neuen Erkenntnissen?

Weil dein Link nicht funktioniert. Direktlinks auf Bilder sind bei PCGH nicht möglich.


Ich habe nämlich ganz bewusst nur den DX10 Benchmark in der höchsten Auflösung gewählt, alle anderen Werte sind ziemlich sinnlos, weil die Abstände der Karten zueinander IMMER schrumpfen wenn der CPU-Einfluss mit fallender Auflösung wächst! Zudem stehen die Werte der Top-Auflösungen auch immer stellvertretend für Spielszenen mit höchster Grafiklast, ebenso wie die wichtigen min. FPS, also genau die Werte wo die Grafikleistung am wichtigsten wird!

Schön für dich. Ich habe es bewusst so gewählt das es funktioniert.


Der Vergleich der GTX216 zur 4870X2 ist unfair??? HALLO???
Wenn überhaupt ist der Vergleich der 4870X2 zu einem 2-Karten SLI-System unfair, wo doch bekannt ist, dass die Einzelkarte bei ATI nochmals schneller ist als ein System aus zwei CF-Karten! Der Abstand wäre noch größer würde man hier nicht Äpfel mit Birnen vergleichen!
Dann kommt noch hinzu, dass die 4870X2 nicht nur gegen eine Dual Karte vom schlage einer GTX260-216 sondern wohl eher gegen eine GTX270er Dualkarte antreten wird dürfen. Man stelle sich mal eine GTX290 dual mit GDDR5 vor..... (Aqua Edition / Voodoo Volts? ;) )

Ich schrieb der Vergleich 2x GTX-216 vs. 4870 X2 ist unfair. Lesen, Denken, Posten.


Ich verwette meine GTX280, dass ATI ab Erscheinen der 55nm NV Chips nur noch Staub sehen wird! Tun Sie ja jetzt schon (P/L mal außen vor, auch das ändert der Refresh). Mal gucken was denen noch so einfällt bis zur 40nm Generation die ja noch ne ganze Weile auf sich warten lässt.......

Ich geben dir dann meine Adresse wenn du deine GTX280 verspielt hast.

der wird garnicht genutzt

Richtig.

Und das war auch schon der letzte Beitrag von mir zu diesem Thema, da völlig OT!

pervert
2008-10-23, 20:14:45
Weil dein Link nicht funktioniert. Direktlinks auf Bilder sind bei PCGH nicht möglich.

Ich schrieb der Vergleich 2x GTX-216 vs. 4870 X2 ist unfair. Lesen, Denken, Posten.

Ich geben dir dann meine Adresse wenn du deine GTX280 verspielt hast.

Kann noch jemand den Link von mir nicht aufrufen?
Edit: Solange ich eingeloggt war ging es.. FIXED.

2x GTX216 ist schon klar!! Aber moment, ich werde extra für dich diesen kleinen Schreibfehler in meinem Posting noch abändern.....

Ja, gib mal deine Adresse. Hast Du viel Hardware rumstehen? Würde meine polnischen (sorry) "Freunde" sicher interessieren :D :lol:

Black-Scorpion
2008-10-23, 20:20:46
Also bei mir funzt das, was hast Du für nen Provider?
Kann noch jemand den Link von mir nicht aufrufen?
Dein Link funktioniert nur bei dir weil du das Bild noch im Browsercache hast.
Bei allen anderen kommt beim anklicken deines Links nur die Adresse raus.
http://www.pcgameshardware.de/screenshots/nodeeplink.gif

Gast
2008-10-24, 10:42:27
Wie viel muss es sein, das man "besser" schreiben darf?
80%? 200%?
236w TDP bei der GTX280 gegen 286w TDP bei der R700. das sind 82%.

annahme dass mit einem zusätzlichen Respin mit denselben taktraten und clusteranzahl 150w (!) bei einer GTX260 möglich wären, sind wir noch immer bei 300w bei einer dualkarte.

ich denke NV kann froh sein wenn sie eine spekulative GTX290 mit höheren Taktraten mit ähnlicher TDP wie die GTX280 rausbringen kann. eine GX2 mit GTX260-216ern in 55nm müsste meiner spekulativen Meinung zufolge noch immer untertaktet werden aus Wärme und Strom-konsum - Gründen.

Gast
2008-10-24, 12:07:34
Was ist den das für eine Rechung?

Fakt ist das der RV770 (4870) sogar MEHR Verbraucht als ein G200-216, wie man in einigen Vergleichstest ganz klar gesehen hat.

Die TDP Angabe ist bei AMD so wie so viel zu niedrig im Vergleich zu NV!

Übrigens ist die TDP bei der 4870 160Watt, also müsste nach deiner super Rechung die X2 320Watt haben....

Gast
2008-10-24, 12:13:48
Eine 4870X2 Verbraucht laut computerbase 184Watt mehr als eine GTX 260-216, oder 134Watt mehr als eine GTX 280:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/25/#abschnitt_leistungsaufnahme

Also der Stromverbrauch ist NVs kleinstes Problem....

reunion
2008-10-24, 12:48:39
Eine 4870X2 Verbraucht laut computerbase 184Watt mehr als eine GTX 260-216, oder 134Watt mehr als eine GTX 280:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/25/#abschnitt_leistungsaufnahme

Also der Stromverbrauch ist NVs kleinstes Problem....

Messungen hinter dem Netzteil sind wertlos.

Undertaker
2008-10-24, 13:05:22
Absolut gesehen schon. Relativ zueinander bei identischem Restsystem natürlich nicht.

Gast
2008-10-24, 13:37:32
Was ist den das für eine Rechung?

Fakt ist das der RV770 (4870) sogar MEHR Verbraucht als ein G200-216, wie man in einigen Vergleichstest ganz klar gesehen hat.

Die TDP Angabe ist bei AMD so wie so viel zu niedrig im Vergleich zu NV!

Übrigens ist die TDP bei der 4870 160Watt, also müsste nach deiner super Rechung die X2 320Watt haben....
blind oder blöd? ich schrieb R700... oh, stimmt, das IST die X2!!!

auf vergleichstests geb ich nicht viel, obwohl ixbit manchmal brauchbares zeug misst. bezüglich der gültigkeit der TDP, natürlich stimmt die, aber logisch dass NV und AMD nicht den gleichen abstand zwischen realverbrauch und TDP haben. Trotzdem wird das nicht den riesen Unterschied machen, den du hier weismachen willst.

Gast
2008-10-24, 13:39:12
ausserdem hatten wirs von solchen tests schon mal, die messgeräte sind auch nicht gerade das wahre. da hab ich ja von meinem bruder (elektroniker) das bessere gerät!

Sorkalm
2008-10-24, 13:49:28
Absolut gesehen schon. Relativ zueinander bei identischem Restsystem natürlich nicht.

Naja, bei so großen Unterschieden eigentlich auch relativ, weil das Netzteil dann auch mal unterschiedliche Wirkungsgrade erreicht. Aber es gibt ja auch Messungen direkt am Slot, wie von Xbitlabs...

reunion
2008-10-24, 14:05:44
Absolut gesehen schon. Relativ zueinander bei identischem Restsystem natürlich nicht.

Auch absolut gesehen nicht. Der Wirkungsgrad kann je nach Auslastung der verschiedenen Leitungen stark schwanken.

Undertaker
2008-10-24, 14:41:37
Das war eigentlich auf dein "wertlos" bezogen: Hinter dem Netzteil kann man nicht mehr sagen, Komponente X zieht *% mehr als Komponente Y. Aber man kann sehr wohl sagen, dass X mehr zieht - also z.B. eine 4870 mehr als eine GTX260-216, falls es z.B. um die Frage der Dualkarte geht.

Gast
2008-10-24, 14:49:03
Das war eigentlich auf dein "wertlos" bezogen: Hinter dem Netzteil kann man nicht mehr sagen, Komponente X zieht *% mehr als Komponente Y. Aber man kann sehr wohl sagen, dass X mehr zieht - also z.B. eine 4870 mehr als eine GTX260-216, falls es z.B. um die Frage der Dualkarte geht.
jein. du kannst zwar feststellen dass die GTX260-216 weniger säuft, aber wenn da z.b. 10w angegeben werden, kann es sogar nur 1w sein, wenn der wirkungsgrad sich verschlechtert - das will er sagen.

ausserdem geht es nicht nur um die TDP, es geht auch ums kühlprinzip und das Phasendesign. Ausserdem zählt auch die Auslastung der Einheiten sehr stark, es ist eigentlich unfair eine 4870 mit furmark (mit exe renaming) zu testen, wo diese fast 100% auslastung hat, wenn dort "hypothetisch" eine GTX260 nur 70% auslastung hat.

reunion
2008-10-24, 14:52:21
Das war eigentlich auf dein "wertlos" bezogen: Hinter dem Netzteil kann man nicht mehr sagen, Komponente X zieht *% mehr als Komponente Y. Aber man kann sehr wohl sagen, dass X mehr zieht - also z.B. eine 4870 mehr als eine GTX260-216, falls es z.B. um die Frage der Dualkarte geht.

Nein, auch das kann man nicht sagen. Simples Szenario: Karte X zieht ihre gesamte benötigte Leistung aus der ersten 12V Leitung des Netzteils. Karte Y zieht nur 40% aus der ersten 12V Leitung, weitere 40% aus einer anderen 12V Leitung und den Rest aus den 5V/3.3V Leitungen. Auch wenn Karte eins real weniger Leistung benötigt kann es durch einen Abfall der Effizienz auf der einer Leitung (wie hier durch die hohe Belastung) dazu kommen, dass Karte eins hinter dem Netzteil mehr Leistung benötigt.

Undertaker
2008-10-24, 14:59:59
Soweit mir bekannt ist beziehen aktuelle Karten ihren Saft praktisch komplett aus der 12V-Schiene... Gerade bei großen Karten wie einer 4870X2 geht das auch kaum anders, da der Großteil der Leistung über die PCIE-Stromstecker kommt und die nuneinmal nur 12V bieten.
Die Spawas werden auf Garantie nur mit der 12V-Leitung operieren und 5/3,3V somit maximal für Kleinkram auf dem PCB genutzt werden.

reunion
2008-10-24, 15:35:25
Soweit mir bekannt ist beziehen aktuelle Karten ihren Saft praktisch komplett aus der 12V-Schiene... Gerade bei großen Karten wie einer 4870X2 geht das auch kaum anders, da der Großteil der Leistung über die PCIE-Stromstecker kommt und die nuneinmal nur 12V bieten.
Die Spawas werden auf Garantie nur mit der 12V-Leitung operieren und 5/3,3V somit maximal für Kleinkram auf dem PCB genutzt werden.

Fast komplett ja, siehe Messungen von Xbitlabs. Ein aktuelles Netzteil hat aber in der Regel mehr als eine 12V Schiene. Und die Belastungen der jeweiligen Schienen schwanken je nach Grafikkarte beträchtlich. Und je nach Effizienzkurve des Netzteils kann das zu erheblichen Verzerrungen führen, sodass eben auch eine Graka die real weniger verbraucht hinter dem Netzteil unter Umständen mehr Leistung benötigen kann.

Undertaker
2008-10-24, 15:48:49
Das will mir jetzt nicht ganz einleuchten... Welche der 12V-Schienen wie ausgelastet werden, bestimmt doch die Elektronik des Netzteiles und nicht die Grafikkarte?

Gast
2008-10-24, 16:37:24
236w TDP bei der GTX280 gegen 286w TDP bei der R700. das sind 82%.

annahme dass mit einem zusätzlichen Respin mit denselben taktraten und clusteranzahl 150w (!) bei einer GTX260 möglich wären, sind wir noch immer bei 300w bei einer dualkarte.

ich denke NV kann froh sein wenn sie eine spekulative GTX290 mit höheren Taktraten mit ähnlicher TDP wie die GTX280 rausbringen kann. eine GX2 mit GTX260-216ern in 55nm müsste meiner spekulativen Meinung zufolge noch immer untertaktet werden aus Wärme und Strom-konsum - Gründen.
Eine GTX 260 liegt bei 182W TDP und zieht 136W
Eine 4870 liegt bei 160W TDP und zieht 130W (512MiB)
Eine 4870 X2 liegt bei 286W TDP und zieht 264W

Der Verbrauch bezieht sich auf 3DMark http://www.xbitlabs.com/articles/video/display/radeon-hd4870-x2_6.html#sect0
eine HD4 muss eigentich für mehr ausgelegt sein, wenn gerade kein Leistungshalbierungstreiber zur Stelle ist, wie in Furmark.

Fazit: Eine GX2 aus 2 GTX 270 ist möglich.
Eine GTX 290 hat deutlich mehr thermische/ versporgungstechnische Reserven als eine 4870 X2.
14W sind nicht viel, 64W sind deutlich mehr und dann bringt uns der Shrink noch etwas Luft, aber bitte immer schön runter spielen.

Ich rechne von 14W zu 64W (TDP) mal eben eine 4,6 Fachung.

Gast
2008-10-24, 17:02:51
sieht mir nach G200b aus ;)

http://img399.imageshack.us/img399/852/gt200vsmcp7ayt2.jpg

http://www.golem.de/0810/63139.html

igg
2008-10-24, 17:05:02
@gast: Wie kommst du darauf? Links die GTX280, rechts die 9400M.

Gast
2008-10-24, 17:06:09
weil der G200 anders aussieht ;)

http://img522.imageshack.us/img522/4434/dsc04846xi2.jpg

Gast
2008-10-24, 17:09:13
Bild von der ersten Seite von einem G200b:

http://i36.tinypic.com/2rqy8uv.jpg

Sorkalm
2008-10-24, 18:46:17
Eine GTX 260 liegt bei 182W TDP und zieht 136W
Eine 4870 liegt bei 160W TDP und zieht 130W (512MiB)
Eine 4870 X2 liegt bei 286W TDP und zieht 264W

Der Verbrauch bezieht sich auf 3DMark http://www.xbitlabs.com/articles/video/display/radeon-hd4870-x2_6.html#sect0
eine HD4 muss eigentich für mehr ausgelegt sein, wenn gerade kein Leistungshalbierungstreiber zur Stelle ist, wie in Furmark.

Naja, was da angegeben ist, ist die Peak-Performance, also das wofür die TDP ja relevant ist. Scheinen schon recht sinnvolle Ergebnisse zu sein.

Ist auch eine Frage der Umsetzung einer GT2xx-GX2: Mit einer Platine (stell ich mir bei 512 Bit Interface aber schwierig vor) würde man noch mal einige Watt sparen als mit Zweien, so das man da nicht grundsätzlich verdoppeln muss (4870 ist auf Grund des größeren Speichers bei der X2 natürlich ein schlechtes Beispiel).
Was auf dem Niveau einer GTX 260 (bezogen auf die aufgenommene Leistung) sollte man thermisch wohl noch verdoppeln können - ist aber auch so die Obergrenze bei max. 300 Watt für normale PCIe2-Grafikkarten (das man solche Spezifikationen auch brechen kann haben 8800 GTX und 2900 XT ja gezeigt).

Gast
2008-10-24, 19:23:32
Naja, was da angegeben ist, ist die Peak-Performance, also das wofür die TDP ja relevant ist. Scheinen schon recht sinnvolle Ergebnisse zu sein.



Der Peak-Verbrauch liegt deutlich höher, für die 4870 hat die c't hier ~200W ermittelt (260GTX: ~190W).

Gast
2008-10-24, 20:00:47
Ist auch eine Frage der Umsetzung einer GT2xx-GX2:
Ist relativ eindeutig.

Man gucke sich die letzten GX2 an:
7900 GX2 (sogar länger als eine 7900 GTX), 7950 GX2, 9800 GX2. Sind alles 2 PCB Geräte, da mach dir mal keine Sorgen.

Ailuros
2008-10-25, 08:52:48
Nuechtern gesehen wird mit der momentanen finanziellen Krise sowieso nichts grosses bis Mitte 2009 bewegen und das fuer beide IHVs.

Wir haben zusammengefasst:

GT200=65nm
GT206=55nm
GT21x=40nm

Nach den Codenamen die herumschwirren sieht es danach aus als ob GT212 die high end Loesung sein wird fuer Anfang Sommer. Arun hat ein paar Punkte getroffen obwohl er immer noch mit verschiedenen configs herumspekuliert. Er hat recht dass 212 hoechstwahrscheinlich die einzige GDDR5 SKU sein koennte. Von dem abgesehen der einzige chip der fuer eine GX2 Sinn machen wuerde waere GT216 die Anfang Fruehjahr erscheinen wird und da RV870 hoechstwahrscheinlich zwischen 216 und 212 erscheinen wird, waere es ein Gedanke an eine 216/GX2 zu denken.

Und jetzt nochmal zurueck zum ersten Paragraph: wieviel Luftraum haben beide IHVs momentan genau fuer zusaetzliche Unkosten? Wenn irgendwo eine GX2 geplant war dann ja ok; wenn aber nicht dann wird NV versuchen bei dem ohnehin schon monstroesen budget fuer alle 40nm chips fuer 2009 zu bleiben. GT21x und GT3xx fuer alle Maerkte steigen tatsaechlich auf 1Mrd$ fuer 2009.

horn 12
2008-10-25, 13:19:44
http://www.hardware-infos.com/news.php?news=2473

=Floi=
2008-10-25, 13:34:09
tolle news. Die nächste karte wird hoffwentlich eine "GT280"@40nm für ca. 200€ werden.
Es wäe nicht schlecht, wenn der kühler noch überarbeitet würde und der heatbug auch beseitigt wäre mit der überarbeitung. Ich hoffe man kommt dann auch auf ca. 800 mhz chiptakt.

MuLuNGuS
2008-10-25, 15:16:51
hmm,

dann wird es bei mir in diesem jahr noch eine GT206 werden, bin mal auf die preise gespannt...

Megamember
2008-10-25, 17:53:14
tolle news. Die nächste karte wird hoffwentlich eine "GT280"@40nm für ca. 200€ werden.
Es wäe nicht schlecht, wenn der kühler noch überarbeitet würde und der heatbug auch beseitigt wäre mit der überarbeitung. Ich hoffe man kommt dann auch auf ca. 800 mhz chiptakt.

Meinst wohl 55nm.

Psychopat
2008-10-25, 19:34:15
Die Preise werden beim derzeitigen Dollarkurs nicht sonderlich toll werden...

Gast
2008-10-25, 19:54:04
Die Preise werden beim derzeitigen Dollarkurs nicht sonderlich toll werden...
Im worst case können wir froh sein, wenn der GT300 Ende 2009 auch wirklich erscheint bzw. überhaupt in Massen gefertigt wird und nicht vorher das komplette (Wirtschafts)-System komplett kollektiv am Abkotzen ist. Starker Schluckauf und unterdrückter Brechreiz ist vorhanden, ist nur eine Frage der Zeit, bis sich die Kotze im freiem Schwall ihren Weg explosiv nach außen sucht. Während der Kotzattacke und auch danach werden höchstwahrscheinlich Luxusgüter wie grafikkarten niedrige Priorität in der Herstellungskette haben, bis die Sauerei wieder aufgewischt ist.

Ailuros
2008-10-25, 20:29:33
http://www.hardware-infos.com/news.php?news=2473

Wenn sie schon abschreiben ("aus branchennahen Kreisen" my a$$....) dann sollte man es auch richtig machen oder gar nicht. Der high end chip kommt Q2 und der mainstream chip in Q1....heh.

tolle news. Die nächste karte wird hoffwentlich eine "GT280"@40nm für ca. 200€ werden.
Es wäe nicht schlecht, wenn der kühler noch überarbeitet würde und der heatbug auch beseitigt wäre mit der überarbeitung. Ich hoffe man kommt dann auch auf ca. 800 mhz chiptakt.

Welche von allen? GT206 ist lediglich ein die shrink; GT216 eine etwas schnellere GT260. Falls Du GT212 meinen solltest die wird garantiert nicht nur 200 Euro beim Launch kosten.

Im worst case können wir froh sein, wenn der GT300 Ende 2009 auch wirklich erscheint bzw. überhaupt in Massen gefertigt wird und nicht vorher das komplette (Wirtschafts)-System komplett kollektiv am Abkotzen ist. Starker Schluckauf und unterdrückter Brechreiz ist vorhanden, ist nur eine Frage der Zeit, bis sich die Kotze im freiem Schwall ihren Weg explosiv nach außen sucht. Während der Kotzattacke und auch danach werden höchstwahrscheinlich Luxusgüter wie grafikkarten niedrige Priorität in der Herstellungskette haben, bis die Sauerei wieder aufgewischt ist.

Zusammengefasst in Englisch: projectile vomiting :biggrin:

Spass und leichte Uebertreibungen zur Seite, irgendwo hast Du schon recht. Wenn die Krise nicht bald ein Ende nimmt, sieht es eher grau fuer uns alle aus.

Gast
2008-10-27, 19:57:51
Ist dieser D12U eigentlich jetzt der GT300 mit DirectX11-Unterstützung ?

igg
2008-10-27, 20:40:25
D12U, hab ich was verpasst?

James Ryan
2008-10-29, 14:31:17
Lohnt momentan noch der Kauf einer GTX 260²?
Oder sollte man lieber auf die GT206 warten?

MfG :cool:

Gast
2008-10-29, 17:38:28
Lieber auf GT206 warten, soll ja noch in diesem Jahr kommen.

Gast
2008-10-29, 19:40:09
Lohnt momentan noch der Kauf einer GTX 260²?
Oder sollte man lieber auf die GT206 warten?

MfG :cool:

Hol dir doch eine GTX260/GTX280 wenn deine Graka nicht mehr ausreicht oder eine HD4870.
Den großen Sprung gibt es eh nur mit SLI oder July 2009 mit der NextGen. Alles andere macht kein Sinn.

Franky-Boy
2008-10-29, 22:44:51
Lohnt momentan noch der Kauf einer GTX 260²?
Oder sollte man lieber auf die GT206 warten?

Falls Du mit Deiner Grafikkarte zufrieden bist und es nicht sonderlich eilig hast, warte noch ab, Ende November/Anfang Dezember sollte der GT206 auf den Markt kommen. Billiger wird er aber für den Kunden eher nicht und große Leistungssprünge solltest Du auch nicht erwarten. Eine ab Werk übertaktete GTX 260² (AMP, SC etc.) sollte mindestens genau so schnell sein.

Raff
2008-10-30, 10:49:29
Lohnt momentan noch der Kauf einer GTX 260²?
Oder sollte man lieber auf die GT206 warten?

MfG :cool:

Ausgehend von einer 8800 GTX @ ~Ultra lohnt sich die Karte IMO gar nicht. Du kriegst unübertaktet einen Boost zwischen 20 und 30 Prozent. Fett übertaktet landest du vielleicht bei 50 Prozent – und das auch nur bestenfalls. Die GTX kannst du für ~120 Euro verkaufen, die GTX 260-216 kostet das Doppelte.

Ich nutze ja eine vergleichbare Karte und werde bis Weihnachten warten, um dann eine "GTX 290" unter den Baum zu legen. Die bringt dann mit OC ihre 100 Prozent (wie schon die GTX 280, aber die heizt, stirbt anscheinend öfter mal und krankt an Heatspreader-Problemen).

MfG,
Raff

MartinRiggs
2008-10-30, 11:27:35
Naja in sowas wie Crysis Warhead/Far Cry2 sieht die 8800GTX mittlerweile ziemlich alt aus und sieht gegen GTX260/HD4870 und Co kein Land.
Bin auch am Rumüberlegen ob GTX260+OC oder auf GTX270/290 warten, allerdings glaube ich kaum das bei dem sch... Eurokurs ne GTX290 ein günstiger Spass wird.

Ri*g*g*er
2008-10-30, 15:11:06
Hi all,

also ich hardere auch schon die ganze Zeit mit mir ;-)

Aber nun werd ich erstmal noch bis zur 290 warten, denn ich möchte mal wieder nen richtigen Boost erleben.

Zocke alles in 1920 x 1200 und was wirklich fehlt bei der 8800 GT ist

1. Speicherbandbreite
2. Speicher auf der Grafikkarte

sonst würde das gute Stück noch völlig ausreichen.

Ich erwarte vom 290 weniger Abwärme vieleicht ein besser Kühlsystem und
einige Interne Verbesserungen bzw. weg mit den Kinderkrankheiten des 200
ach und nen Tick mehr Power darf auch nicht fehlen hehe

Gruss
Ri*g*g*er

PS: Mir kommt erstmal nur noch Nvidia in den Rechner
Brauche immer Vsync + Tripple Buffering + nen ruhiges Bild

reunion
2008-10-30, 16:47:30
Our Far Eastern sources have confirmed that Nvidia is talking about a dual chip solution that might come in December: http://www.fudzilla.com/index.php?option=com_content&task=view&id=10207&Itemid=1

RMA
2008-10-30, 23:49:10
Kann man eigentlich beim nächsten Shrink tatsächlich eine Senkung der Leistungsaufnahme erwarten, oder wird der Gewinn gleich wieder in mehr Shader-Einheiten und höheren Taktraten verbrutzelt? Ich sitze eigentlich nur deswegen noch auf meiner 8800 GTX, weil ich keinen Bock habe, mein gerade mal 1 Jahr altes 500 Watt-Netzteil für eine GTX 280 schon wieder tauschen zu müssen bzw. diese ggf. undervolten zu müssen, damit die Kiste noch läuft...

Gaestle
2008-10-31, 12:08:55
Kann man eigentlich beim nächsten Shrink tatsächlich eine Senkung der Leistungsaufnahme erwarten, oder wird der Gewinn gleich wieder in mehr Shader-Einheiten und höheren Taktraten verbrutzelt? Ich sitze eigentlich nur deswegen noch auf meiner 8800 GTX, weil ich keinen Bock habe, mein gerade mal 1 Jahr altes 500 Watt-Netzteil für eine GTX 280 schon wieder tauschen zu müssen bzw. diese ggf. undervolten zu müssen, damit die Kiste noch läuft...

Ich betreibe eine GTX260²OC an problemlos einem Enermax 425W-NT. Von daher sollten Deine 500W doch auch ausreichen, wenn es kein totales Schrott-NT ist.

Schlammsau
2008-10-31, 12:15:08
Kann man eigentlich beim nächsten Shrink tatsächlich eine Senkung der Leistungsaufnahme erwarten, oder wird der Gewinn gleich wieder in mehr Shader-Einheiten und höheren Taktraten verbrutzelt? Ich sitze eigentlich nur deswegen noch auf meiner 8800 GTX, weil ich keinen Bock habe, mein gerade mal 1 Jahr altes 500 Watt-Netzteil für eine GTX 280 schon wieder tauschen zu müssen bzw. diese ggf. undervolten zu müssen, damit die Kiste noch läuft...

Erfahrungsgemäss bringt ein reiner Shrink keine Senkung der Leistungsaufnahme. Das ist bei beiden Herstellern so.

Ailuros
2008-11-01, 07:25:35
IMHLO wer eine Aufruestung braucht wartet ueberhaupt nicht, sondern holt sich das beste Preis-/Leistungs-Verhaeltnis fuer seine Ansprueche.

Wer warten kann, koennte den GT206 locker ueberholen und etwas mehr auf die 40nm chips warten.

RMA
2008-11-01, 12:17:17
Eine Aufrüstung brauche ich tatsächlich nicht. Ich kenne außer Crysis keinen aktuellen Toptitel, den meine 8800 GTX nicht in 1600x1200 mit 4xAA flüssig befeuern könnte, insofern wäre ein Upgrade in der Tat Geld- und Stromverschwendung.

V2.0
2008-11-01, 12:34:35
Gerade bei NV jat es kaum einen wirlich effektivne Shrink gegeben, der dem Kunden diente. Daher lieber auf die nächste Runde warten.

Gast
2008-11-01, 12:55:32
Jo, G71 hat gerade mal 51% Mehrtakt bei 3W Mehrverbrauch gebraucht.

Sorkalm
2008-11-01, 12:59:21
Jo, G71 hat gerade mal 51% Mehrtakt bei 3W Mehrverbrauch gebraucht.

Es ging um die DX10-Generationen.

Gast
2008-11-01, 13:22:38
Es ging um die DX10-Generationen.
Nein, nicht in den vorherigen Posts.

Ronny G.
2008-11-01, 13:50:32
gibt es nun zusammfassend ein Datum wann der Refresh Chip kommen soll?

Vielleicht auch ein paar eckpunkte was nun sehr wahrscheinlich geändert werden soll?

Franky-Boy
2008-11-01, 15:31:42
gibt es nun zusammfassend ein Datum wann der Refresh Chip kommen soll?

Vielleicht auch ein paar eckpunkte was nun sehr wahrscheinlich geändert werden soll?

Leider gibt es hinsichtlich der Spezifikationen noch nichts genaues, nur neue Spekulationen hinsichtlich des Erscheinungstermins:

http://www.neoseeker.com/news/9125-rumor-new-55nm-gtx-260-coming-around-christmas/

Sorkalm
2008-11-01, 15:43:54
Nein, nicht in den vorherigen Posts.

Doch, zusammen mit den kommenden DX11-Grafikchips. Soweit zurückblicken um dein Nvidia zu rechtfertigen musstest du nicht. :rolleyes:

Also ich bezweifle ja inzwischen, ob der GT200b aka GT206 noch dieses Jahr kommen wird. Zumindest wenn er mit neuen Grafikkarten eingeführt werden soll, denn dafür ist es doch zu ruhig. Ein stilles Ersetzen hingegen ginge noch...

Gast
2008-11-01, 16:17:10
Doch, zusammen mit den kommenden DX11-Grafikchips.
Aha, wo genau in diesen Posts steht das?
Zwischen den Zeilen? :rolleyes:

Erfahrungsgemäss bringt ein reiner Shrink keine Senkung der Leistungsaufnahme. Das ist bei beiden Herstellern so.
Gerade bei NV jat es kaum einen wirlich effektivne Shrink gegeben, der dem Kunden diente. Daher lieber auf die nächste Runde warten.

Sorkalm
2008-11-01, 16:18:16
Und auf was soll das sonst bezogen gewesen sein? Sicher nicht auf die Riva TNT2. ;)

Ailuros
2008-11-01, 16:58:16
Ich bin zu faul weitere Posts zu loeschen. Bitte zurueck zum Thema und der sehr geehrte Gast wird gebeten einen nuechternen Ton aufzuweisen.

/end of commercials :P

Ronny G.
2008-11-01, 17:43:08
Leider gibt es hinsichtlich der Spezifikationen noch nichts genaues, nur neue Spekulationen hinsichtlich des Erscheinungstermins:

http://www.neoseeker.com/news/9125-rumor-new-55nm-gtx-260-coming-around-christmas/

hätte ich mir schon denken können, den es ist echt sehr ruhig geworden, über ne stille einführung wie mit der neuen GTX260 halte ich nicht viel, gerade beim Topmodell wird doch immer viel TAMTAM gemacht.

Ich bin am überlegen ob ich meine HD4870+HD4850 verkaufen soll, ich will wieder ne Starke OC-Freudige Singlekarte die überall ihre Leistung bringt, CF ist mir zu anstrengend, da kommt der GT206er Chip wie gerufen, oder vielleicht doch schon vorher ne GTX280.

igg
2008-11-04, 20:12:09
Laut dem Inq (http://www.theinquirer.net/gb/inquirer/news/2008/11/04/nvidia-270-290-deep-trouble) hat Nvidia Probleme mit dem GT200b (GT206?) und sie müssen nun nochmal optimiert werden ("respin"), als wahrscheinliches Release wird der Februar genannt.

Das wäre echt mehr als deprimierend und die Chancen, dass bald doch eine 4870 in meinem PC werkelt, steigen...

Sorkalm
2008-11-04, 21:29:29
Noch ein dritter Respin des GT206?
Das Ding scheint ja sehr anspruchsvoll zu sein...

Franky-Boy
2008-11-04, 21:54:46
Laut dem Inq (http://www.theinquirer.net/gb/inquirer/news/2008/11/04/nvidia-270-290-deep-trouble) hat Nvidia Probleme mit dem GT200b (GT206?) und sie müssen nun nochmal optimiert werden ("respin"), als wahrscheinliches Release wird der Februar genannt.

Falls diese Spekulationen stimmen, wäre Nvidia gut beraten die 55nm Fertigung für den GT200 am besten ganz auszuklammern und sich voll auf die 40nm (GT212) Fertigung konzentrieren, welche ja noch im 1. Quartal 2009 erscheinen soll.

Gast
2008-11-04, 22:10:25
Ja, das wird hier auch schon spekuliert. Ferner finde ich den Hinweis am Ende ganz nett. ;)

"Inwiefern der Bericht zutreffend ist, bleibt abzuwarten. Der Autor dieser News, Charlie Demerjian, ist berühmtberüchtigt für seine Nvidia-feindlichen Gerüchte."

http://www.hardware-infos.com/news.php?news=2493

Ailuros
2008-11-05, 07:38:37
Falls diese Spekulationen stimmen, wäre Nvidia gut beraten die 55nm Fertigung für den GT200 am besten ganz auszuklammern und sich voll auf die 40nm (GT212) Fertigung konzentrieren, welche ja noch im 1. Quartal 2009 erscheinen soll.

Ich kann mich jetzt nicht mehr daran erinnern wer es war auf B3D der bezweifelte dass GT200b oder wie immer das Ding heisst je das Tageslichts sieht. Es ist auch einige Zeit her seitdem er es gepostet hat.

GT212 erscheint NICHT im ersten sondern Ende des 2. Quartals; im ersten Quartal soll GT216 erscheinen.

Falls die Projektion fuer den 216 Launch hinhaut und 206 tatsaechlich Probleme hat (oder das Ding ist einfach nicht der Rede wert, was mir auch keinen besonderen Eindruck machen wuerde), dann ist es einfacher das letztere links liegen zu lassen und sich tatsaechlich auf die 40nm chips konzentrieren.

Ja, das wird hier auch schon spekuliert. Ferner finde ich den Hinweis am Ende ganz nett. ;)

"Inwiefern der Bericht zutreffend ist, bleibt abzuwarten. Der Autor dieser News, Charlie Demerjian, ist berühmtberüchtigt für seine Nvidia-feindlichen Gerüchte."

http://www.hardware-infos.com/news.php?news=2493

Mag zwar stimmen, ich werde aber momentan nicht ausschliessen dass er in manchen Stellen recht haben koennte. GT206 wird trotz allem in Tesla Systemen ausgeliefert. Damien Triolet (hardware.fr):

http://forum.beyond3d.com/showpost.php?p=1227224&postcount=196
http://forum.beyond3d.com/showpost.php?p=1227230&postcount=198

Das Bild im zweiten Link oben ueberzeugt mich nicht gerade dass Charlie nichr irgendwo recht haben koennte.

***edit: von der angeblichen GX2 SKU@55nm hab ich persoenlich nie etwas gehoert; kann sein dass mir etwas entgangen ist, aber so oder so waere es eine bloede Idee gewesen IMHLO.

igg
2008-11-05, 08:13:38
Ganz stimmig ist die Aussage von Damien aber auch nicht:
It's unlikely that Nvidia would give unreleased parts to people doing the tourist tour at their HQ but not impossible.
- Laut dem Inq sollen sie doch kommen, nur später
- In Tesla Systemen sind sie offenbar drin

Ailuros
2008-11-05, 08:31:47
Ganz stimmig ist die Aussage von Damien aber auch nicht:

- Laut dem Inq sollen sie doch kommen, nur später
- In Tesla Systemen sind sie offenbar drin

Er sagt selber dass er den die mit 22*21.5mm abgemessen hat was 473mm^2 gibt. Welcher veroeffentlichte GT2x0 die misst denn nur 473 Quadratmillimeter?

Lies mal Deinen quote nochmal durch; steht da nicht "not impossible"?

igg
2008-11-05, 08:44:27
Lies mal Deinen quote nochmal durch; steht da nicht "not impossible"?
Deswegen sage ich ja auch nicht, dass sie falsch ist. Nur in ihrer Aussage nicht ganz stimmig. Ich weiß nicht, wie ähnlich die Tesla GT200bs zu ihren Geforce Produkten sind - ich vermute aber sehr, weshalb die Aussage (sinngemäß "GT200b kommt nicht, weil NV höchstwahrscheinlich kaum defekte Einheiten von unveröffentlichten GPUs verschenkt") eher nicht ganz passt. Oder ich habe alles falsch verstanden und Rede nur Unsinn ;).

Sollte der Inq Recht haben würde es mich aber auch nicht wundern, wenn NV auf ein Feb Release des GT200b verzichtet und gleich auf 40 nm geht. Halbgare Lösungen und Produktstrategien würden die Partner nur noch mehr vergraulen.[/quote]

Ailuros
2008-11-05, 09:44:34
Deswegen sage ich ja auch nicht, dass sie falsch ist. Nur in ihrer Aussage nicht ganz stimmig. Ich weiß nicht, wie ähnlich die Tesla GT200bs zu ihren Geforce Produkten sind - ich vermute aber sehr, weshalb die Aussage (sinngemäß "GT200b kommt nicht, weil NV höchstwahrscheinlich kaum defekte Einheiten von unveröffentlichten GPUs verschenkt") eher nicht ganz passt. Oder ich habe alles falsch verstanden und Rede nur Unsinn ;).

Es werden fuer alle Maerkte die gleichen chips benutzt. Damien hat einen 240SP/512bit chip in der Hand der 473mm^2 unter 55nm gross ist. NVIDIA erwaehnt fuer GT200 basierende Tesla configs 240SPs/512bit und ich bezweifle dass sich daran etwas aendern wird.

Sollte der Inq Recht haben würde es mich aber auch nicht wundern, wenn NV auf ein Feb Release des GT200b verzichtet und gleich auf 40 nm geht. Halbgare Lösungen und Produktstrategien würden die Partner nur noch mehr vergraulen.

Oder sie schieben die 206@55nm einfach nur ohne Fanfaren so unter die Decke wie der INQ vorschlaegt. Ist ja auch ziemlich egal.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=10280&Itemid=1

Gast
2008-11-05, 11:22:51
Wenn schon Tesla Hardware mit GT206 ausgeliefert werden soll ist die News ja auch schon wiederlegt ;)

igg
2008-11-05, 12:19:45
@Gast: Nein, Rys im beyond3d-Forum hat mal gesagt, dass der Gt200b für Geforce nochmal in einen Respin gegangen ist (obwohl er in der damaligen Form bereits in Tesla-Karten war), weil er für die Geforce-Reihe noch weitere Optimierungen nötig hatte. Wenn der Inq nun schreibt, dass nochmal ein Respin kommt, widerspricht sich das nicht.

Gast
2008-11-05, 13:01:33
Das wieder spricht sich doch auch, wie so sollte eine GPU die gut genug für Tesla ist nicht auch gut genug für GeForce sein?!?

Anders rum könnte man es ja noch verstehen, aber so?

Beim G200b geht es ja nur darum um kosten zu sparen, wenn der nicht mehr Takt mit macht oder gleich viel Verbraucht wie G200 ist das doch in ersterlinie für die GTX 260 + 280 völlig egal.

Gast
2008-11-05, 13:05:21
http://www.fudzilla.com/index.php?option=com_content&task=view&id=10311&Itemid=1

Psychopat
2008-11-05, 15:17:12
Meine Meinung zu wenn Tesla warum dann nicht auch Geforce:
Mit dem GT206 muss eine GX2 gebaut werden um die Performancekrone zurückzuholen. Für Tesla reicht die TDP, aber für eine GX2 sind die Werte noch nicht gut genug. Wahrscheinlich reicht der Takt der GX2 gerade noch nicht um die X2 zu schlagen. Aber eine GX2 muss die X2 schlagen, wenn sie denn kommt. Wäre sonst ein Imageverlust für nVidia.

Gast
2008-11-05, 17:21:26
Wahrscheinlich reicht der Takt der GX2 gerade noch nicht um die X2 zu schlagen.
Bezweifel ich. Die GTX 260 TDP im Vergleich zur 4870 512 und 4870 X2 TDP lässt erahnen, was möglich ist.

Imho reicht der Takt nicht, um die X2 so heftig wie gewünscht zu schlagen. Sagen wir mal 30%. ;)

Schlammsau
2008-11-06, 21:04:51
55-nm-Chip bereitet offenbar Probleme (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/november/nvidia_55-nm-chip_probleme/)

Gast
2008-11-06, 21:19:46
Muss man jetzt von CB kopierte News, die schon längst hier aufgetaucht sind erneut dürchrühren?

AnarchX
2008-11-07, 20:21:09
http://img201.imageshack.us/img201/2503/12246679431695570480558xy8.jpg (http://imageshack.us)

... soll von einer XFX XXX sein, eigentlich haben ja die GTX 280 einen G200-300-A2.

Wohlmöglich ein noch besser selektierter Die?

Gast
2008-11-08, 14:55:19
Hab ich zwar noch nie gesehen, ist aber gut möglich das NV die Chips für die OC Karten selber Selektiert.

reunion
2008-11-08, 19:41:17
http://www.hardware-infos.com/news.php?news=2495

Raff
2008-11-08, 19:47:01
Da wird Nvidia wohl auch zu Weihnachten Federn lassen, wenn man nix Neues in petto hat. Es spricht immer mehr für eine auf OC selektierte GTX 280 in "veralteter" 65-Nanometer-Fertigung, wenn's vor Ostern eine Nvidia-Karte werden soll. Argh. Dann soll es eben so sein ...

MfG,
Raff

=Floi=
2008-11-08, 20:02:04
ich verlasse mich da eher auf ailurus und andere insider die nicht spekulieren, sondern eher fakten bringen. Es müsste ein einen termin geben wan ndas nda fallen soll und das wird eben der erscheinungstag.

Ailuros
2008-11-09, 07:43:01
http://www.hardware-infos.com/news.php?news=2495

Wenn man von Anfang an falsch abschreibt, korrigiert man natuerlich spaeter und behauptet dass sich die "roadmap" geaendert hat. Die roadmap hast sich fuer GT21x nur etwas leicht verschoben dank TSMCs 40nm Problemen und es war stets der 216 vor dem 212 geplant.

Ailuros
2008-11-09, 07:59:43
Da wird Nvidia wohl auch zu Weihnachten Federn lassen, wenn man nix Neues in petto hat. Es spricht immer mehr für eine auf OC selektierte GTX 280 in "veralteter" 65-Nanometer-Fertigung, wenn's vor Ostern eine Nvidia-Karte werden soll. Argh. Dann soll es eben so sein ...

MfG,
Raff


Es gibt 55nm chips nur werden die samples die zur Verfuegung stehen im Profi-Markt eingesetzt. Ich bin sowieso verdammt neugierig wie die generellen Verkaufszahlen fuer Q4 08' aussehen werden. Ich bezweifle ernsthaft dass es zu keinem Rueckschlag im Vergleich zu Q3 kommen wird. Der Verbraucher ist weltweit sehr und ich meine SEHR vorsichtig geworden wie er sein Geld ausgibt.

Ich bin im Fremdenverkehr taetig und wir haben momentan eine gigantischen Rueckschlag was vorzeitige Reservierungen fuer 2009 betrifft. Natuerlich werden wir alle ein besseres Bild in Fruehling 09' haben, aber wir haben auch vorgesorgt dass zumindest 50% der kritischen Monate vorzeitig gesichert sind. Dieses wird natuerlich auch negative Folgen haben, aber zumindest wird kein Personal entlassen.

Es mag verdammt OT klingen, aber ich will bezweifeln dass nicht die Mehrzahl der Firmen versuchen werden so stark wie moeglich auf "Nummer Sicher" zu planen. Man kann schnell nachschlagen ob fuer NV schon ueber Personal's-Reduzierung spekuliert wurde, warum einige Partner indirekt im Stich gelassen werden etc etc. Firmen werden ihr bestmoegliches tun ueber die Krise mit den minimalsten Verlusten zu ueberwinden.

Im Fall von NVIDIA blubberte Kirk von einer Millarde $ fuer die 40nm GPUs fuer 2009. Zwar betrifft diese Summe alle Maerkte die bedient werden, aber im Angesicht zu allem obrigen gibt es nicht besonders viel Luftraum fuer extravagante Experimente bzw. Ausgaben.

pervert
2008-11-09, 10:22:41
Diese ganzen Termin Spekulationen um angebliche Verschiebungen sind doch irgendwie lächerlich, oder?

Hieß es nicht schon vor geraumer Zeit, dass TSMC mit der 40nm Fertigung doch längst nicht so weit ist und man diese nicht vor Q2/2009, gar eher zum Ende des Quartals hin erwarten dürfte?

Wieso schreiben dann diese Newsautoren immer wieder so "überrascht" von angeblichen Verschiebungen? Das die (alten) publizierten Roadmaps (40nm im Q1) nicht mehr aktuell sein können ist dann doch wohl offensichtlich.

Was ich auch etwas seltsam finde ist, dass der GT216 langsamer sein soll als der GT212? Wieso hat er dann ne höhere Nummer? Ob das alles 100% so stimmt?

Ich schätze mal der GT206 kommt entweder noch im November/Dezember, möglicherweise als Gurkenversion ohne nennenswert höhere Takte (aber mögl. mit besserem Preis) und alles andere wird uns nicht vor April 2009 beglücken! In der Zeit könnte man dann ja sogar noch ne GX2 einscheiben (und GTX270/290), wenn es um den GT206 doch nicht so schlecht steht...

Gab es eigentlich noch jemanden außer "bad Charlie", der von angeblichen Problemen und weiteren Respins beim GT206 berichtete?

=Floi=
2008-11-09, 10:51:31
Die konjunkturdelle ist aber auch nur kurzfristig und es ist ja nur der erste schock. wenn dich der erste rauch wieder verzogen hat, dann werden die leute auch wieder mehr kaufen und konsumieren. ich sehe eher eine generelle sätigung des marktes. Wer sich karten für 150€ kauft, der wartet auch auf deren nachfolger in diesem preissegment...

Gast
2008-11-09, 10:59:42
[..] und es war stets der 216 vor dem 212 geplant.

Das würde ich so nicht sagen. Denk doch mal zurück an die ELSA-Roadmap. Dort stand GT212 für Q1/09, von GT216 war gar keine Rede. Und man glaubte doch allerorts für ein paar Wochen, dass Nvidia bei der Umstellung auf 40nm erstmals wieder direkt einen neuen statt altbekannten Chip fertigt.
Dann noch vor kurzem die zugegeben auf diversen Quellen basierte Roadmap von P3D...

Was ich auch etwas seltsam finde ist, dass der GT216 langsamer sein soll als der GT212? Wieso hat er dann ne höhere Nummer? Ob das alles 100% so stimmt?

Das wird schon stimmen. G94 ist doch auch langsamer als G92 und G96 wieder langsamer als G94. ;)

pervert
2008-11-09, 14:23:08
Ist vielleicht ein kleines bisschen OT, aber sicher nicht uninteressant:
http://www.techpowerup.com/75685/AMD_to_Give_RV770_a_Refresh_G200b_Counterattack_Planned.htm

Allerdings wundert es mich, dass man bei ATI immer nur an Shaderpower denkt. Davon hatten die in der Vergangeheit doch immer genug. Der RV770 hat ansich ne ganze nette (Shader)Leistung, was aber im Verhältnis alles zunichte gemacht wird, sobald man 4xAA aktiviert. DARAN sollten die lieber mal arbeiten finde ich.

Raff
2008-11-09, 14:33:31
Was ich auch etwas seltsam finde ist, dass der GT216 langsamer sein soll als der GT212? Wieso hat er dann ne höhere Nummer? Ob das alles 100% so stimmt?

Welche GPU ist schneller: der G86 oder der G84? ;) Das nur als ein Beispiel von vielen. Bei Nvidia nimmt man's mit Zahlen nicht ganz so logisch.

MfG,
Raff

pervert
2008-11-09, 14:57:35
Welche GPU ist schneller: der G86 oder der G84? ;) Das nur als ein Beispiel von vielen. Bei Nvidia nimmt man's mit Zahlen nicht ganz so logisch.
Öhm, ja, got it. Aber das wurde schon geschrieben ;)

Ich habe die kleineren Chips/Codenamen weniger im Gedächtnis weil mich die nicht so interessieren. Ich hatte da an GT200, GT300 usw gedacht wo halt "hochgezählt" wird statt runter und z. B. diese Auflistung hier: http://www.hardware-infos.com/news.php?news=2473 (sowie die Screenshots der Elsa Roadmap), so dass ich von einer anderen Reihenfolge ausgegangen war und den GT216 bisher eher als größeren Chip eingeordnet habe.
Zitat: "Für das späte zweite Quartal 2009, zuletzt war bei CENS von Juni 2009 die Rede, wird dann der GT216 - ebenfalls im 40 nm-Prozess - folgen. Unklar ist hier, ob es sich um einen taktstärkeren GT212 handelt oder lediglich um eine Neuauflage der GT206, die in einen Dual-Chip münden könnte."
Aber ich denke Ihr habt da sicher Recht.

Wenn der GT216 eher ein "konventioneller" geshrinkter Chip sein soll im Verhältnis zu einem höherentwickelten GT212, würde es mich jedenfalls auch nicht wundern, wenn dieser zuerst käme. Lassen wir uns überraschen und warten wir auf weitere Gerüchte. Wie sehr das alles auch daneben liegen kann, zeigten ja die Spekulationen zum RV770 die praktisch bis zum Fall des NDA alle nicht 100% stimmten.

Gast
2008-11-09, 17:05:21
Welche GPU ist schneller: der G86 oder der G84? ;) Das nur als ein Beispiel von vielen. Bei Nvidia nimmt man's mit Zahlen nicht ganz so logisch.
Man sieht schon eine Reihenfolge:

G80 > G84 > G86

G92 > G94 > G96 > G98

;)

mictasm
2008-11-09, 19:33:25
Die konjunkturdelle ist aber auch nur kurzfristig und es ist ja nur der erste schock. wenn dich der erste rauch wieder verzogen hat, dann werden die leute auch wieder mehr kaufen und konsumieren. ich sehe eher eine generelle sätigung des marktes. Wer sich karten für 150€ kauft, der wartet auch auf deren nachfolger in diesem preissegment...

Wir sind gerade erst am Anfang der Delle und die gesamte Tiefe dieser Delle ist noch nicht mal absehbar. Stichwort Kreditkarten in den USA.

Coda
2008-11-09, 20:49:59
Was ich auch etwas seltsam finde ist, dass der GT216 langsamer sein soll als der GT212? Wieso hat er dann ne höhere Nummer? Ob das alles 100% so stimmt?
Codenamen haben eher was mit dem Entwicklungsdatum zu tun als der Leistungsfähigkeit.

Das ist auch bei ATI so.

Ailuros
2008-11-09, 23:32:17
Das würde ich so nicht sagen. Denk doch mal zurück an die ELSA-Roadmap. Dort stand GT212 für Q1/09, von GT216 war gar keine Rede. Und man glaubte doch allerorts für ein paar Wochen, dass Nvidia bei der Umstellung auf 40nm erstmals wieder direkt einen neuen statt altbekannten Chip fertigt.
Dann noch vor kurzem die zugegeben auf diversen Quellen basierte Roadmap von P3D...

Lange bevor die Elsa roadmap zum Vorschein kam wurde im Hintergrund von GT212, 214, 216 und 218 gemurmelt. GT21x hat so wie es aussieht 32 SPs pro cluster; dass es sich bei GT21x im Vergleich zu GT200 zu einem weiteren Refresh handelt kann man sogar vom Codenamen ausraten.

Etwas OT oder vielleicht auch doch nicht (fuer den generellen Optimismus in diesen Foren):

http://www.theinquirer.net/gb/inquirer/news/2008/11/07/nvidia-talks-bland-news

pest
2008-11-10, 01:13:43
http://img201.imageshack.us/img201/2503/12246679431695570480558xy8.jpg (http://imageshack.us)

... soll von einer XFX XXX sein, eigentlich haben ja die GTX 280 einen G200-300-A2.

Wohlmöglich ein noch besser selektierter Die?

da hat nur jmd. den Heatspreader von seiner GTX280 entfernt ;D

http://www.xtremesystems.org/Forums/showthread.php?t=207011

V2.0
2008-11-10, 07:10:56
Ich kann mir gut vorstellen, dass sowohl AMD als auch NV keine extremes Bedürfnis haben neue Chips so schnell wie möglich in den schwachen Markt zu schicken. Man steht mit 40nm vor einem neuen Prozess der sicher Kosten verursacht (hat). Gleichzeitig sind die Marktpreise für performante Karten auf einem extrem niedrigen Level. Da ist bei der wirthscafltiche Situation wenig Luft für Preisanhebungen und gleichzeitig braucht man sicherlich eine relativ große Menge an verkauften CPUs um den Break-Even zu sehen.

AnarchX
2008-11-10, 08:08:16
da hat nur jmd. den Heatspreader von seiner GTX280 entfernt ;D

http://www.xtremesystems.org/Forums/showthread.php?t=207011

Wie schon gesagt, die ersten GTX 280 hatten einen G200-300-A2. ;)

igg
2008-11-10, 13:42:14
Frohe Kunde aus dem b3d Forum:
Nvidia Corp. said during a conference call with the financial analysts that it had transited its mainstream and performance-mainstream graphics processing units (GPUs) to a new process technology, which helps to reduce costs. In addition, the firm confirmed that it is about to release its high-end graphics processors made using 55nm process technology.

“Improving gross margin while managing operating expenses enabled us to significantly improve our operating fundamentals. We transitioned our performance segment GPUs to 55nm and are now poised to recapture lost share,” said Jen-Hsun Huang, president and chief executive at Nvidia, during the most recent conference call with financial analysts.
...
“We have 65nm inventory remaining, but everything we are ramping now is 55nm and everything on the high-end that we are shipping now is 55nm,” added Mr. Huang, implying that Nvidia is ready with its code-named GT200b/GT206 graphics processor, which is a lower-cost version of the GT200/G200 that powers GeForce GTX 260 and GTX 280 graphics cards.
...
“We absolutely will regain market share and this is a segment where technology matters, performance matters, architecture matters, and we have the best lineup. Our challenge was never architectural leadership, our challenge was that we were caught flat footed at 65nm and our chip and board solution was just too expensive. And so, we have made that transition in Q2 and we are in Q3 and we are through that transition, and we are off and running,” said Mr. Huang.
Quelle (http://www.xbitlabs.com/news/video/display/20081107235337_Nvidia_Reports_Successful_Transition_to_New_Process_Technology.ht ml)

James Ryan
2008-11-10, 13:55:27
Das heißt, NVIDIA liefert G200b GPUs aus und kennzeichnet diese nicht extra?
Also wieder Glücksspiel wie bei der Gf 9800 GTX+?

MfG :cool:

dildo4u
2008-11-10, 13:57:16
Da wär NV ja auch schön blöd wenn sie dadurch auf dem Restbestand von 65nm GPUs sitzen bleiben würden.

igg
2008-11-10, 14:01:45
Das heißt, NVIDIA liefert G200b GPUs aus und kennzeichnet diese nicht extra?
Also wieder Glücksspiel wie bei der Gf 9800 GTX+?
Das geht aus dem Artikel glaube nicht eindeutig hervor. Evtl. liefern die sie an die Kartenhersteller und kündigen dann Ende Nov GTX270/290 an.

Edit: Außerdem steht da
We transitioned our performance segment GPUs to 55nm and are now poised to recapture lost share,
könnte mir kaum vorstellen wie man Marktanteile (shares) mit einer stillen Einführung zurückgewinnen will. Höchstens mehr Gewinn (margin).

Gast
2008-11-10, 14:02:18
Die Reste hätten die Hersteller bzw die Händler. Nvidia hätte durch neue Reviews den Stromsparruhm.

Gast
2008-11-10, 17:27:33
Die Reste hätten die Hersteller bzw die Händler. Nvidia hätte durch neue Reviews den Stromsparruhm.
Stromsparruhm durch 55 nm? Habe mich bis jetzt noch nicht richtig informiert, aber hat nV mal irgendwo konkrete Zahlenwerte genannt? Denke, der kleinere Prozess dient hauptäschlich nV dazu, mal kostendeckend ihre High End GPUs zu produzieren. Der Konsument dürfte vermutlich keinen Vorteil zwischen 65 oder 55 nm merken. Evtl. lassen sich die neuen Chips besser übertakten aber auch das muss sich erst noch zeigen. Die 9800 GTX+ hat jedenfalls keine Effizienzsteigerung durch 55 nm gezeigt.

reunion
2008-11-10, 17:43:08
Wenn Huang davon spricht verlorene Marktanteile zurück zu gewinnen, wird das wohl kaum ohne neue Produkte machbar sein. Deshalb darf man wohl mehr erwarten als unveränderte GTX280/260-Karten in neuem Fertigungsprozess.

derguru
2008-11-10, 18:03:37
Wenn Huang davon spricht verlorene Marktanteile zurück zu gewinnen, wird das wohl kaum ohne neue Produkte machbar sein. Deshalb darf man wohl mehr erwarten als unveränderte GTX280/260-Karten in neuem Fertigungsprozess.

z.b. dx10.1 auch wenn es jetzt nichts gravierendes wäre,vermuten tue ich es deshalb da mir komischweise ein paar titel urplötzlich auf dx10.1 gepatcht wurden wie stalker cs,far cry2 die ja eigentlich nv als sponsor haben.

V2.0
2008-11-10, 18:18:39
Wenn Huang davon spricht verlorene Marktanteile zurück zu gewinnen, wird das wohl kaum ohne neue Produkte machbar sein. Deshalb darf man wohl mehr erwarten als unveränderte GTX280/260-Karten in neuem Fertigungsprozess.

Oder man geht in den Preiskampf.

Gast
2008-11-10, 19:41:12
z.b. dx10.1
Das mit Sicherheit nicht.

Wozu auch?
.1 "Features" sind auch per hack nutzbar, also who cares?

w0mbat
2008-11-10, 20:09:45
Nicht alle und zudem mit schlechter Performance. Zumal Win7 DX10.1 nutzen wird.

Gast
2008-11-10, 22:22:38
Was davon wird Win7 nutzen?

deekey777
2008-11-10, 22:44:35
Latest Quadro FX graphics card has 4GB of RAM (http://techreport.com/discussions.x/15866)


...
Nvidia's numbers suggest the Quadro FX 5800 might actually be more power-efficient than its desktop counterpart, too. The company quotes maximum power consumption of 189W for the Quadro and "Maximum Graphics Card Power" of 236W for the GTX 280.

reunion
2008-11-10, 22:59:00
Vor allem taktet das Ding laut den Daten auch mit 650Mhz für den Chip und 800Mhz für die 4GB Speicher. Eine GTX280 taktet mit 600Mhz/1107Mhz bei einem GB Speicher.

Ailuros
2008-11-11, 00:00:59
Vor allem taktet das Ding laut den Daten auch mit 650Mhz für den Chip und 800Mhz für die 4GB Speicher. Eine GTX280 taktet mit 600Mhz/1107Mhz bei einem GB Speicher.

http://www.nvidia.com/object/tesla_s1070.html

http://www.nvidia.com/object/tesla_c1060.html

Die obrigen Seiten gab es schon seit einiger Zeit mit einer "available fall 2008" Notiz an der Seite.

Gast
2008-11-11, 00:16:04
Bei C1060 steht bei Verlustleistung:
<200 W peak, 160 W typical

Hier takten Chip und Shader wie bei GTX 280 mit 602 und 1296 MHz.

Ailuros
2008-11-11, 00:28:37
Bei C1060 steht bei Verlustleistung:
<200 W peak, 160 W typical

Hier takten Chip und Shader wie bei GTX 280 mit 602 und 1296 MHz.

1.44 = 200W/chip
1.296 = 160W/gpu

Natuerlich handelt es sich um ihre eigenen Werte, aber wenn man die Speichermenge bzw. Speicherfrequenz uebersieht ist es in FLOPs eine vergleichbare Variante zur 280.

Wenn die 290 jetzt auf 650/1625 taktet, dann sind es ~25% mehr GFLOPs im Vergleich zur 280 und die erwaehnten 8% mehr Leistung insgesamt hauen dann schon hin.

V2.0
2008-11-11, 08:08:09
Selbst etwas weniger Takt wäre nicht schlimm, wenn sie mehr Spielraum beim Preis haben. Zu langsam sind GT280/260 ja nicht, eher im Vergleich etwas teuer.

AnarchX
2008-11-11, 09:51:49
Laut ELSA taktet die Quadro FX 5800 nur auf 610MHz:
http://www.elsa-jp.co.jp/products/graphicsboard/quadro_fx5800/
... was auch eher zu den 300 MTri/s passt die NV angibt.

Was aber nicht ganz zu den 52GTex/s passt die NV angibt:
http://www.nvidia.com/object/IO_11761.html

horn 12
2008-11-11, 17:28:22
http://www.hardware-infos.com/news.php?news=2505

igg
2008-11-11, 18:27:23
Wenn die hardware-info Meldung korrekt ist wittere ich für die Geforce-Reihe etwas anderes: Wie wäre es, wenn sie auf die 25 % Energieersparnis (bei der es bereits 8 % Mehrleistung gab) verzichten und nur auf Mehrleistung setzen?

=Floi=
2008-11-11, 18:41:06
ich dachte schon bei der alten 8X00er serie war 1mhz=1MTris (das galt auch für die kleinen modelle)
wie kommen die jetzt auf die 300MTris/sek?

Gast
2008-11-11, 18:51:23
Was heißt wenn die hardware-infos-meldung stimmt. Die berufen sich auch nur auf die offiziellen Nvidia-Daten der Quadro FX 5800.

Soweit ist ihre Rechnung richtig. Aber für einen Die-Shrink wäre das eigentlich zu viel des Guten. ;)

Ailuros
2008-11-11, 19:33:23
ich dachte schon bei der alten 8X00er serie war 1mhz=1MTris (das galt auch für die kleinen modelle)
wie kommen die jetzt auf die 300MTris/sek?

Vielleicht sind sie mit dem Lauf der Zeit etwas ehrlicher geworden? LOL :D

G8x/GT2x0/GT21x0 koennen alle unter seltenen Bedingungen dank begrenztem tri setup 1 Tri/clock ausfuehren. Im Normalfall sind es 1 Tri/2 clocks ;)

Wenn die hardware-info Meldung korrekt ist wittere ich für die Geforce-Reihe etwas anderes: Wie wäre es, wenn sie auf die 25 % Energieersparnis (bei der es bereits 8 % Mehrleistung gab) verzichten und nur auf Mehrleistung setzen?

Angenommen die Quadro FX5800 ist tatsaechlich auf 650/1625 getaktet, wie viel mehr koennte man denn am Ende von 55nm noch herausquetschen? Ich weiss schon was Du meinst, aber es muss ja auch ueberteure OC-Protzmodelle fuer gewisse IHVs geben oder?

Gast
2008-11-11, 21:27:45
Wenn man dem so Glauben schenken kann, dürften auch Modelle mit 700/1750 MHz keine Utopie sein, allerdings bin ich mir noch nicht so sicher, ob hier eventuell nicht der Stromverbrauch limitiert, sondern der Takt der Shaderdomain. Deswegen ja vermutlich auch die mehreren Respins des GT206...

AnarchX
2008-11-11, 21:55:26
NVIDIA_GT200.DEV_05E7.1 = "NVIDIA Tesla C1060"
NVIDIA_GT200.DEV_05F9.1 = "NVIDIA Quadro CX"
NVIDIA_GT200.DEV_05FD.1 = "NVIDIA Quadro FX 5800"
NVIDIA_GT200.DEV_05FE.1 = "NVIDIA Quadro FX 4800"

Ob das "F" in der Device-ID wohlmöglich auf G200B hindeutet?

@Ailuros
Wie kommst du darauf, dass bei der FX5800 das Taktverhältnis 1:2,5 beträgt?

Sorkalm
2008-11-11, 22:07:17
Die neue Tegra-Einheit, die mit 650 MHz GT200(b?) angetrieben wird, hat jedenfalls 650 MHz Kerntakt und 1,44 GHz Shadertakt. Das wäre kein 1:2,5-Verhältnis.

AnarchX
2008-11-11, 22:16:53
Die neue Tegra-Einheit, die mit 650 MHz GT200(b?) angetrieben wird, hat jedenfalls 650 MHz Kerntakt und 1,44 GHz Shadertakt. Das wäre kein 1:2,5-Verhältnis.

Tatsächlich:
http://www.nvidia.com/object/tesla_s1070.html

Da hat man sein Taktziel verfehlt:
http://img508.imageshack.us/img508/9039/28139279fx3.png (http://imageshack.us)
http://www.beyond3d.com/content/articles/106/

Auch die C1060 takt nur mit 1.296GHz, anstatt mit geplanten 1.33GHz.

Ich bezweifele aber, dass die ROP-Domain hier bei 650MHz liegt.

Sorkalm
2008-11-11, 22:24:04
Achja, Tesla nicht Tegra. Ich hab nur die Daten auf der Nvidia-Website gesehen, also deiner verlinkten unter Spezifikationen, da standen die 1,44 GHz (bei 800 W typical power, die Folie da weicht ja etwas ab).

Die Quadro FX 5800 hat ja 650 MHz Kerntakt, hmm, vielleicht hatte ich da was verdreht.

Ailuros
2008-11-12, 07:22:18
AnarchX,

Es hiess schon seit einiger Zeit dass GT206 das 2.5x Verhaeltnis wiederherstellen sollte. Zwar kann es sein dass sie es nicht geschafft haben, aber dafuer muessten wir schon genau Daten ueber die Fuellraten bzw. ALU-Frequenzen haben. Es gibt zu viele Werte die herumschwirren und NV erwaehnt auf ihren Slides nur TFLOPs.

***edit: selbst die 650MHz sind nicht gesichert, da ELSA nach Deinem vorigen Link 610MHz angibt. Nur mit welcher ALU Frequenz das letzte?

reunion
2008-11-12, 08:28:47
NV erwähnt auf ihrer Webseite explizit 1.44Ghz ALU-Frequenz:
http://www.nvidia.com/object/tesla_s1070.html

Unter Specifications.

igg
2008-11-12, 09:11:45
Wenn man dem so Glauben schenken kann, dürften auch Modelle mit 700/1750 MHz keine Utopie sein, allerdings bin ich mir noch nicht so sicher, ob hier eventuell nicht der Stromverbrauch limitiert, sondern der Takt der Shaderdomain. Deswegen ja vermutlich auch die mehreren Respins des GT206...
Ähnliches wurde auch im b3d Forum gemunkelt

AnarchX
2008-11-12, 09:22:45
NV erwähnt auf ihrer Webseite explizit 1.44Ghz ALU-Frequenz:
http://www.nvidia.com/object/tesla_s1070.html

Unter Specifications.

Bleibt nur die Frage, wie es bei der FX 5800 aussieht, wo NV sich bedeckt hält.

Zumal ja die Teslas noch auf G200A baiseren sollen, was vielleicht auch das "E" in der ID andeutet.

Gast
2008-11-12, 15:22:48
Spielt man hier auf DirectX-10.1-Unterstützung an? Neue Nvidia-Architektur?

http://www.fudzilla.com/index.php?option=com_content&task=view&id=10421&Itemid=1

igg
2008-11-12, 15:50:05
Spielt man hier auf DirectX-10.1-Unterstützung an? Neue Nvidia-Architektur?

http://www.fudzilla.com/index.php?option=com_content&task=view&id=10421&Itemid=1
Ich verstehe das so, dass der GT3xx kein Nachfolger der G80 Architektur mehr ist. Der GT212 wird vermutlich die Ausnahme in 40 nm sein.

Gast
2008-11-12, 15:55:31
GT300 in 2009 wäre ja eine erfreuliche Botschaft.

AnarchX
2008-11-12, 15:56:59
Naja, "new architecture" kann man irgendwo zwischen "mehr als nur ein paar zusätzliche Einheiten" und "G7x -> G8x" einordnen.

Zumal GT212 wohl nicht der einzige 40nm Chip sein könnte:
GT212 GT214 GT216 GT218
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6836768#post6836768

Für GT21x, könnte man sich durchaus DX10.1 vorstellen, da das GUI von Windows 7 wohl für einige Effekte dessen Fähigkeiten benötigt.
Im Endeffekt fällt es vielleicht eh in die gleiche Baustelle, wie die nicht mehr konkurrenzfähige Packdichte von GT2xx und G9x-GPUs.

Coda
2008-11-12, 16:10:48
Für GT21x, könnte man sich durchaus DX10.1 vorstellen, da das GUI von Windows 7 wohl für einige Effekte dessen Fähigkeiten benötigt.
Nein tut es nicht. Es wird nur zusätzlich dadurch beschleunigt. Es funktioniert auch alles mit DX9 auf einer SM2-GPU noch.

AnarchX
2008-11-12, 16:14:39
Nein tut es nicht. Es wird nur zusätzlich dadurch beschleunigt. Es funktioniert auch alles mit DX9 auf einer SM2-GPU noch.
http://img146.imageshack.us/img146/7962/2983005443dc5b1cf034279so9.jpg (http://imageshack.us)

I watched a video a few days back, I think it was to do with the Colour Hot Tracking in the taskbar icons, and the presenter said this is only available on 10.1 - I think...
http://forum.beyond3d.com/showthread.php?t=49776&page=12

igg
2008-11-12, 16:17:33
GT300 in 2009 wäre ja eine erfreuliche Botschaft.
Was man in den Foren so liest wird der auch in Q409 als DX11 Chip erwartet,

Gast
2008-11-12, 16:46:24
Was man in den Foren so liest wird der auch in Q409 als DX11 Chip erwartet,
Mal gucken, vielleicht wird's auch erst was im frühen Jahr 2010. Bei so großen Projekten sind ja Verschiebungen durch zunehmende Komplexität und viel zu knapp kalkulierter Zeit Gang und Gäbe.

Ailuros
2008-11-13, 06:51:16
NV erwähnt auf ihrer Webseite explizit 1.44Ghz ALU-Frequenz:
http://www.nvidia.com/object/tesla_s1070.html

Unter Specifications.

Sie haben es geaendert; frueher stand nur 1.44 drin. Jetzt steht von 1.296 bis zu 1.44.

Spielt man hier auf DirectX-10.1-Unterstützung an? Neue Nvidia-Architektur?

http://www.fudzilla.com/index.php?op...10421&Itemid=1

GT200 = [10*(3*8)]
GT21x = [1-12(4*8)]

Ich hab schon vor einiger Zeit gehoert dass die naechste "Generation" an IGPs 32SPs haben werden.

Unter diese Perspektive ist GT21x eine genauso "neue Architektur" wie GT200 im Vergleich zu G80.

Was jetzt 10.1 betrifft, ich hoere zwar links und rechts dass eine solche Moeglichkeit besteht aber ich persoenlich finde es eher unwahrscheinlich. Wenn sie jetzt noch damit ankommen verdienen sie einen Tritt in den Hintern, weil man es sonst frueher liefern sollte.

Mal gucken, vielleicht wird's auch erst was im frühen Jahr 2010. Bei so großen Projekten sind ja Verschiebungen durch zunehmende Komplexität und viel zu knapp kalkulierter Zeit Gang und Gäbe.

Den Verdacht habe ich auch, ueberhaupt da es sich anscheinend immer noch um 40nm handeln soll. Das Problem ist dass ein neues API release viel zu wichtig ist um es zu verpassen; diesmal spielt ja auch Intel mit und obwohl deren Profi-LRB zuerst kommen wird und die mainstream Variante spaeter nach allen Angaben, kann sich NV keinesfalls leisten als letzte mit D3D11 anzutanzen.

Das Bild wird natuerlich erst im Sommer 2009 klarer werden; wenn alles nach Plan laufen sollte werden deren Partner dann auch sofort eingeweiht dass deren chip mit X die-Groesse und Y TFLOPs schon seinen tape-out hatte...

Nightspider
2008-11-13, 06:54:05
Hatten wir nicht vorgestern ne News vonwegen "Nvidia shipping 55nm G200 GPUs..." ?

Müssten dann nicht langsam die ersten News oder "genaurere Gerüchte" eintrudeln!?


Meint ihr Nvidia könnte noch was am Energie/Hybrid-Sparmodus verbessert haben oder geht das nur über weitreichendere Veränderungen an der Architektur?

=Floi=
2008-11-13, 07:09:34
zitat
GT200 = [10*(3*8)]
GT21x = [1-12(4*8)]
reichen nur 384 shaderinheiten und reichen die restlichen einheiten? (ROPs TMUs)
Ich hätte da ein bißchen mehr erwartet, zumal da ati schon mit 2000 shadereinheiten und 3,6tflop@900mhz daherkommen könnte.

Ailuros
2008-11-13, 19:29:53
reichen nur 384 shaderinheiten und reichen die restlichen einheiten? (ROPs TMUs)
Ich hätte da ein bißchen mehr erwartet, zumal da ati schon mit 2000 shadereinheiten und 3,6tflop@900mhz daherkommen könnte.

Momentan liegt das Verhaeltnis zwischen GT200 und 4870X2 bei 933 vs. 2400 GFLOPs. Ergo muss NV einen um einiges hoeheren Anstieg als 50% anzielen. Steht es im Raum des moeglichen oder nicht?

crux2005
2008-11-13, 20:56:40
mit einer GX2 wäre es möglich

Ronny G.
2008-11-13, 21:53:42
Momentan liegt das Verhaeltnis zwischen GT200 und 4870X2 bei 933 vs. 2400 GFLOPs. Ergo muss NV einen um einiges hoeheren Anstieg als 50% anzielen. Steht es im Raum des moeglichen oder nicht?

warum ein Singlekarte an einer MultiGpuKarte messen?

=Floi=
2008-11-14, 00:17:28
selbst wenn man eine 280er mit einer 4870 vergleicht sind es aktuell fast 30% mehr (theoretische) rechenleistung. Wenn ich bei ati wieder eine steigerung vom faktor 2,5 annehme, bin ich bei 2000 alus.
Ich will jetzt nicht mal ati als konkurrenz nehmen, sondern auch bei nv selbst wäre so eine steigerung wieder nicht groß. Diese 384 shadereinheiten sind nur faktor 3 im vergleich mit der 8800GTX. (ohne taktratenvorteil). Ich hätte da eher 512 shadereinheiten mit ca. 2,2-2,5ghz erwartet.

edit
bei gpgpu skalieren diese 2,4tflop wohl ganz gut und in diesem bereich könnte man diese 2,4tflop auf einer karte schon gelten lassen.

Gast
2008-11-14, 00:23:01
fast 30% mehr (theoretische) rechenleistung.
Also, geht doch.
Jetzt noch berücksichtigen das diese theoretische Rechenleistung nie erreicht wird.

deekey777
2008-11-14, 00:58:41
Momentan liegt das Verhaeltnis zwischen GT200 und 4870X2 bei 933 vs. 2400 GFLOPs. Ergo muss NV einen um einiges hoeheren Anstieg als 50% anzielen. Steht es im Raum des moeglichen oder nicht?
Da wird aber der Dispatcher kräftig schwitzen müssen, um alle Einheiten innerhalb eines Clusters auszulasen.