PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia G70?


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15

Ronny145
2005-06-18, 13:54:08
Ne das sli war auch oc wenn man von dem bild ausgeht



Tjo wenn das wirklich so sein sollte wird kein normal streblicher sich eine cpu leisten können die ein 7800SLI ausnutzt muss man halt alle Games in 1600*1200 4XAA zocken damit sich das lohnt.*g*Dann bringts auch nix wenn der R520 Schneller wäre.Oder man muss sich halt eine neue Auflösung zum Benchen suchen z.B 1280*1024 als minimum.


Anhand des 3dmark05 erkennst du das? Nochmal, der 3dmark05 ist nicht CPU limitiert.
http://www.computerbase.de/artikel/hardware/prozessoren/2004/athlon_64_fx-55_4000/15/#abschnitt_3dmark05
6800GT@400/1100

A64 2,2Ghz 5552
A64 1,6 Ghz 5368

Warum sollte ein FX 2,8 Ghz limitieren? Das ist Unsinn.

reunion
2005-06-18, 13:55:15
Unglaublich das da ein FX57 schon limitiert.


Unwarscheindlich. Es ist bei meinem System z.B. praktisch irrelevant, ob ich meinen CPU mit 800Mhz, oder mit 2475Mhz takte.

dildo4u
2005-06-18, 13:59:24
Unwarscheindlich. Es ist bei meinem System z.B. praktisch irrelevant, ob ich meinen CPU mit 800Mhz, oder mit 2475Mhz takte.
Sorry aber was hat dein sys mit einer 8Pipe karte mit einem 48pipe 7800SLI zu tun?

mapel110
2005-06-18, 13:59:40
Unwarscheindlich. Es ist bei meinem System z.B. praktisch irrelevant, ob ich meinen CPU mit 800Mhz, oder mit 2475Mhz takte.
Desto schneller die Grafikkarte, desto höher die Wahrscheinlichkeit ans CPU-limit zu kommen. Oder siehst du das etwa anders?! :|

reunion
2005-06-18, 14:01:11
Sorry aber was hat dein sys mit einer 8Pipe karte mit einem 48pipe 7800SLI zu tun?


Und was hat ein Winchester mit 800Mhz mit einem San Diego 2.8Ghz zu tun?

reunion
2005-06-18, 14:07:40
Desto schneller die Grafikkarte, desto höher die Wahrscheinlichkeit ans CPU-limit zu kommen. Oder siehst du das etwa anders?! :|

Warum sollte ich? :|

Ailuros
2005-06-18, 14:09:01
1. das und 2. ist Nvidia eifriger dabei wenn es darum geht bestehende Lösungen einfach ein klein wenig zu verändern und auf anderen Märkten unterzubringen.

Beispiele:
NV20/25 sind zu 90% NV2A
G70 bzw. Nachfolger wird zu 80% RSX sein.
MCP in der xbox = MCP für nForce1 und 2.
GF4MX aufwärts und ähnliches finden wir dann im GoForce usw...

Das wird man auch weiterhin beobachten können. Nvidia konzentriert sich ganz stark auf bestimmte Märkte und versucht zwischen diese soviel Synergien wie nur möglich aus den eigenen Produktreihen zu schöpfen.
Das machen sie meiner Meinung nach besser als ATI und sie haben auch sehr viel weniger Baustellen. Bei ATI hab ich die Befürchtung, dass gerade die 2 Konsolen Deals enorm Ressourcen binden.
In Umsatz und Gewinn wurde ATI gerade wieder von Nvidia überholt. Ich glaube dass Nvidia für seine Kernmärkte mehr Ressourcen hat als ATI auf Grund weniger Baustellen.


Gar nicht schlecht illustiert; muss natuerlich nicht unbedingt stimmen denn wir sind ja im Spekulations-forum aber eine sehr logische Folgerung.

Quasar
2005-06-18, 14:10:55
Und was hat ein Winchester mit 800Mhz mit einem San Diego 2.8Ghz zu tun?
Grafikleistung: mind. *6
CPU-Leistung: ~*3,5

Da könnte man schon 'eher' an ein Limit stoßen, als du mit deinem Setup.

reunion
2005-06-18, 14:16:19
Grafikleistung: mind. *6
CPU-Leistung: ~*3,5

Da könnte man schon 'eher' an ein Limit stoßen, als du mit deinem Setup.


Richtig, sollte ja auch nur als Beispiel dienen.

Quasar
2005-06-18, 14:27:28
Richtig, sollte ja auch nur als Beispiel dienen.
Ok, aber mit deinen Angaben kannst du CPU-Bedeutung nur für deine Verhältnisse erfassen - nicht für eine CPU, die 3,5 schneller rechnet gekoppelt mit einer 6x so schnellen Grafikeinheit.

DanMan
2005-06-18, 15:04:15
Gar nicht schlecht illustiert; muss natuerlich nicht unbedingt stimmen denn wir sind ja im Spekulations-forum aber eine sehr logische Folgerung.
Das ist ja auch nur normal, weil wirtschaftlich. AMD verkauft seine alten AthlonXP ja auch mittlerweile als Duron. Gestern noch aktuell, heute schon das Einstiegsmodell. Warum nicht?

Coda
2005-06-18, 15:05:36
Weil die 6800er PCBs als Mainstream viel zu teuer zu produzieren sind.

Ronny145
2005-06-18, 15:11:14
Desto schneller die Grafikkarte, desto höher die Wahrscheinlichkeit ans CPU-limit zu kommen. Oder siehst du das etwa anders?! :|


Stimmt. Die Frage ist ob die 2,6 Ghz limitieren. Ich denke nicht. Mit der 6800Ultra sieht das so aus:

2,2 Ghz 5552 Punkte
1,6 Ghz 5368 Punkte
1,4 Ghz 5152 Punkte
1,2 Ghz 4687 Punkte

Erst die 1,2 Ghz fangen an auf einer 6800 Ultra sichtbar zu limitieren. Das wird sich mit dem G70 nach oben verschieben. Aber nicht so, dass 2,8 Ghz auf einmal limitieren.

Coda
2005-06-18, 15:17:10
Es geht ja auch um G70 SLI.

SKYNET
2005-06-18, 15:17:50
Ein FX57 limitiert auf keinen Fall. Die CPU ist sehr unwichtig im 3dmark05.


nach unten hin nicht, nach oben hin schon.
und das nen FX57 zu langsam für ein G70 sli gespann ist sollte wohl klar sein, selbst nen 6800U sli gespann bringt nen FX57 gut ins schwitzen.

robbitop
2005-06-18, 15:19:39
Ach ja: Wenn die ohne Verrenkungen sogar im SLi auf 500MHz Core geht - *lecker*
Allein der Gewinn an Texelfüllrate läge ja schon beinahe auf dem Niveau der Gesamtleistung einer GF4 Ti4200.
Anscheinend ist der 110nm Prozess gar nicht mal so schlecht.
So ein Kärtchen wäre was feines für einen SSAA Fetischisten wie mich :D

Quasar
2005-06-18, 15:19:56
Schauen wir doch einfach mal, die X850 XTPEs im CrossFire skalieren - wenn dort auch bei rund 14k Schluß sein sollte, kann die CPU schuld sein - ansonsten müssen wir uns wohl einen anderen Sündenbock suchen.

Ronny145
2005-06-18, 15:21:36
Es geht ja auch um G70 SLI.

Das ist mir schon klar :rolleyes:

Xmas
2005-06-18, 15:25:56
Stimmt. Die Frage ist ob die 2,6 Ghz limitieren. Ich denke nicht. Mit der 6800Ultra sieht das so aus:

2,2 Ghz 5552 Punkte
1,6 Ghz 5368 Punkte
1,4 Ghz 5152 Punkte
1,2 Ghz 4687 Punkte

Erst die 1,2 Ghz fangen an auf einer 6800 Ultra sichtbar zu limitieren. Das wird sich mit dem G70 nach oben verschieben. Aber nicht so, dass 2,8 Ghz auf einmal limitieren.
Zwischen 1,4 und 1,6 sind immer noch 4,2% Unterschied bei 14,3% mehr Takt. Und 7800GTX SLI ist je nach Flaschenhals theoretisch 2 bis 4 mal so schnell wie eine 6800 Ultra.

SKYNET
2005-06-18, 15:26:21
Das ist mir schon klar :rolleyes:


was 3x so schnell ist wie eine kümmerliche ultra, also wird die CPU auch noch bei 3GHz limitieren, ab 3.4GHz dürfte dann die limitierung langsam wechfallen, ab 3.8GHz keine mehr vorhanden sein.

also werden macci, opps und larse sehr bald die 20k grenze knacken weil sie ne cascade auf die CPU schnallen und dann auch mit 3.8Ghz und G70 SLI @ komp cooled benchen können. ;D

Quasar
2005-06-18, 15:29:00
Zwischen 1,4 und 1,6 sind immer noch 4,2% Unterschied bei 14,3% mehr Takt. Und 7800GTX SLI ist je nach Flaschenhals theoretisch 2 bis 4 mal so schnell wie eine 6800 Ultra.
[Sehr] theoretisch müßte sich ein Faktor von ~6.45 konstruieren lassen.

-error-
2005-06-18, 15:32:21
http://www.ati-news.de/Bilder/News/Nvidia/g70_specs.jpg

Sind 1200mhz beim Speicher nicht etwas zu wenig?

dildo4u
2005-06-18, 15:34:14
http://www.ati-news.de/Bilder/News/Nvidia/g70_specs.jpg

Sind 1200mhz beim Speicher nicht etwas zu wenig?
Es handelt sich ja auch "nur" um die GT die Ultra kommt whol erst als Konter zum R520 mit 500mhz chip und 512mb 1.4Ghz GDDR3.

SKYNET
2005-06-18, 15:35:01
kommt von ATI-News, darum eh nicht zu gebrauchen wenns um NV geht.

Xmas
2005-06-18, 15:37:49
[Sehr] theoretisch müßte sich ein Faktor von ~6.45 konstruieren lassen.
Bei manchen Situationen wahrscheinlich sogar ~16 (2048² 4-Kanal FP16-Texturen). ;)
Insgesamt würde ich aber im Schnitt zwischen 3,5 und 4 ausgehen.

deekey777
2005-06-18, 15:38:16
kommt von ATI-News, darum eh nicht zu gebrauchen wenns um NV geht.

Sie zitieren meist die News anderer Seiten, sprich, es hat nichts mit ihrem Namen zu tun.

€: Wobei irgendein Wert nicht stimmt, denn die G70 "nur" 16 ROPs hat.

SKYNET
2005-06-18, 15:42:00
Sie zitieren meist die News anderer Seiten, sprich, es hat nichts mit ihrem Namen zu tun.

€: Wobei irgendein Wert nicht stimmt, denn die G70 "nur" 16 ROPs hat.


meistens, aber nicht immer. ;)

Coda
2005-06-18, 15:48:56
€: Wobei irgendein Wert nicht stimmt, denn die G70 "nur" 16 ROPs hat.Die laufen aber mit Speichertakt entsprechen also ~22 "normalen" ROPs.

Gast
2005-06-18, 15:51:43
AFAIK,G70 =GigaPixel 70,btw,The R520's yield is even lower than what 5800's got 2 years ago.
Above all are some tidbits from what I hear , there are neither false or fraud .

deekey777
2005-06-18, 15:52:39
Die laufen aber mit Speichertakt entsprechen also ~22 "normalen" ROPs.

Und das heißt, daß die Pixelfüllrate ... beträgt?

(22x430?)

DrumDub
2005-06-18, 15:55:42
Und das heißt, daß die Pixelfüllrate ... beträgt?

(22x430?) ist doch einfacher: (16x600)/1000=9,6gp/s

Quasar
2005-06-18, 15:58:02
Die laufen aber mit Speichertakt entsprechen also ~22 "normalen" ROPs.
Wie sicher bist du dir da?

...

BK-Morpheus
2005-06-18, 15:58:55
Was soll denn die neue GTX verbrauchen (sorry, ich will jetzt net alle Seiten hire durchstöbern)?

Was verbraucht eine X800XL im Vergleich dazu (damit ich mir den Unterschied besser vorstellten kann)?

Gast
2005-06-18, 15:59:48
G70 1600X1200 4AA 8AF is more or less equal to what 6800U SLI offered.
That is to say,G70 is just 6 Quad Nv40 with some Gigapixel techology.

dildo4u
2005-06-18, 16:01:12
G70 1600X1200 4AA 8AF is more or less equal to what 6800U SLI offered.
That is to say,G70 is just 6 Quad Nv40 with some Gigapixel techology.
which version GTX or Ultra?

Coda
2005-06-18, 16:04:42
Wie sicher bist du dir da?

...Absolut sicher.

Quasar
2005-06-18, 16:05:55
G70 1600X1200 4AA 8AF is more or less equal to what 6800U SLI offered.
That is definitely not correct for the majority of applications.

Quasar
2005-06-18, 16:07:55
Absolut sicher.
Wo bleibt da der Zwinkersmiley?

ksrythx ;(

Gast
2005-06-18, 16:14:01
which version GTX or Ultra?

3D05 6800U SLI 1600X1200 4AA 8 AF 4800
3D05 7800GTX 1600X1200 4AA 8AF 4822

http://www.pcdvd.com.tw/showthread.php?t=501343
above all are real numbers

-error-
2005-06-18, 16:18:51
Was soll denn die neue GTX verbrauchen (sorry, ich will jetzt net alle Seiten hire durchstöbern)?

Was verbraucht eine X800XL im Vergleich dazu (damit ich mir den Unterschied besser vorstellten kann)?

100Watt :biggrin:

SKYNET
2005-06-18, 16:24:22
100Watt :biggrin:


kann ich immernoch nicht glauben, schon au dem grund das es nun ein kleiner kühler ist, und nichtmehr das dual dingens. :|

dildo4u
2005-06-18, 16:30:30
3D05 6800U SLI 1600X1200 4AA 8 AF 4800
3D05 7800GTX 1600X1200 4AA 8AF 4822

http://www.pcdvd.com.tw/showthread.php?t=501343
above all are real numbers
Pretty fast 4800 points @ 1600*1200 4XAA 8XAF Looking good :eek:

-error-
2005-06-18, 16:34:11
kann ich immernoch nicht glauben, schon au dem grund das es nun ein kleiner kühler ist, und nichtmehr das dual dingens. :|

Was gibts daran nicht zu glauben? Schau dir die 6800Ulta an, verbraucht auch nicht gerade weniger, besser gesagt fast genauso viel. Die 6600GT verbraucht z.B. 55 Watt.

Quasar
2005-06-18, 16:35:06
3D05 6800U SLI 1600X1200 4AA 8 AF 4800
3D05 7800GTX 1600X1200 4AA 8AF 4822

http://www.pcdvd.com.tw/showthread.php?t=501343
above all are real numbers
4800 for a 6800u-SLi Setup sound a little measly, don't you think?

bvb12345
2005-06-18, 16:37:19
wir bräuchten jemand der kurz mal testen könnte ob die 4,8k @ 6800u sli stimmen.

dildo4u
2005-06-18, 16:37:25
4800 for a 6800u-SLi Setup sound a little measly, don't you think?
Kommt aber hin mit alten treibern sind 4300
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/sli_pruefstand/8/#abschnitt_3dmark05

mapel110
2005-06-18, 16:38:44
Kommt aber hin mit alten treibern sind 4300
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/sli_pruefstand/8/#abschnitt_3dmark05
Jup, fand die Zahl auch sehr realistisch. Guter link. :)
Ist doch eine ordentliche Steigerung. Also gibts nicht wirklich ein Bandbreitenproblem.

Quasar
2005-06-18, 16:39:08
Kommt aber hin mit alten treibern sind 4300
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/sli_pruefstand/8/#abschnitt_3dmark05
66.93...

Gast
2005-06-18, 16:41:11
Pretty fast 4800 points @ 1600*1200 4XAA 8XAF Looking good :eek:

There are some R520 tidbits to share AV8d

1.R520's yiels is even lower than what FX5800U got.
2.You will never see the large quantity R520s even before the Xmas or so.

dildo4u
2005-06-18, 16:41:24
66.93...
Hier sind die 4800 mit relativ neuen Treibern 71.98 der boost kam ja mit dem 71.84 wenn ich mich so recht erinnere.
http://www.de.tomshardware.com/graphic/20050527/vga-charts-pcie-04.html#3d_mark_2005

mapel110
2005-06-18, 16:42:08
66.93...
Soviel mehr holen da neuere Treiber nicht raus. Ohne AA/AF sind bei 1024er Auflösung seitdem ca 500 Points hinzugekommen.

Quasar
2005-06-18, 16:44:27
Dann sind die Zahlen, die ich grade im Kopf hatte, vermutlich falsch oder noch etwas zu "utopisch" - mal sehen. ;)

Trotzdem ist der 3DMark kein Indikativ für eine Mehrzahl der Applikationen. =)

Gast
2005-06-18, 16:46:12
http://bbs.gzeasy.com/index.php?showtopic=427326

从去年到现在,TSMC都在和CVD的化学湿度较劲,到今年2月左右的时候绝望了,遂决定改进多孔扩散工艺一劳永逸的解决吸湿性问题。首先,TSMC正在改进 整合LOW-K的90nm生产线,通过改变孔径来控制多孔CVD的扩散速度,以达到提高机械性能、改善吸湿性问题并最终提高产品良率的目的,如果使用老工艺的话,至少目前TSMC没有 合适的手段保证良率……
但这些带来的负面结果就是K值的提高。范围大概在0.12到0.15之间。
在ATI对改进的生产线进行验收的过程中,双方产生了分歧,TSMC希望ATI能够牺牲频率或者功耗来尽量保证良率,但ATI没有接受这个意见,而是依然坚持高频同时用低 K确保功耗范围的方案……
高频低K的R520不是一点都出不来,所以发布大概不会受太大影响,问题出在量产的时候……
90nm确实不是什么门槛,问题本身并不出在制程上而出在LOW-K的整合上。这是应才的开发和TSMC的选择问题
多孔CVD的效率和单位生产率比SOD高一大截,成本也低一大截,能提高产能对ATI来说当然有吸引力啦~
截止到1号,双方还在谈……

现在ATI和TSMC似乎谈拢了
7月中开始新工艺的流水线调试,将工艺改进铺开到所有流水线上+试运行+调试改进,40天左右,R520的最初版本将坚持低K,不使用新流水线 90天是下线加铺货的时间 光算出貨日的話,NVIDIA通常是發表後45天內會設法鋪貨,
所以以6/25發表的話,算起來是約7月底八月初以前要鋪出去;
TSMC的新工艺将不使用在最初发布的R520上
明白的,最初的R520的功耗会比成熟版本的低
另外,ATI似乎为了频率在打互连层数的主义
算上重新设计的时间,估计R5XX大量上士在圣诞节前是100%不可能的了
目前看来R520在产能和良率上还远不如5800U……所以ATI决定采用缩孔扩散提高良率,同时重新设计布局,增加2层左右的互连层 不过增加互连层意味着成本……

时程表:

2004年底:R520 tape-out
使用舊的多孔CVD參數,良率較低、但時脈較高、耗能較低。

2005年2月:TSMC放棄改善原有的多孔CVD參數,改變孔徑
良率會提高,但是會造成K值提高,耗能提高、時脈降低;

2005年5月:改變孔徑的作業完成,需要Re-tape。
ATI不接受,要求TSMC以舊有的參數生產。

要是以舊有的參數生產,目前驗證過程進行到一半的關係,
ATI預計的出貨日為8月15號;
如果ATI接受TSMC改變的參數,進行re-tape的話,
加上重新驗證的時間差,出貨日會延到9月27號左右。


Above link shows that R520 is not even close to production sample yet.
so disturbing

Coda
2005-06-18, 16:49:08
Was gibts daran nicht zu glauben? Schau dir die 6800Ulta an, verbraucht auch nicht gerade weniger, besser gesagt fast genauso viel. Die 6600GT verbraucht z.B. 55 Watt.6800 Ultra verbraucht ca. 75W, weniger als eine 5950 Ultra. Ich denke also nicht dass G70 >80W braucht.

Quasar
2005-06-18, 16:49:45
above link shows, that you have to have eastern asian font packs installed to get all the text displayed correctly and even then you won't understand a thing. =)

so please, if you think, you have 'proven' information, be so kind an let us all read them entirely.

robbitop
2005-06-18, 16:49:55
"It will be their NV30 ..."
Irgendwie geht mir der Satz nicht mehr aus dem Kopf...

Quasar
2005-06-18, 16:51:05
be careful not to hear what you might whish to hear, padawan.

Gast
2005-06-18, 17:03:01
Here you go with some translation

From last year to the present, TSMC all in competes with the CVD chemistry humidity, to this February about time has despaired, then decided the improvement porous diffusion technology got it over and done solution water absorbant question. First, TSMC is improving conformity LOW-K the 90nm production line, controls porous CVD through the change aperture the propagation rate, achieved enhances the machine capability, the improvement water absorbant question and finally enhances the product good rate goal, if uses the old craft, at least at present the TSMC inappropriate method guarantees good rate... ... But these bring the negative result is the K value enhancement. Scope probably in 0.12 to 0.15 between. Carries on the approval in ATI to the improvement production line in the process, both sides had the difference, TSMC had hoped ATI could sacrifice the frequency or the power loss guarantees as far as possible good rate, but ATI has not accepted this opinion, but was still persisted high frequency simultaneously used low K to guarantee the power loss scope the plan... ... High frequency low K R520 is not all cannot come out, therefore the issue probably cannot receive too greatly affects, the question leaves the time which produces in the quantity... ... 90nm truly not be threshold, question itself certainly in system regulation but in LOW-K conformity. This is should the only then development and the TSMC choice question porous CVD efficiency and the specific productivity compared to the SOD high is big truncation, the cost also low big truncation, can propose the high production to be able to ATI to say certainly has attraction ~ to cut off 1, both sides also was discussing... ...

Now ATI and TSMC discussed as if gathered together in July to start the new craft assembly line debugging, unfolded the craft improvement to all assembly lines in + tries to move + the debugging improvement, about 40 days, the R520 initial edition persisted low K, did not use the new assembly line 90 days will be the winding 加铺 goods time light figures out □the date □, NVIDIA usually was □the table latter 45 days □□□law □□, therefore by 6,/25 □table □, calculated □was □at the end of July at the beginning of August before wanted □to exit; The TSMC new craft will not use on R520 which issued at first clear, the initial R520 power loss will be able compared to the mature edition low other, ATI in will hit as if for the frequency interlocks the layer principle to calculate the redesign the time, estimated the R5XX massive master sergeants before the Christmas day will be 100% not impossible at present to look like R520 in will produce can with be good rate on also far is inferior to 5800U... ... Therefore the ATI decision uses the shrink hole proliferation to enhance good rate, simultaneously the redesign layout, increases 2 about to interlock the level only to increase interlocks the level to mean cost... ...


Time interval table: 2004 year's end: R520 tape-out use □porous CVD □□, good rate □low, but □□□high, consumes energy □is low. In February, 2005: TSMC puts □improvement original porous CVD □□, changes □Kong?liang to lead □the enhancement, but □creates the K value to enhance, consumes energy the enhancement, □□reduces; In May, 2005: Changes □Kong? to do □completes, needs Re-tape. ATI does not accept, requests TSMC to □to have □□lives □. If to □has □□lives □, at present □□□Cheng?xing to one half □□, ATI □□□date □in August 15 □; If ATI accepts TSMC changes □□□, □line of re-tape □, in addition again □□□□the difference, leaves □the date □to extend to September 27 □about.

-error-
2005-06-18, 17:05:03
6800 Ultra verbraucht ca. 75W, weniger als eine 5950 Ultra. Ich denke also nicht dass G70 >80W braucht.

Es sind 85 Watt.

http://www.pcwelt.de/forum/archive/index.php/t-2907.html

SKYNET
2005-06-18, 17:06:25
Was gibts daran nicht zu glauben? Schau dir die 6800Ulta an, verbraucht auch nicht gerade weniger, besser gesagt fast genauso viel. Die 6600GT verbraucht z.B. 55 Watt.


why? ne 6800U frisst "nur" ca. 76W

Coda
2005-06-18, 17:10:05
Es sind 85 Watt.

http://www.pcwelt.de/forum/archive/index.php/t-2907.htmlhttp://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_10.html
Und XBit traue ich sehr viel eher als PC Welt, sorry.

-error-
2005-06-18, 17:10:58
why? ne 6800U frisst "nur" ca. 76W

Es sind 85 Watt, siehe oben. 75 Watt bei über 220 mio Transistoren, ein Traum ;D

-error-
2005-06-18, 17:12:15
http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_10.html
Und XBit traue ich sehr viel eher als PC Welt, sorry.

Glaube ich wiederum nicht, weil eine 6600GT 55 Watt vebraucht und eine 6800GT genauso viel? Ja ne, ist klar ;)

SKYNET
2005-06-18, 17:20:38
Es sind 85 Watt, siehe oben. 75 Watt bei über 220 mio Transistoren, ein Traum ;D


glaub was du willst, ich weiß es. :usweet:

Quasar
2005-06-18, 17:23:01
Glaube ich wiederum nicht, weil eine 6600GT 55 Watt vebraucht und eine 6800GT genauso viel? Ja ne, ist klar ;)
Schwer zu vergleichen, da die eine in 0,13µ bei IBM und die andere in 0,11µ bei TSMC hergestellt wurde - erstere ist das "mittlere" Modell, das schon keine ganz so hohe Spannung, wie das Topmodell hatte und letztere ist in seiner Reihe das Topmodell mit vermutlich entsprechenden Werten für vCore, die ja in die Verlustleistung quadratisch mit eingeht.

TiggleD
2005-06-18, 17:30:33
Ich mische mich ungern ein, aber eine 6800 GT hat, im laufenden THG-Stresstest, live unter Last 90 W verbraten. Die Ultra würde gewiss nicht weniger ziehen.

Gast
2005-06-18, 17:35:12
GF7800GTX is a hungry monster
http://pic.digital-info.net/autumn/7800GTX/Preview/017.jpg
In standard load circumstance, 169W

http://pic.digital-info.net/autumn/7800GTX/Preview/018.jpg
Full load, 291W

dildo4u
2005-06-18, 17:38:02
GF7800GTX is a hungry monster
http://pic.digital-info.net/autumn/7800GTX/Preview/017.jpg
In standard load circumstance, 169W

http://pic.digital-info.net/autumn/7800GTX/Preview/018.jpg
Full load, 291W
Full system.

Gast
2005-06-18, 17:39:37
sorry for misleading

Quasar
2005-06-18, 17:41:43
Without comparison quite worthless. Same system, different display adapter...

Kranky
2005-06-18, 18:19:44
Full system.

Krank schon allein deshalb werde ich mir denn Konkurenten kaufen.

SKYNET
2005-06-18, 18:35:39
Krank schon allein deshalb werde ich mir denn Konkurenten kaufen.


du glaubst doch nicht das die r520 weniger ziehn wird als ne g70. :upara:

FGB
2005-06-18, 18:37:54
angesichts der leistung des g70 geht die verlustleistung schon in ordnung. ist halt die frage ob die shrinking auf dauer ne lösung ist. der weisheit letzter schluss ist der chip mit sicherheit nicht. irgendwann muss einfach eine innovation her, mehr leistung bei weniger verlustleistung.

Fabi

mapel110
2005-06-18, 19:09:35
angesichts der leistung des g70 geht die verlustleistung schon in ordnung. ist halt die frage ob die shrinking auf dauer ne lösung ist. der weisheit letzter schluss ist der chip mit sicherheit nicht. irgendwann muss einfach eine innovation her, mehr leistung bei weniger verlustleistung.

Fabi
Das shrinken soll noch gut 10-15 Jahre weitergehen.

Kranky
2005-06-18, 19:10:17
du glaubst doch nicht das die r520 weniger ziehn wird als ne g70. :upara:

Glaubst du es ?
ich glaube schon das Ati mall wieder das klügere Design haben wird.

SKYNET
2005-06-18, 19:15:59
Glaubst du es ?
ich glaube schon das Ati mall wieder das klügere Design haben wird.


ich nicht...

p.s. hatte und habe selber ATI's in dem/n rechner/n :P

r3ptil3
2005-06-18, 19:33:05
Erste Geforce 7800 GTX von Pixelview in der Schweiz gelistet!! -> http://www.toppreise.ch/prod_63731.html


Memory Data Rate
1400MHz

3d
2005-06-18, 19:37:57
R520 soll ja die X technologie haben (weiß nicht genau wie sich das nennt)
wurde das schon hier erwähnt?

SKYNET
2005-06-18, 19:40:04
gehört wohl kaum in den thread hier. ;)

r3ptil3
2005-06-18, 19:40:36
R520 soll ja die X technologie haben (weiß nicht genau wie sich das nennt)
wurde das schon hier erwähnt?

Das kannst du im R520 Thread posten

Winter[Raven]
2005-06-18, 19:46:51
R520 soll ja die X technologie haben (weiß nicht genau wie sich das nennt)
wurde das schon hier erwähnt?

R515 nix mit R520!

//EDIT:

Nun, wo wir bei "klugeren" Designs sind, wie war das nochmal NV40 Ultra bei 222Mio Transis sehr vergleichbar mit einem R420 @160Mio Chip... meine damit die Stromaufnahme *gg*

Nun, ich weiß jetzt wirlklich nicht ob ATI wirklich das "klugere" sich auf die Nase binden darf! :P

deekey777
2005-06-18, 19:46:59
ich nicht...

p.s. hatte und habe selber ATI's in dem/n rechner/n :P

Gut zu wissen...

Die X-Technologie wurde zunächst für ein 110nm Produkt von ATi angekündigt, der R520 soll ein 90nm Chip werden.

Gast
2005-06-18, 19:56:19
ich nicht...

p.s. hatte und habe selber ATI's in dem/n rechner/n :P

du liegst halt falsch

Gast
2005-06-18, 19:58:39
"It will be their NV30 ..."
Irgendwie geht mir der Satz nicht mehr aus dem Kopf...
mir auch nicht. So langsam mach ich mir um ATIs Konkurenzfähigkeit in den nächsten Monaten Sorgen.
Das wäre echt bitter und würde ATI verdammt viel kosten.

Sie sehen jetzt schon nicht gut und vor allem ganz schön angeschlagen aus und das obwohl sie die "noch" schnellste Singlekarte haben. Trozdem bluten sie momentan richtig derb.
Wenn der R520 sich richtig fett verspätet, dann hat Nvidia erstmal die totale Alleinherrschaft und vor allem hat Nvidia genügend Zeit adäquat zu antworten, da mit jedem Monat ihr 0.09 Refresh näher rückt.

Ich will ja nicht unken aber der R520 ist bis heute nicht in der Massenproduktion, sonst hätten wir davon was gehört und das riecht dann auch sehr stark nach frühestens September / Oktober mit Produkten im Laden und wenns richtig blöd kommt, dann in halbwegs vernünftiger Verfügbarkeit erst zu Weihnachten.
Das wäre aber ganz ganz schlecht.

FGB
2005-06-18, 20:34:25
Das shrinken soll noch gut 10-15 Jahre weitergehen.

ok, das shrinken geht weiter und ist bis zu ner bestimmten stelle auch sinnvoll, bringt aber auch nachteile mit sich wie z.b eine größere hitzeentwicklung pro quadratmillimeter. das ist eben die normale evolution.

was der graka markt generell braucht ist eine revolution in form von einer massiven reduktion der verlustleistung..

just my thoughts..

Fabi

Gast
2005-06-18, 20:41:11
weiß jemand wann die agp variante kaufbar sein soll ?

FGB
2005-06-18, 20:44:15
ich geh mal von nen paar wochen nach dem release aus, hoffentlich nicht so rar gesäht wie die 6k serie..

Fabi

Gast
2005-06-18, 20:45:24
ich geh mal von nen paar wochen nach dem release aus, hoffentlich nicht so rar gesäht wie die 6k serie..

Fabi

hm 1 monat wäre ja "noch" ok :/

r3ptil3
2005-06-18, 21:30:55
mir auch nicht. So langsam mach ich mir um ATIs Konkurenzfähigkeit in den nächsten Monaten Sorgen.
Das wäre echt bitter und würde ATI verdammt viel kosten.

Sie sehen jetzt schon nicht gut und vor allem ganz schön angeschlagen aus und das obwohl sie die "noch" schnellste Singlekarte haben. Trozdem bluten sie momentan richtig derb.
Wenn der R520 sich richtig fett verspätet, dann hat Nvidia erstmal die totale Alleinherrschaft und vor allem hat Nvidia genügend Zeit adäquat zu antworten, da mit jedem Monat ihr 0.09 Refresh näher rückt.

Ich will ja nicht unken aber der R520 ist bis heute nicht in der Massenproduktion, sonst hätten wir davon was gehört und das riecht dann auch sehr stark nach frühestens September / Oktober mit Produkten im Laden und wenns richtig blöd kommt, dann in halbwegs vernünftiger Verfügbarkeit erst zu Weihnachten.
Das wäre aber ganz ganz schlecht.

Also übertreiben muss man es auch wieder nicht spätestens Ende August sind SICHER erste R520 Karten im Handel erhältlich! Bei der Geforce 7800 hörte man auch nichts von Massenporduktion und siehe jetzt auf einmal wird berichtet das erste Geforce 7800 schon diesen Monate den Markt erreichen! Vielleicht überrascht ATi und kann schon Ende Juli wenige R520 Karten auf den Markt bringen!

-error-
2005-06-18, 21:37:15
du glaubst doch nicht das die r520 weniger ziehn wird als ne g70. :upara:

0.9µ. Die ATIs waren meistens immer weniger hunrig. Auch wenn die X700Pro geringer getaktet ist, so verbraucht diese nur 35Watt, die 6600GT 55 Watt. Mit 256MB verbraucht die X700Pro nur etwas über 40 Watt.

deekey777
2005-06-18, 21:39:38
0.9µ. Die ATIs waren meistens immer weniger hunrig. Auch wenn die X700Pro geringer getaktet ist, so verbraucht diese nur 35Watt, die 6600GT 55 Watt. Mit 256MB verbraucht die X700Pro nur etwas über 40 Watt.

90nm+low-k

Gast
2005-06-18, 21:41:02
0.9µ. Die ATIs waren meistens immer weniger hunrig. Auch wenn die X700Pro geringer getaktet ist, so verbraucht diese nur 35Watt, die 6600GT 55 Watt. Mit 256MB verbraucht die X700Pro nur etwas über 40 Watt.

bei 0,9µm wäre der chip bestimmt 20cm² groß, also sehr leicht zu kühlen :D

mit 0,09µm bzw. 90nm schaut es schon besser aus :D

Gast
2005-06-18, 21:42:04
90nm+low-k

trotz low-k (welches beim nv40 fehlt) ist der stromverbrauch der top-karten nahezu identisch.

skivi
2005-06-18, 21:45:31
Also übertreiben muss man es auch wieder nicht spätestens Ende August sind SICHER erste R520 Karten im Handel erhältlich!

Ende August? Wir haben jetzt schon mitte Juni und es gab noch nicht mal einen Launch, frühestens im Herbst wirst du eine Next gen Grafikkarte kaufen können vorher nicht.

r3ptil3
2005-06-18, 21:52:47
Ende August? Wir haben jetzt schon mitte Juni und es gab noch nicht mal einen Launch, frühestens im Herbst wirst du eine Next gen Grafikkarte kaufen können vorher nicht.

Falls du es nicht mitbekommen schon mehrere Händler behaupten Geforce 7800 GTX Karten am 23. dieses Monats liefern zu können!

skivi
2005-06-18, 21:59:16
Die wurden ja auch wieder aus dem Sortiment genommen, oder kannst du mir noch einen online Händler zeigen der sie noch anbietet?

r3ptil3
2005-06-18, 22:00:15
Die wurden ja auch wieder aus dem Sortiment genommen, oder kannst du mir noch einen online Händler zeigen der sie noch anbietet?

Ja kann ich -> http://www.funcomputer.ch/default.php?page=shop&tp=true&artnr=30501&PHPSESSID=cfb360a4741b85d48b012cdc775db8f0

"Voraussichtlicher Liefertermin:
· gemäss Hersteller ab ca. 23.06.2005 verfügbar "

skivi
2005-06-18, 22:01:47
omg 1000 SFR. :eek:

r3ptil3
2005-06-18, 22:02:46
omg 1000 SFR. :eek:

Oh genau in der letzten sekunde die "100.-CHF" verbessert ok damit meinst du die Karte

Das ist am Anfang immer so letztes Jahr gleich, da war am Anfang die 6800 Ultra auch so über 900.- CHF aber sobald mehrere Händler die Karte anbieten geht der Preis nach unten.

skivi
2005-06-18, 22:04:23
Was meinst du mit 100.-CHF?

Die Karte kostet da 949.-CHF

Nach dem abschicken, hab ichs schon editiert ;)

Hellfire-Torrod
2005-06-18, 22:05:07
In den News wird ja erwähnt, das es unwarscheinlich ist, das die Hersteller schon mit chips ausgestatten sind, da es sonst schon früher zu leaks gekommen wäre. Wie sieht es aber aus, wenn man ausgewählte händler wie z.b PNY und XFX schon beliefert hat, da sie mit diesen herstellern aber sehr eng zusammen arbeiten ist es aber noch zu keinem leak gekommen.
Das würde bedeuten das die wichtigsten Händler schon die lager voll habe und nur auf den 23. warten um die händler zu versorgen

Gast
2005-06-18, 22:22:03
0.9µ. Die ATIs waren meistens immer weniger hunrig. Auch wenn die X700Pro geringer getaktet ist, so verbraucht diese nur 35Watt, die 6600GT 55 Watt. Mit 256MB verbraucht die X700Pro nur etwas über 40 Watt.

Die Rechnungs geht nicht auf, weil das Gegenstück zur GT die X700XT mit ihrem höheren Takt von 475 MHZ nicht zurechtkam.
Enormer Stormverbrauch und irre Abwärme resultierten in ganz schlechten Yields, so dass ATI das Produkt streichen und damit Nvidia den Platz alleine überlassen musste.
Du darfst auch nicht vergessen, dass Nvidia ne ganze Menge mehr Logik bei der aktuellen Generation mitgeschleppt hat als ATI.
Bezieht man das mit ein - also Transistorcount - und das erreichte Ergebnis, dann muss ich sagen sieht ATIs Bilanz was Abwärme und Leistungshunger angeht bei weitem nicht gut aus und schon gar nicht besser als bei Nvidia. Ich würde sogar noch einen Schritt weitergehen und sagen, dass Nvidia sowohl 0.13 als auch 0.11 besser im Griff hatte. Bei 0.11 war es ja aus o.g. Gründen sehr deutlich und bei 0.13 hatten sie einfach eine bessere Lieferbarkeit und das alles wie gesagt trotz deutlich mehr Technik bzw. Chiplogik.

r3ptil3
2005-06-18, 22:31:22
Die Rechnungs geht nicht auf, weil das Gegenstück zur GT die X700XT mit ihrem höheren Takt von 475 MHZ nicht zurechtkam.
Enormer Stormverbrauch und irre Abwärme resultierten in ganz schlechten Yields, so dass ATI das Produkt streichen und damit Nvidia den Platz alleine überlassen musste.

Falsch, die X700 XT wurde nicht gestrichen weil sie mit dem hohen Takt nicht auskam sondern weil andere Produkte (von ATI natürlich) fast die gleiche Leistung bringen (X800 - X800 SE) beim gleichen Preis.

Hellfire-Torrod
2005-06-18, 22:37:39
... weil andere Produkte (von ATI natürlich) fast die gleiche Leistung bringen (X800 - X800 SE) beim gleichen Preis.

Müsste das ATI nicht schon aufgefallen sein, bevor sie den X700 rausbrachten/entwickelten ?

r3ptil3
2005-06-18, 22:57:32
Müsste das ATI nicht schon aufgefallen sein, bevor sie den X700 rausbrachten/entwickelten ?
¨
:D , frag doch mal bei ATi nach...

Nur bin ich mir 100% sicher das ATI genau diese Worte gesagt hat wegen der gecancelten X700 XT.

Quasar
2005-06-18, 23:26:40
Falsch, die X700 XT wurde nicht gestrichen weil sie mit dem hohen Takt nicht auskam sondern weil andere Produkte (von ATI natürlich) fast die gleiche Leistung bringen (X800 - X800 SE) beim gleichen Preis.
Hältst du ATi wirklich für so bescheuert?

Wenn sie dieselbe Leistung mit der X700 hinbekommen hätten, würden sie die produzieren - der Die ist schließlich kleiner und wirft ergo höheren Gewinn ab.

r3ptil3
2005-06-18, 23:46:10
Hältst du ATi wirklich für so bescheuert?

Wenn sie dieselbe Leistung mit der X700 hinbekommen hätten, würden sie die produzieren - der Die ist schließlich kleiner und wirft ergo höheren Gewinn ab.

Ich halte ATI nicht für bescheuert. Nur bin ich mir sicher das ATi gesagt hat das die X700 XT gestrichen wird weil schon andere Grafikkarten in diesem Berreich mit dieser Leistung und Preis geben wird und zwar die X800! Werde gleich mal diese News suchen...

http://www.heise.de/newsticker/meldung/54148

Quasar
2005-06-18, 23:59:58
Die News klingt hinten und vorn nach Ausrede.

Gleicher Preis beim Kunden -ja. Aber zu welchem Zugeständnis an die Marge (siehe die letzen Quartalsergebnisse)?

Ausbeute an hohen Taktraten - ja und? Die Chips, die die Taktrate nicht schaffen, werden eben X700 Pro oder X700er.

Nö, sie haben schlicht und einfach gemerkt, daß sie ohne Taktratenvorteil ggü. der nV43 nur noch in HL2 vorne liegen würden und das Ding dann keiner kaufen würde.
Mehr Takt war anscheinend auch nicht in Stückzahlen zu machen, ergo wurde das Ding abgekündigt, nachdem es in einigen Launch-Previews noch die X700-Reihe ggü. der 6600 retten musste.


edit:
Und ja, es wäre bescheuert, wenn man ein Produkt, welches angeblich dieselbe Leistung und denselben Endpreis erzielen würde, absichtlich teurer herstellen würde, als es nötig ist (also X800- statt X700XT-Chips benutzt).

robbitop
2005-06-19, 00:28:48
be careful not to hear what you might whish to hear, padawan.
Meinst du mich?
Ich wünsche mir garantiert nicht, dass R520 ein Desaster wird. Starke Konkurrenz belebt das Geschäft. Nur ziehe ich es in Erwägung ;)

SKYNET
2005-06-19, 00:40:40
Meinst du mich?
Ich wünsche mir garantiert nicht, dass R520 ein Desaster wird. Starke Konkurrenz belebt das Geschäft. Nur ziehe ich es in Erwägung ;)


och, sone nummer wie NV mit dem NV30 hatte würde ATI ganz gut tun, würden sie mal wieder vom hohen ross runter kommen. ;)

Gast
2005-06-19, 00:55:03
Tja nvidia hat die Features, ATi den speed ;)

-error-
2005-06-19, 01:03:07
och, sone nummer wie NV mit dem NV30 hatte würde ATI ganz gut tun, würden sie mal wieder vom hohen ross runter kommen. ;)

;D

Wer hier vor dem hohen Ross mal runterkommen soll ist nVidia ;) Schonmal die primitive Aufmachung seitens nVidia gesehen, wenn diese bei einer Präsentation ATI schlechtreden?

Von solchen Heinos kaufe ich bestimmt keine Grafikkarte ;) Zu schade dass mein nForce4 von denen kommt.

SKYNET
2005-06-19, 01:04:46
;D

Wer hier vor dem hohen Ross mal runterkommen soll ist nVidia ;) Schonmal die primitive Aufmachung seitens nVidia gesehen, wenn diese bei einer Präsentation ATI schlechtreden?

Von solchen Heinos kaufe ich bestimmt keine Grafikkarte ;) Zu schade dass mein nForce4 von denen kommt.


*hust* ATI ist da nicht besser, in der beziehung tun sich nämlich BEIDE NIX!

und ich kaufe von denen die graka die die bessere BQ bieten, seit NV40/R420 ist das NV. =)

r3ptil3
2005-06-19, 01:06:15
Nur weil ATI den R520 später vorstellt als Nvidia ihre 7800 muss das ja nicht geich heissen das ATI Probleme hat.
Vielleicht stellt ATi den R520 nur später vor weil sie damit erreichen wollen das der R520 grossflächig verfügbar ist, könnte doch immerhin sein, es muss nicht jede kleine Verspätung auf Probleme hindeuten.

Winter[Raven]
2005-06-19, 01:24:06
@ R3ptile

Nehm bitte deine PRO-ATI Brille ab, ATI ist doch nicht so blöde ein Produkt zurückzuhalten um es großflächig dann anzubitten, wenn die Konkurrenz in wenigen Tagen Ihr High-End Sigment vorstellt, den ganzen Ruhm erntet ...

Aus den letzen Seiten konnte man eindeutig rauslesen das der G70:

a) in Shaderlästigen Spielen schneller sein wird als R520
b) ATI selber unzufrieden ist mit dem R520
c) Die Gamedevs sich wohl auf G70 geschmießen haben
d) Es irgendwelchen Grund für die Verspätung gibt schlechte Yields(?) und nicht die warterei auf die flächendeckende Verfügbarkeit.

@ Desire

Nun, sagen wir so: Nvidia hat Ihre Aufgaben seit der NV4x Serie gemacht, und haben sich nicht auf den Lobbeeren ausgeruht und darauf gehofft die Konkurrenz würde schlaffen.

Nvidia hat es geschafft einen 222Mio Chip mit DX9c Support zu designen der Technik als auch Performance bietet. Deswegen sollte man es einsehen, dass Nvidian derzeit zurecht auf dem hoheren Ross bzw. Hebel sitz, Sie haben alle Zeit der Welt, es ist ATI die derzeit Technik @ Performance nachlegen müssen...

r3ptil3
2005-06-19, 01:38:20
']@ R3ptile

Nehm bitte deine PRO-ATI Brille ab, ATI ist doch nicht so blöde ein Produkt zurückzuhalten um es großflächig dann anzubitten, wenn die Konkurrenz in wenigen Tagen Ihr High-End Sigment vorstellt, den ganzen Ruhm erntet ...

Aus den letzen Seiten konnte man eindeutig rauslesen das der G70:

a) in Shaderlästigen Spielen schneller sein wird als R520
b) ATI selber unzufrieden ist mit dem R520
c) Die Gamedevs sich wohl auf G70 geschmießen haben
d) Es irgendwelchen Grund für die Verspätung gibt schlechte Yields(?) und nicht die warterei auf die flächendeckende Verfügbarkeit....

Hmm... Sobald man also was gutes denkt über ATI iegt man schon schlecht oder wie?
Links wären gut vorallem einer der zeigt das ATI selber unzufrieden ist mit dem R520.

-error-
2005-06-19, 01:41:53
Ich finde es erstaunlich, dass ATI den Speed den nVidia mit der Architektur, die ja noch auf R300-Basis beruht, mitgehen kann. Dafür muss ATI die GPU halt immer höher takten als nVidia um auf den gleichen Speed zu kommen.

Die schnellste Karte ist ganz klar die X850XT PE. Der NV40 ist natürlich technologisch weiterentwickelt, aber man kann nicht sagen, dass nVidia die schnelleren Karten hat, man kann schon garnicht von einer Ünerlegenheit reden, so wie es bei der R300 der Fall war.

Was man jedoch sagen kann, ist, dass der NV40 die effizientere GPU ist, die bei gleicher MHZ-Leistung schneller als der R420 ist.

Aber wenn ATI halt diesen höher takten muss und nVidia das eben nicht kann und dabei der gleiche Speed herrauskommt, ist es doch völlig egal, zumal der R420 nicht zu heiss dabei wird und eine Verlustleistung hat, mit der man mehr als gut leben kann.

Gast
2005-06-19, 01:52:11
']Aus den letzen Seiten konnte man eindeutig rauslesen das der G70:

a) in Shaderlästigen Spielen schneller sein wird als R520
b) ATI selber unzufrieden ist mit dem R520
c) Die Gamedevs sich wohl auf G70 geschmießen haben
d) Es irgendwelchen Grund für die Verspätung gibt schlechte Yields(?) und nicht die warterei auf die flächendeckende Verfügbarkeit.Nein, man konnte nur rauslesen, dass einige hier vermuten, dass a)-d).
Kann sein, dass der G70 tatsächlich viel zu wenig bietet, um sich von der x800 abzusetzen, außer eben einen exorbitanten Verkaufspreis.
ATi hat gut lachen, dass angesichts des desaströsen Preis-Leistungs-Verhältnis nicht jeder auf den G70-Zug springen wird, und wenn dann der R520 kommt, lässt er den G70 ohnehin vollends im Regen stehen.
Der R300 war seinerzeit fast 3x (dreimal!) so schnell wie das damals aktuelle Flagschiff von NV.
Die Geschichte wiederholt sich manchmal...

r3ptil3
2005-06-19, 02:03:01
Nein, man konnte nur rauslesen, dass einige hier vermuten, dass a)-d).
Kann sein, dass der G70 tatsächlich viel zu wenig bietet, um sich von der x800 abzusetzen, außer eben einen exorbitanten Verkaufspreis.
ATi hat gut lachen, dass angesichts des desaströsen Preis-Leistungs-Verhältnis nicht jeder auf den G70-Zug springen wird, und wenn dann der R520 kommt, lässt er den G70 ohnehin vollends im Regen stehen.
Der R300 war seinerzeit fast 3x (dreimal!) so schnell wie das damals aktuelle Flagschiff von NV.
Die Geschichte wiederholt sich manchmal...

Also beim G70 würde ich noch auf offizielle Benchmarks warten denn 7800 sind einfach zu wenig für einen 24 Pipelines Chip (deren Pipelines ja 50% effizienter als beim Vorgänger sein sollen) in wenigen Tagen ist sowieso die Vorstellung dann wird sich zeigen was der G70 leistet!

-error-
2005-06-19, 02:23:07
Wartet es ab, der R520 kommt mit 24 extremen Pipes. Wie kommt ihr auch überhaupt darauf, dass der G70 schneller, oder gleichschnell wie der R520 sein kann?

Der G70 ist bloß ein umfangreicheres Refresh, der R520 eine komplette Neuentwicklung.

Alles Andere wäre eine bitte Erntäuschung, aber ATI wird uns nicht entäuschen ;)

SKYNET
2005-06-19, 02:26:33
der R520 eine komplette Neuentwicklung.


sagt dir welche glaskugel? :|

Hakim
2005-06-19, 02:45:01
ich fand es schon immer lustig wie manche leute sich einfach auf eine marke festlegen und die konkurrenz einfach schlecht reden. Ich persönlich werde mir die Karte kaufen, die den besten Preis/leistungsverhältniss hat (wie bei CPUs). Da ist mir eigentlich ziemlich egal ob ATI oder nvidia drauf steht (treibermäßig sind nämlich beide ziemlich gut derzeit).

Einerseits verständlich, da wenn man sich für 500 oken eine graka kaufen tut, will man net höhren und glauben das es fürs gleiche Geld was besseres gibt :D !

BK-Morpheus
2005-06-19, 02:52:28
Ich mache das auch vom P/L Verhältnis abhängig und vom Stromhunger.
Meine letzten beiden waren ne ATI, aber ich hätte auch ne 6600GT genommen, wenn es zu dem Zeitpunkt meines Kaufes nicht viele Probs mit defekten 6600GTs gegeben hätte.

r3ptil3
2005-06-19, 02:58:05
Wartet es ab, der R520 kommt mit 24 extremen Pipes. Wie kommt ihr auch überhaupt darauf, dass der G70 schneller, oder gleichschnell wie der R520 sein kann?

Der G70 ist bloß ein umfangreicheres Refresh, der R520 eine komplette Neuentwicklung.

Alles Andere wäre eine bitte Erntäuschung, aber ATI wird uns nicht entäuschen ;)

Das wären dann 16 Pixel Pipelines und 8 Vertex Shader jedoch wären dann eben die Vertex Shader auch Pixel Shader kompatibel!?

Und beim G70 reicht ein Refresh eigentlich vollkommen aus da die Architekur des NV40 eigentlich sehr gut war/ist.

Tomcat70
2005-06-19, 06:54:01
']
Aus den letzen Seiten konnte man eindeutig rauslesen das der G70:

a) in Shaderlästigen Spielen schneller sein wird als R520
b) ATI selber unzufrieden ist mit dem R520
c) Die Gamedevs sich wohl auf G70 geschmießen haben
d) Es irgendwelchen Grund für die Verspätung gibt schlechte Yields(?) und nicht die warterei auf die flächendeckende Verfügbarkeit.



also man konnte das "eindeutig" rauslesen.......?? keine ahnung was du gelesen hast, aber das sind wohl doch mehr deine anti-ati wunschträume in gesammelter form als irgendwelche "eindeutigen" tatsachen.

bevor du noch mehr unlautere spekus hier als indirekte tatsachen verkaufst, nimm lieber du mal selber deine brille ab.

Gast
2005-06-19, 07:53:58
R520's MC is 64bitX2+128bit, it is so disturbing

Gast
2005-06-19, 08:48:20
Warum ATI sich verspätet?
Weil es den passenden Speicher noch nicht gibt, um die Leistung des R520 auszunutzen.

Quasar
2005-06-19, 09:36:38
Die schnellste Karte ist ganz klar die X850XT PE. Der NV40 ist natürlich technologisch weiterentwickelt, aber man kann nicht sagen, dass nVidia die schnelleren Karten hat, man kann schon garnicht von einer Ünerlegenheit reden, so wie es bei der R300 der Fall war.

Das sehe ich auch so. Allerdings ist die Performance der nV4x sehr konkurrenzfähig - sie wird nicht zertrampelt, wie es teilweise noch beim nV3x der Fall war.
Wenn jetzt G70 kommt und die Speed hinlegt, die hier i.A. erwartet wird, hat der R520 es einfach doppelt schwer:
Er muss technologisch gleichziehen und speedmäßig eben auch - eines von beiden zu erreichen stellt mit Sicherheit kein Problem dar - siehe R420/480. Aber beides auf einmal könnte in dem Sinnspruch "Allen Menschen recht getan ist eine Kunst, die niemand kann" resultieren. Wohlgemerkt, 'könnte'.

Schwieriger als zu R420-Zeiten wird's für ATi auf jeden Fall werden, weil die Vorarbeit für, ich nenn's mal 'Advanced Rendering Features', seit ca. einem Jahr gelegt ist und ATi selbst auch seit mind. einem Jahr die Devs auf den R520 heißgemacht hat, SM3 inkl. 'decent Performance' beim dynamic branching zu unterstützen. 'Decent Performance' muss hier im Context zumindest meinen, schneller als der nV40 zu sein.

Quasar
2005-06-19, 09:37:38
R520's MC is 64bitX2+128bit, it is so disturbing
Source? And why do find this 'disturbing'?

Sorry, sounds to me as if someone's spreading FUD.

Gast
2005-06-19, 09:39:24
http://www.beyond3d.com/forum/viewtopic.php?t=23600&start=220

Quasar
2005-06-19, 09:45:04
http://www.beyond3d.com/forum/viewtopic.php?t=23600&start=220
So, you consider this posting over at b3d to adress R520s memory controller?
2x64bit + 1x128bit

A little 'thin', isn't it?

Pernod
2005-06-19, 10:21:05
Here you go with some translation

From last year to the present, TSMC all in competes with the CVD chemistry humidity, to this February about time has despaired, then decided the improvement porous diffusion technology got it over and done solution water absorbant question. First, TSMC is improving conformity LOW-K the 90nm production line, controls porous CVD through the change aperture the propagation rate, achieved enhances the machine capability, the improvement water absorbant question and finally enhances the product good rate goal, if uses the old craft, at least at present the TSMC inappropriate method guarantees good rate... ... But these bring the negative result is the K value enhancement. Scope probably in 0.12 to 0.15 between. Carries on the approval in ATI to the improvement production line in the process, both sides had the difference, TSMC had hoped ATI could sacrifice the frequency or the power loss guarantees as far as possible good rate, but ATI has not accepted this opinion, but was still persisted high frequency simultaneously used low K to guarantee the power loss scope the plan... ... High frequency low K R520 is not all cannot come out, therefore the issue probably cannot receive too greatly affects, the question leaves the time which produces in the quantity... ... 90nm truly not be threshold, question itself certainly in system regulation but in LOW-K conformity. This is should the only then development and the TSMC choice question porous CVD efficiency and the specific productivity compared to the SOD high is big truncation, the cost also low big truncation, can propose the high production to be able to ATI to say certainly has attraction ~ to cut off 1, both sides also was discussing... ...

Now ATI and TSMC discussed as if gathered together in July to start the new craft assembly line debugging, unfolded the craft improvement to all assembly lines in + tries to move + the debugging improvement, about 40 days, the R520 initial edition persisted low K, did not use the new assembly line 90 days will be the winding 加铺 goods time light figures out □the date □, NVIDIA usually was □the table latter 45 days □□□law □□, therefore by 6,/25 □table □, calculated □was □at the end of July at the beginning of August before wanted □to exit; The TSMC new craft will not use on R520 which issued at first clear, the initial R520 power loss will be able compared to the mature edition low other, ATI in will hit as if for the frequency interlocks the layer principle to calculate the redesign the time, estimated the R5XX massive master sergeants before the Christmas day will be 100% not impossible at present to look like R520 in will produce can with be good rate on also far is inferior to 5800U... ... Therefore the ATI decision uses the shrink hole proliferation to enhance good rate, simultaneously the redesign layout, increases 2 about to interlock the level only to increase interlocks the level to mean cost... ...


Time interval table: 2004 year's end: R520 tape-out use □porous CVD □□, good rate □low, but □□□high, consumes energy □is low. In February, 2005: TSMC puts □improvement original porous CVD □□, changes □Kong?liang to lead □the enhancement, but □creates the K value to enhance, consumes energy the enhancement, □□reduces; In May, 2005: Changes □Kong? to do □completes, needs Re-tape. ATI does not accept, requests TSMC to □to have □□lives □. If to □has □□lives □, at present □□□Cheng?xing to one half □□, ATI □□□date □in August 15 □; If ATI accepts TSMC changes □□□, □line of re-tape □, in addition again □□□□the difference, leaves □the date □to extend to September 27 □about.
Übersetzungsprogramme produzieren immernoch hauptsächlich Datenmüll. Wenn man den Inhalt nicht begreift, kann man nun mal nicht richtig Übersetzen, von der Syntax ganz zu schweigen. Schade, hätte gerne gewußt was drin steht.

r3ptil3
2005-06-19, 10:24:34
Das sehe ich auch so. Allerdings ist die Performance der nV4x sehr konkurrenzfähig - sie wird nicht zertrampelt, wie es teilweise noch beim nV3x der Fall war.
Wenn jetzt G70 kommt und die Speed hinlegt, die hier i.A. erwartet wird, hat der R520 es einfach doppelt schwer:
Er muss technologisch gleichziehen und speedmäßig eben auch - eines von beiden zu erreichen stellt mit Sicherheit kein Problem dar - siehe R420/480. Aber beides auf einmal könnte in dem Sinnspruch "Allen Menschen recht getan ist eine Kunst, die niemand kann" resultieren. Wohlgemerkt, 'könnte'.

Schwieriger als zu R420-Zeiten wird's für ATi auf jeden Fall werden, weil die Vorarbeit für, ich nenn's mal 'Advanced Rendering Features', seit ca. einem Jahr gelegt ist und ATi selbst auch seit mind. einem Jahr die Devs auf den R520 heißgemacht hat, SM3 inkl. 'decent Performance' beim dynamic branching zu unterstützen. 'Decent Performance' muss hier im Context zumindest meinen, schneller als der nV40 zu sein.

Wenn aber ATI schon den R400 mit Pixel Shader Model 3.0 versehen hat dan hätten/haben sie ja mit sicherheit den weiterentwickelt da der R400 ja in sachen Leistung nicht sehr gut was also hat man sich jetzt für 16 Pixel Pipelines und 8 Vertex Shader entschieden die aber als Extreme Pipelines gelten da dann auch die Vertex Shader Pixel Shader kompatibel wären!? Oder gar 24Pixel Pipelines und 8 Vertex Shader bei denen auch die Vertex Shader Pixel Shader kompatibel sind so würden die letzten News mit "ATI R520 has 32 Pipelines" sinn machen.

Exxtreme
2005-06-19, 10:36:19
"It will be their NV30 ..."
Irgendwie geht mir der Satz nicht mehr aus dem Kopf...
Hehe, von wem stammt der Satz? ;)

Winter[Raven]
2005-06-19, 10:44:02
@ Tomcat70

Lesen zwischen den Zeilen musst du ;)

reunion
2005-06-19, 10:44:30
']
Nun, wo wir bei "klugeren" Designs sind, wie war das nochmal NV40 Ultra bei 222Mio Transis sehr vergleichbar mit einem R420 @160Mio Chip... meine damit die Stromaufnahme *gg*

Nun, ich weiß jetzt wirlklich nicht ob ATI wirklich das "klugere" sich auf die Nase binden darf! :P

Takte mal R420 auf die Frequenz von NV40.

Winter[Raven]
2005-06-19, 10:46:18
Takte mal R420 auf die Frequenz von NV40.

Nun, Low-K bringt Vorteile, Nvidia schafft es aber auch ohne, einigermaßen mitzuhalten :)

Gast
2005-06-19, 10:46:38
Falsch, die X700 XT wurde nicht gestrichen weil sie mit dem hohen Takt nicht auskam sondern weil andere Produkte (von ATI natürlich) fast die gleiche Leistung bringen (X800 - X800 SE) beim gleichen Preis.
Diese PR lügen von ATI kannst du dir schenken. Damit überzeugt man niemanden mit Sachverstand.
Vor allem gleicher Preis?
Das ich nicht lache. Zeig mir ein ATI Produkt, dass seit dem X700XT Launch verfügbar zum gleichen Preis wie die 6600GT ist und die gleiche oder bessere Leistung bietet.

Die Fakten sind hier ganz klar. ATI wollte gegen die 6600GT mit der X700XT anstinken, weil die X700pro zu schwach war und ist.
Es hat aber nicht funktioniert.
Alle Reviews damals - zumindest die meissten von den renomierten Seiten- haben von diversen Problemen mit der Karte berichtet. Abwärme, Stabilität usw.. und am Ende war die Leistung noch nichtmal besser als mit der 6600GT und das bei weniger Features.
Das war eine richtige Pleite das Produkt und eine reine Press Edition, die von ATI nur zu den Testern geschickt wurde, um Leute von der 6600GT abzuhalten.
Der Plan sah dann im zweiten Schritt vor, den Leuten das vorzugaukeln, was du gesagt hast. Leute die X700XT brauchen wir nicht mehr, ihr bekommt eine viel bessere Karte zum gleichen Preis.
Darauf warten wir alle noch heute und letztlich hat der Markt keine Lust mehr auf ATIs leere Versprechungen gehabt, was du ja bald an ATIs katastrophalem Geschäftsbericht zum laufenden Quartal ablesen kannst.

ATIs Bilanz sieht also in Sachen Leustungshunger keineswegs besser aus als Nvidia's das ist mal fakt.

Quasar
2005-06-19, 10:54:18
Wenn aber ATI schon den R400 mit Pixel Shader Model 3.0 versehen hat, dann hätten/haben sie den ja mit sicherheit weiterentwickelt, da der R400 ja in sachen Leistung nicht sehr gut war.
Also hat man sich jetzt für 16 Pixel Pipelines und 8 Vertex Shader entschieden, die aber als Extreme Pipelines gelten, da dann auch die Vertex Shader Pixel Shader kompatibel wären!?
Oder gar 24 Pixel Pipelines und 8 Vertex Shader, bei denen auch die Vertex Shader Pixel Shader kompatibel sind, so würden die letzten News mit "ATI R520 has 32 Pipelines" sinn machen.
(Sorry, ich hoffe, ich habe Syntax so richtig interpretiert, wie im angepassten Quote - Tippfehler usw. sind ja ok, aber man sollte sich schon Mühe geben, daß der Gegenüber versteht, was man sagen will. Ein Absatz, ein Komma oder mal ein Punkt wirken da Wunder.)

Den R400 haben sie ja weiterentwickelt - der Xenos-Chip in der XBox läßt grüßen.
Und wenn sie diesen in 0,09µ noch mit zusätzlichen 70M Transistoren für ein Gesamtbudget von ~300M versehen (ROPs braucht das Design ja noch), dann glaube ich kaum, daß man sehr weit über die Xenos Taktfrequenz von 500MHz hinauskommen kann. 600 MHz mögen drin sein.

Dann hätte man, vorausgesetzt, diese Spekulation haut hin, einen 300M-Transistor-Chip mit Unified Shadern, der aber weiterhin nur 16 Pixelquads bearbeiten kann und schlimmer noch - nur acht Pixel pro Takt schreibt.

So eine Architektur dürfte für aktuelle PCs deutlich zu schwach sein, da man hier nicht den Vorteil der Konsole hat, alles auf den Leib programmiert zu bekommen.

Tomcat70
2005-06-19, 10:55:18
']@ Tomcat70

Lesen zwischen den Zeilen musst du ;)

ehe, ja, wenn man Lesen kann, gelle? ;)

Quasar
2005-06-19, 10:55:34
Takte mal R420 auf die Frequenz von NV40.
Das hilft auch nicht weiter, da dann die Leistung sinkt.
Dann hätte man einen sparsameren Chip, der aber ein kleineres Featureset bietet und dazu noch i.d.R. weniger Leistung.

reunion
2005-06-19, 10:59:12
Das hilft auch nicht weiter, da dann die Leistung sinkt.
Dann hätte man einen sparsameren Chip, der aber ein kleineres Featureset bietet und dazu noch i.d.R. weniger Leistung.

Es ging mit rein um die Leistungsaufnahme; wenn man schon anfängt anhand der Transistorenanzahl zu vergleichen, sollte man auch die Taktfrequenz nicht vergessen.

r3ptil3
2005-06-19, 11:04:17
(Sorry, ich hoffe, ich habe Syntax so richtig interpretiert, wie im angepassten Quote - Tippfehler usw. sind ja ok, aber man sollte sich schon Mühe geben, daß der Gegenüber versteht, was man sagen will. Ein Absatz, ein Komma oder mal ein Punkt wirken da Wunder.).

Sorry, wirklich katastrophal!
Wird nicht mehr vorkommen.
---------------------------

Gab es eigentlich mal nähere Infos zum R400?
Das habe ich eben noch bei Google gefunden -> (Xbox 360)
ATI-Grafikchip, der dreimal schneller ist, als der kommende ATI R400 Chip für PCs (News vom 01-02-2004)

Coda
2005-06-19, 11:28:03
Glaube ich wiederum nicht, weil eine 6600GT 55 Watt vebraucht und eine 6800GT genauso viel? Ja ne, ist klar ;)http://www.xbitlabs.com/articles/video/display/geforce6600gt-oc_3.html

50W. Und das kann recht gut sein, weil sie kein low-k hat in 110nm.

Die 6800 Ultra AGP hat nur 2 Stromanschlüsse, weil sie alles über diese zieht und fast gar nichts über den AGP Slot direkt.
http://www.xbitlabs.com/misc/picture/?src=/images/video/ati-vs-nv-power/6800u_table-b.gif&1=1

Übrigens kommt der Unterschied zur 6800GT hauptsächlich dadurch dass man ineffizientere Spannungswandler hat, weil es 2 Stromanschlüsse sind.

Gast
2005-06-19, 11:30:40
Sorry, wirklich katastrophal!
Wird nicht mehr vorkommen.
---------------------------

Brauchst dich nicht zu entschuldigen. Ging ja nicht gegen dich sondern mehr gegen ATI.
Auf die bin ich zur Zeit echt sauer vor allem wegen dieser ganzen Lügerei und den Review-Editions. Das erinnert zu sehr an Nvidias Pleite mit der FX Serie.

Gast
2005-06-19, 11:33:38
Auf die bin ich zur Zeit echt sauer vor allem wegen dieser ganzen Lügerei und den Review-Editions.
Was meinst du damit?

robbitop
2005-06-19, 11:34:27
;D

Wer hier vor dem hohen Ross mal runterkommen soll ist nVidia ;) Schonmal die primitive Aufmachung seitens nVidia gesehen, wenn diese bei einer Präsentation ATI schlechtreden?

Von solchen Heinos kaufe ich bestimmt keine Grafikkarte ;) Zu schade dass mein nForce4 von denen kommt.

Findest du solche Aussprüche nicht ein wenig...disqualifizierend? :|
Die Marketingabteilungen von ATI/NV sind beide sehr ähnlich eingestellt. Drehen alles so wie's am besten passt und machen sich gegenseitig schlecht.
Das ist nichts neues.
Aber seit wann kann man eine Marketingabteilung mit einer ganzen Firma oder mit den Ingenieuren, die das Produkt geschaffen haben, gleichsetzen?
Dadurch wird ein Produkt nicht besser oder schlechter.

robbitop
2005-06-19, 11:40:45
Nun, sagen wir so: Nvidia hat Ihre Aufgaben seit der NV4x Serie gemacht, und haben sich nicht auf den Lobbeeren ausgeruht und darauf gehofft die Konkurrenz würde schlaffen.

Nvidia hat es geschafft einen 222Mio Chip mit DX9c Support zu designen der Technik als auch Performance bietet. Deswegen sollte man es einsehen, dass Nvidian derzeit zurecht auf dem hoheren Ross bzw. Hebel sitz, Sie haben alle Zeit der Welt, es ist ATI die derzeit Technik @ Performance nachlegen müssen...[/QUOTE]

ATI hat sich auch nicht auf den Loorbeeren ausgeruht. Der R400 sollte der Nachfolger des R300 sein. Das hat IMO ganz schön viel Ressourcen gefressen. Aber bei der Planung des R400 unterschätzte man eben anscheinend die Performance des NV40 und musste diesen dann canclen. So wie NV mit dem NV30. ATI wollte sich nicht so blamieren wie NV. NV würde das auch nie wieder tun (wäre NV jetzt nochmal in der NV30 Situation und wüssten wie stark R300 ca wird, so glaube ich fast, würden sie NV30 canclen und NV25 verdoppeln aka R420 und damit zwar keine starken Features bringen aber genug Performance, um mehr als konkurenzfähig zu bleiben).
NV hat aus Fehlern gelernt und ATI hat auch aus dem NV30 gelernt.
Ich fand diesen Schachzug sogar sehr clever. Man konnte recht frühzeitig ein großes Dilemma umgehen.
Weiterhin designte man R500 und R520. Sind also in weniger als 3 Jahren:
R420/R520/R500/R600 (noch in Entwicklung)/R400. Das sieht für mich nicht nach ausruhen aus. Es ist tw. einfach nur blöd gelaufen.

Zum NV40: dieser ist was die Effizienz an Transistoren relativ zu den Features und der Performance angeht eine Ingenieurskunst die ihresgleichen sucht. Erinnert mich ein wenig an R300.

Coda
2005-06-19, 11:41:51
Der G70 ist bloß ein umfangreicheres Refresh, der R520 eine komplette Neuentwicklung.Niemals. Dafür hatte ATi gar keine Zeit, seit sie beschlossen haben doch keinen R500 für den Desktop zu bringen.

Außerdem wäre der Codename dafür doch recht seltsam gewählt ;)

SKYNET
2005-06-19, 11:41:59
Takte mal R420 auf die Frequenz von NV40.



das zählt nicht, oder taktest auch nen intel runter um zu beweisen das die stomaufnahme geringer ist bei gleichem takt?

dafür ist dann nämlich die leistung extrem schlecht.

also ein apfel mit birnen vergleich! =)

robbitop
2005-06-19, 11:45:03
Ich finde es erstaunlich, dass ATI den Speed den nVidia mit der Architektur, die ja noch auf R300-Basis beruht, mitgehen kann. Dafür muss ATI die GPU halt immer höher takten als nVidia um auf den gleichen Speed zu kommen.

Die schnellste Karte ist ganz klar die X850XT PE. Der NV40 ist natürlich technologisch weiterentwickelt, aber man kann nicht sagen, dass nVidia die schnelleren Karten hat, man kann schon garnicht von einer Ünerlegenheit reden, so wie es bei der R300 der Fall war.

Was man jedoch sagen kann, ist, dass der NV40 die effizientere GPU ist, die bei gleicher MHZ-Leistung schneller als der R420 ist.

Aber wenn ATI halt diesen höher takten muss und nVidia das eben nicht kann und dabei der gleiche Speed herrauskommt, ist es doch völlig egal, zumal der R420 nicht zu heiss dabei wird und eine Verlustleistung hat, mit der man mehr als gut leben kann.
Naja R300 ist eben schon eine verdammt effiziente Architektur mit hoher pro Taktleistung. Und da R420 so schön inkomplex ist und man den lowk Vorteil hatte, konnte man NV40 in Punkto Gesamtleistung natürlich knacken.
Das ist IMO keine Kunst. Man schleppt eben viel nicht mit sich herum.
Alt muss nicht immer schlechte Performance bedeuten.
Baue dir jetzt mal zur R300 Zeit einen verdoppelten NV25 im Kopf.
Das Teil hätte ~85Mio Transistoren gekostet, 8x2bi, 4xVS, SM1.1, 256 Bit DDR, Framebufferkompression. Takt je nach Fertigungstechnik: 150nm: ~300-350MHz Refresh: 130nm: 400-500MHz. Das Design wäre zwar alt gewesen aber dennoch hätte R300 alt dagegen ausgesehen. SM2 war im Jahre 2002/03 unwichtig in Spielen. So wie es SM3 2004 und vieleicht 05 war.

Exxtreme
2005-06-19, 11:45:07
NV würde das auch nie wieder tun (wäre NV jetzt nochmal in der NV30 Situation und wüssten wie stark R300 ca wird, so glaube ich fast, würden sie NV30 canclen und NV25 verdoppeln aka R420 und damit zwar keine starken Features bringen aber genug Performance, um mehr als konkurenzfähig zu bleiben).
Naja, leistungsmässig sah der NV30 im Vergleich zum NV25 doch recht gut aus. Nur ATi verhagelte mit dem R300 die Vorstellung und der NV30 verblasste da er mit dem R300 in den für den Zocker wichtigsten Bereichen nicht mithalten konnte und auch noch 6 Monate später kam.

Coda
2005-06-19, 11:49:39
In SM 1.1-1.4 war NV30 ja auch sowas wie ein verdoppelter NV25, nur ging das unter dem ganzen SM 2.0 Hype leider unter, bzw. MS hat mit der SM 2.0 Spec einen Strich durch die Rechnung gemacht.

SKYNET
2005-06-19, 11:49:57
Naja R300 ist eben schon eine verdammt effiziente Architektur mit hoher pro Taktleistung. Und da R420 so schön inkomplex ist und man den lowk Vorteil hatte, konnte man NV40 in Punkto Gesamtleistung natürlich knacken.
Das ist IMO keine Kunst. Man schleppt eben viel nicht mit sich herum.
Alt muss nicht immer schlechte Performance bedeuten.
Baue dir jetzt mal zur R300 Zeit einen verdoppelten NV25 im Kopf.
Das Teil hätte ~85Mio Transistoren gekostet, 8x2bi, 4xVS, SM1.1, 256 Bit DDR, Framebufferkompression. Takt je nach Fertigungstechnik: 150nm: ~300-350MHz Refresh: 130nm: 400-500MHz. Das Design wäre zwar alt gewesen aber dennoch hätte R300 alt dagegen ausgesehen. SM2 war im Jahre 2002/03 unwichtig in Spielen. So wie es SM3 2004 und vieleicht 05 war.

klar hätte R300 dagegen alt ausgesehn, aber ich schätze sobald AA/AF hinzugekommen wäre wärs schon wieder aus für den NV28(?) gewesen.
und selöbst nen NV25 mit 400Mhz core hätte schon gelangt um in der raw-power die 9700pro aus einander zu nehmen.... aber wie gesagt, das AA/AF.... ;(

reunion
2005-06-19, 11:50:42
Niemals. Dafür hatte ATi gar keine Zeit, seit sie beschlossen haben doch keinen R500 für den Desktop zu bringen.



R500 sollte AFAIK niemals für das Destopsegment erscheinen.
Als man beschloss R400 zu canceln, tauchte neben R420 auch gleich der Codename R520 auf. Den nächsten Versuch die R400-Architektur in das Desktopsegment zu bringen erfolgt mit R600.


Außerdem wäre der Codename dafür doch recht seltsam gewählt


Eine komplette Neuentwicklung gibt es sowieso nicht - jeder Chip baut mehr oder weniger auf dem Vorgängermodell auf. Bei R520 musste man allerdings verhältnissmäßig viel ändern IMHO.

reunion
2005-06-19, 11:54:05
das zählt nicht, oder taktest auch nen intel runter um zu beweisen das die stomaufnahme geringer ist bei gleichem takt?

dafür ist dann nämlich die leistung extrem schlecht.

also ein apfel mit birnen vergleich! =)

Nochmal: Wenn Winter[Raven] damit anfängt, dass NV40 nur aufgrund der höheren Transistorenanzahl mehr Strom frisst, dann ist es nur gerecht auch auf die höhere Taktfrequenz von R420 hinzuweisen.

robbitop
2005-06-19, 11:54:43
Nein, man konnte nur rauslesen, dass einige hier vermuten, dass a)-d).
Kann sein, dass der G70 tatsächlich viel zu wenig bietet, um sich von der x800 abzusetzen, außer eben einen exorbitanten Verkaufspreis.
ATi hat gut lachen, dass angesichts des desaströsen Preis-Leistungs-Verhältnis nicht jeder auf den G70-Zug springen wird, und wenn dann der R520 kommt, lässt er den G70 ohnehin vollends im Regen stehen.
Der R300 war seinerzeit fast 3x (dreimal!) so schnell wie das damals aktuelle Flagschiff von NV.
Die Geschichte wiederholt sich manchmal...

Performanceverdopplung ist nur alle 2 Jahre drin. Mit 256 Bit DDR ist auch keine echte Verdopplung drin. 512 Bit DDR wären zu teuer (und sag jetzt bitte nicht, dass zu R300 niemand mit 256 Bit gerechnet hat! Das wäre gelogen. Bereits MGA P512 und 3DLabs P10 kamen Monate vorher mit 256 Bit DDR. Dieses Interface wurde damals dank BGA Package bezahlbar).
G70 ist wenn man denn AA/AF Zahlen vom 3DM05 glauben darf annähernd so schnell wie eine 6800U SLI. Beide bei 16x12 4xAA/16xAF ~4800 Pkt.
Klar ist das kein Indikator. Eine "fast-Verdopplung" wirds' nur in Füllraten oder Shaderlimitierten Szenarios geben.
R520 kann schneller sein, muss aber nicht. Selbst wenn er mehr Rohleistung hat, ist er doch durchs Speicherinterface gefangen. Ich würde was das angeht abwarten. Beide IHVs haben dieses Jahr was Performance angeht laut meinen Infos nur einen Refresh zu bieten und werden sicher wieder ähnlich performant sein.
ATI hat laut einigen Insiderinfos gravierende Probleme mit der 90nm Fertigung. Dafür gibt es mehrere Quellen: Codas Chef hat diese Info aus Taiwand, Fudo (ich weiß ich weiß...) hat diese Info, und ein Chinesisches Magazin auch und ich habe auch von ein paar anderen Quellen sowas gehört. Ob's stimmt, weiß ich natürlich nicht. Aber NV hat ganz gewiss ihre Gründe nicht auf 90nm gesprungen zu sein. Ob das wirklich so ist...
Deswegen: abwarten. :)

G70 wird wie jeder andere High End Chip ~500EUR kosten, wenn er verfügbar ist. Dank 110nm wird die Verfügbarkeit sicher ganz gut aussehen. 600MHz GDDR3 ist im Gegensatz zu 700/800MHz auch gut verfügbar. Es steht G70 im gegensatz zu NV40/R420 also nichts im Weg in Punkto verfügbarkeit.
Und dass sich das gute Stück bei bisher mehreren G70 Samples ohne andere Kühlung/VMod auf 500MHz takten lässt, erahnt dass 110nm scheinbar nicht schlecht ist.
NV40 konnte man nur mit heftigen VMODs und heftiger Kühlung auf 500MHz bringen. Trotz geringerer Komplexität.
700MHz GDDR3 wird sicher auch bald besser verfügbar und schon hätte man Raum für eine Ultra (~475-500/1400)...
Alles nur Spekulation meinerseits. ;)

robbitop
2005-06-19, 11:55:28
Wartet es ab, der R520 kommt mit 24 extremen Pipes. Wie kommt ihr auch überhaupt darauf, dass der G70 schneller, oder gleichschnell wie der R520 sein kann?

Der G70 ist bloß ein umfangreicheres Refresh, der R520 eine komplette Neuentwicklung.

Alles Andere wäre eine bitte Erntäuschung, aber ATI wird uns nicht entäuschen ;)
Bei den Projekten, die ATI nebenher zu laufen hatte? Unwahrscheinlich.

Extreme Pipes? Crack Pipes? :|

Coda
2005-06-19, 11:56:16
R500 sollte AFAIK niemals für das Destopsegment erscheinen.
Als man beschloss R400 zu canceln, tauchte neben R420 auch gleich der Codename R520 auf. Den nächsten Versuch die R400-Architektur in das Desktopsegment zu bringen erfolgt mit R600.Nun gut, oder so. Aber R520 ist trotzdem mit ziemlicher Sicherheit noch ein R300 Design, was ja bei weitem nicht schlecht sein muss.

robbitop
2005-06-19, 11:59:35
Wenn jetzt G70 kommt und die Speed hinlegt, die hier i.A. erwartet wird, hat der R520 es einfach doppelt schwer:
Er muss technologisch gleichziehen und speedmäßig eben auch - eines von beiden zu erreichen stellt mit Sicherheit kein Problem dar - siehe R420/480. Aber beides auf einmal könnte in dem Sinnspruch "Allen Menschen recht getan ist eine Kunst, die niemand kann" resultieren. Wohlgemerkt, 'könnte'.

Schwieriger als zu R420-Zeiten wird's für ATi auf jeden Fall werden, weil die Vorarbeit für, ich nenn's mal 'Advanced Rendering Features', seit ca. einem Jahr gelegt ist und ATi selbst auch seit mind. einem Jahr die Devs auf den R520 heißgemacht hat, SM3 inkl. 'decent Performance' beim dynamic branching zu unterstützen. 'Decent Performance' muss hier im Context zumindest meinen, schneller als der nV40 zu sein.
1. uah, die arme Sprache. (normalerweise ist mir das egal, aber das tut ja schon fast weh ... Klingt genauso wie bei diesem RTL Formel 1 Moderator.) Hier wird doch der Akkusativ verlangt, auch wenn anglizistische Wörter zum Einsatz kommen. Oder nicht?

2. Richtig. NV40 wäre bsw auch nicht ohne NV30 möglich gewesen. Man hatte bereits die Technologie und musste sie nur noch performant machen. ATI muss hier beides schaffen, das ist wirklich deutlich schwieriger...

robbitop
2005-06-19, 12:00:49
Übersetzungsprogramme produzieren immernoch hauptsächlich Datenmüll. Wenn man den Inhalt nicht begreift, kann man nun mal nicht richtig Übersetzen, von der Syntax ganz zu schweigen. Schade, hätte gerne gewußt was drin steht.
IMO kann man einige Inhalte gut herauslesen. So what?

robbitop
2005-06-19, 12:03:27
Wenn aber ATI schon den R400 mit Pixel Shader Model 3.0 versehen hat dan hätten/haben sie ja mit sicherheit den weiterentwickelt da der R400 ja in sachen Leistung nicht sehr gut was also hat man sich jetzt für 16 Pixel Pipelines und 8 Vertex Shader entschieden die aber als Extreme Pipelines gelten da dann auch die Vertex Shader Pixel Shader kompatibel wären!? Oder gar 24Pixel Pipelines und 8 Vertex Shader bei denen auch die Vertex Shader Pixel Shader kompatibel sind so würden die letzten News mit "ATI R520 has 32 Pipelines" sinn machen.
R500 ist die R400 Weiterentwicklung.
Extreme Pipelines ist sowieso ein Unwort welches nur aus Fehlinfos entstand.
Entweder man hat wie beim R520 "traditionelle" (also funktionell getrennte) Pipes oder halt unified. R500 wäre trotz Weiterentwicklung ebenfalls nicht stark genug für den PC Markt. Also musste R520 her. Man entwickelt auch nicht 2x SM3 Designs von "the scratch on". R520 ist IMO und laut Wavey ein weiterentwickelter R300/420.

robbitop
2005-06-19, 12:04:02
Hehe, von wem stammt der Satz? ;)
Von einer Quelle von Fudo aus Taiwan AFAIK.

reunion
2005-06-19, 12:06:01
Baue dir jetzt mal zur R300 Zeit einen verdoppelten NV25 im Kopf.
Das Teil hätte ~85Mio Transistoren gekostet, 8x2bi, 4xVS, SM1.1, 256 Bit DDR, Framebufferkompression. Takt je nach Fertigungstechnik: 150nm: ~300-350MHz Refresh: 130nm: 400-500MHz. Das Design wäre zwar alt gewesen aber dennoch hätte R300 alt dagegen ausgesehen. SM2 war im Jahre 2002/03 unwichtig in Spielen. So wie es SM3 2004 und vieleicht 05 war.


R300 war mit AA/AF häufig mehr als 100% schneller als NV25.
Hinzu käme weiterhin das - im Vergleich zum R300 - schlechte AA, man hätte ebenfalls das Problem mit dem 130nm Prozess,... und einem unterentwickelten SM1.1-Chip.

IMHO wäre ein verdoppelter NV25 nicht unbedingt die bessere Lösung gewesen.

robbitop
2005-06-19, 12:08:00
Übrigens kommt der Unterschied zur 6800GT hauptsächlich dadurch dass man ineffizientere Spannungswandler hat, weil es 2 Stromanschlüsse sind.
Und durch die höhere Kernspannung. Du weißt ja, dass die Leistungsaufnahme quadratisch mit der Spannung steigt.

robbitop
2005-06-19, 12:11:44
Naja, leistungsmässig sah der NV30 im Vergleich zum NV25 doch recht gut aus. Nur ATi verhagelte mit dem R300 die Vorstellung und der NV30 verblasste da er mit dem R300 in den für den Zocker wichtigsten Bereichen nicht mithalten konnte und auch noch 6 Monate später kam.
Aber doch nur weil man so ein billiges AF (Winkelabhängig) und billiges AA (Framebufferkompression und 256 Bit) hatte relativ zum NV25.
Vergleich mal beide ohne AA/AF (wo R300 ja Designvorteile hat und weniger Arbeit verrichten muss) in 1600 oder höher in den damaligen Spielen. Dann ists mit den ~250% nicht mehr weit her. Dann sinds nur noch 30-50% oder so. Ein duplizierter, leicht "verbesserter" (256 Bit/FB Compression/schlechteres AF like R300) NV25 hätte R300 in jeder Situation bezwungen denke ich.

robbitop
2005-06-19, 12:12:22
In SM 1.1-1.4 war NV30 ja auch sowas wie ein verdoppelter NV25, nur ging das unter dem ganzen SM 2.0 Hype leider unter, bzw. MS hat mit der SM 2.0 Spec einen Strich durch die Rechnung gemacht.
Eher nur ein NV25. Halt mit mehr Takt. 400-500 MHz statt 250-300MHz.

robbitop
2005-06-19, 12:13:31
klar hätte R300 dagegen alt ausgesehn, aber ich schätze sobald AA/AF hinzugekommen wäre wärs schon wieder aus für den NV28(?) gewesen.
und selöbst nen NV25 mit 400Mhz core hätte schon gelangt um in der raw-power die 9700pro aus einander zu nehmen.... aber wie gesagt, das AA/AF.... ;(
Ich sagte ein duplizierter. 8x2 und 256 Bit DDR. Nicht 4x2 und 128 Bit DDR ;)
Diesen Chip gab es natürlich nie. Aber es wäre recht einfach gewesen diesen aus der Not heraus zu designen. Und man hätte sich nicht so blamiert.

robbitop
2005-06-19, 12:15:45
Eine komplette Neuentwicklung gibt es sowieso nicht - jeder Chip baut mehr oder weniger auf dem Vorgängermodell auf. Bei R520 musste man allerdings verhältnissmäßig viel ändern IMHO.
Da wäre ich mir nicht so sicher. Die Register der ALUs müsste man auf FP32 aufbohren und man müsste die Interpolatoren vermehren.
Inwiefern die dynamische flusskontrolle/verzweigen/springen über den FBuffer funktionieren weiß ich nicht. Aber wenn das so machbar wäre, wäre es vieleicht nicht so einfach wie von R300->R420 aber sicher auch nicht so schwer wie R200->R300. Ist aber erstmal nur Spekulation meinerseits.

SKYNET
2005-06-19, 12:17:12
R300 war mit AA/AF häufig mehr als 100% schneller als NV25.
Hinzu käme weiterhin das - im Vergleich zum R300 - schlechte AA, man hätte ebenfalls das Problem mit dem 130nm Prozess,... und einem unterentwickelten SM1.1-Chip.

IMHO wäre ein verdoppelter NV25 nicht unbedingt die bessere Lösung gewesen.


1. ja.
2. dafür gabs perfektes! AF.
3. so unterentwickelt wie der R420 derzeit ist.

robbitop
2005-06-19, 12:18:41
R300 war mit AA/AF häufig mehr als 100% schneller als NV25.
Hinzu käme weiterhin das - im Vergleich zum R300 - schlechte AA, man hätte ebenfalls das Problem mit dem 130nm Prozess,... und einem unterentwickelten SM1.1-Chip.

IMHO wäre ein verdoppelter NV25 nicht unbedingt die bessere Lösung gewesen.
R300 war in etwa bis zu 2,5x so schnell wie NV25. Das lag aber vA an der Framebufferkompression und dem schlechteren AF. Beides wäre kein Problem gewesen mal eben in diesen fiktiven duplizierten NV25 mit hineinzunehmen.
SM1.1 war für 2002/03 völlig ausreichend. Neben TR AoD und 3DM03 gabs keine wirkliche SM2 Anwendung für den Spielesektor.
Klar wäre SM1.1 ggü SM2 technisch unterlegen aber das wäre immernoch besser als kurze Balken. Gerade in der heutigen Zeit.
IMO hätte so ein Chip den R300 wirklich problemlos besiegt.
R300 war, wie gesagt, nur durch das billigere AA/AF deutlich schneller als NV25. Ohne beides @16x12 wars AFAIK zweistellig nur noch. Und mal eben eine Colorcompression und ein schlechteres AF zu implementieren, sollte nicht soo schwer sein.
Außerdem hätte man ja erstmal auf 150nm setzen können, gegen R300 und gegen R350 dann auf 130nm.
Zumal 130nm überhaupt nicht so problematisch war, wie viele denken.
Das Problem war, dass man 130nm mit lowk wollte. Erst im Sommer 2002 war klar, dass das nicht klappen würde. -> Redesign +neues Tapeout.
Im November waren bereits Samples verfügbar. Das sind 4-5Monate für ein Respin +Tapeout. Das ist nicht sooo schlecht.
Problem war, dass das Teil ja unbedingt mit 500MHz laufen sollte. Das hat sicher Zeit und Yield gekostet.
Ein 85 Mio Transistoren Design @400MHz ohne lowk Planung wäre schon eher realisierbar gewesen. Und auf Nummer Sicher hätte man ja auch erstmal 150nm mit 300-350MHz nehmen können. Das hätte gereicht. Und dann erst zum Refresh im Jahre 03 den ausgereiften 130nm Prozess und dann 400-500MHz.

SKYNET
2005-06-19, 12:22:13
R300 war in etwa bis zu 2,5x so schnell wie NV25. Das lag aber vA an der Framebufferkompression und dem schlechteren AF. Beides wäre kein Problem gewesen mal eben in diesen fiktiven duplizierten NV25 mit hineinzunehmen.
SM1.1 war für 2002/03 völlig ausreichend. Neben TR AoD und 3DM03 gabs keine wirkliche SM2 Anwendung für den Spielesektor.
Klar wäre SM1.1 ggü SM2 technisch unterlegen aber das wäre immernoch besser als kurze Balken. Gerade in der heutigen Zeit.
IMO hätte so ein Chip den R300 wirklich problemlos besiegt.
R300 war, wie gesagt, nur durch das billigere AA/AF deutlich schneller als NV25. Ohne beides @16x12 wars AFAIK zweistellig nur noch. Und mal eben eine Colorcompression und ein schlechteres AF zu implementieren, sollte nicht soo schwer sein.


das mit dem AF, hätte sich sicherlich auch durch den treiber bewerkstelligen lassen....
aber dann hätte man schlechtes AA und schlechtes AF gehabt, ich denke man hätte einfach das gute AF behalten und damit dann auch geworben. ;)

robbitop
2005-06-19, 12:25:22
das mit dem AF, hätte sich sicherlich auch durch den treiber bewerkstelligen lassen....
aber dann hätte man schlechtes AA und schlechtes AF gehabt, ich denke man hätte einfach das gute AF behalten und damit dann auch geworben. ;)
Das AA hat nicht soo viele interessiert, gehe ich mal davon aus. Die dumme Masse interessiert die Balkenlänge. Außerdem hätte man zur Not ja noch die Hybridmodi.
Dazu hätte man einen kleinen "Performance (R300 Benchmode)"/"HQ (not to compare w/R300)" Schalter im Treiber einbauen können.

reunion
2005-06-19, 12:33:08
R300 war in etwa bis zu 2,5x so schnell wie NV25. Das lag aber vA an der Framebufferkompression und dem schlechteren AF. Beides wäre kein Problem gewesen mal eben in diesen fiktiven duplizierten NV25 mit hineinzunehmen..

Nur weiß keiner, ob nV das auch gemächt hätte.
Im übrigen wäre dann der einzige Vorteil, nämlich das bessere AF weg.


SM1.1 war für 2002/03 völlig ausreichend. Neben TR AoD und 3DM03 gabs keine wirkliche SM2 Anwendung für den Spielesektor.
Klar wäre SM1.1 ggü SM2 technisch unterlegen aber das wäre immernoch besser als kurze Balken. Gerade in der heutigen Zeit.


Und hier möchte ich gleich mal einhaken:
R420 ist z.T. deutlich schneller als NV40 - welcher Chip verkauft sich besser, und warum?

IMHO wird die Balkenlänge überschätzt. Ein technologisch unterentwickelter Chip bedeutet den marketingtechnischen Tod.


Außerdem hätte man ja erstmal auf 150nm setzen können, gegen R300 und gegen R350 dann auf 130nm.


ATi hätte auch bei R350 auf 130nm setzten können.
nV ist das Risiko mit 130nm eingegangen - und das hätte man erst recht mit einem doppelten NV25 gewagt.

Du biegst dir hier alles so zurecht wie es besser nicht sein könnte, nur kann man eben nicht in die Zukunft blicken. nV hätte sich IMHO nie gedacht, dass R300 auch nur annähernd so stark wird.

Coda
2005-06-19, 12:33:23
Und durch die höhere Kernspannung. Du weißt ja, dass die Leistungsaufnahme quadratisch mit der Spannung steigt.Richtig. Ganz vergessen :redface:

robbitop
2005-06-19, 12:41:50
Nur weiß keiner, ob nV das auch gemächt hätte.
Im übrigen wäre dann der einzige Vorteil, nämlich das bessere AF weg.

Ich gehe davon aus, dass sie wenn sie gewußt hätten, wie schlecht das für sie wird, das auch gemacht hätten. ATI zeigt dass es besser war.


Und hier möchte ich gleich mal einhaken:
R420 ist z.T. deutlich schneller als NV40 - welcher Chip verkauft sich besser, und warum?
Verfügbarkeit. 130nm lowk war vom Produktionsoutput eine Katastrophe. Es gab nur 1x Fabrik die das konnte. X800XT/PE haben ähnliche Verkaufszahlen wie 6800U. Die GT verkaufte sich besser alx die X800pro, da sie schneller war. Eine X800XL zum damaligen Zeitpunkt hätte das verändert.
Die großen Unterschiede in den Verkaufszahlen, auf die du hinauswillst betrifft die X700/6600. Die X700pro ist langsamer als die 6600GT. Die X700 Serie gabs auch zu lange nicht für den unterschätzten AGP Markt.
Sicher spielt SM3 auch eine gewisse Rolle, aber nicht so stark wie viele vermuten... ATI hat einfach viel falsch gemacht.


IMHO wird die Balkenlänge überschätzt. Ein technologisch unterentwickelter Chip bedeutet den marketingtechnischen Tod.
Nein, das sieht man ja bei ATI. Nirgendwo sehe ich da einen Tod. Wäre die Verfügbarkeit von 130nm lowk besser gewesen und hätte man den AGP Markt nicht so unterschätzt, wäre es besser gelaufen. Und die Gesamtverkaufszahlen sehen gut aus bei ATI.
Wenn man die höhere Performance hat, kann man das marketingtechnisch gut ausschlachten. Die höhere Technologie als sinnlos einstufen, erzählen dass gleiche Effekte auch mit vorhandener Technologie funktionieren usw.
Im Prinzip das, was ATI seit R420 bis jetzt marketingtechnisch gemacht hat. Das funktioniert nicht so schlecht.



ATi hätte auch bei R350 auf 130nm setzten können.
nV ist das Risiko mit 130nm eingegangen - und das hätte man erst recht mit einem doppelten NV25 gewagt.
Bei gleichem Takt wäre R3xx langsamer als ein solch fiktiver "2xNV25++". Da bin ich mir ziemlich sicher.
130nm war nur aufgrund der überzogenen Anforderungen seitens NV im Jahre 2002 nicht wirklich einsetzbar. That's all.

Du biegst dir hier alles so zurecht wie es besser nicht sein könnte, nur kann man eben nicht in die Zukunft blicken. nV hätte sich IMHO nie gedacht, dass R300 auch nur annähernd so stark wird.

Das habe ich nie bestritten. Aber NV wußte mit ziemlicher Sicherheit schon Anfang 2002, dass NV30 nicht an R300 heranreichen wird. Nur war es da zu spät. Und technologisch wollte man nicht einstecken. Ein NV25+++ war für NV damals undenkbar. Man hat Fehler gemacht, für die man teuer bezahlen musste.
Und ATI hat daraus gelernt. Und genau das getan, was NV besser hätte auch tun sollen. Jeder macht mal Fehler.
Natürlich ist das alles nur pure Spekulation, das bestreite ich nicht. -> Spekuforum. Aber es liegt gar nicht so fern und es ist alles noch auf recht machbaren Grundlagen basiert.

SKYNET
2005-06-19, 12:42:20
Und hier möchte ich gleich mal einhaken:
R420 ist z.T. deutlich schneller als NV40 - welcher Chip verkauft sich besser, und warum?



weil R4x0 lange zeit nicht für AGP erhältlich war... und ca. 80% der user noch AGP nutzen. =)

reunion
2005-06-19, 12:43:48
Die dumme Masse interessiert die Balkenlänge.

Noch viel negativer als ein etwas zu kurzer Balken kann das technische Unvermögen sein, einen Effekt, welchen der Konkurrenzchip rendern kann, selber nicht darstellen zu können.

robbitop
2005-06-19, 12:45:53
Noch viel negativer als ein etwas zu kurzer Balken kann das technische Unvermögen sein, einen Effekt, welchen der Konkurrenzchip rendern kann, selber nicht darstellen zu können.
Man sieht ja, dass es der Radeon X Serie nicht oder nur kaum schadet.
Aus HDR macht man fake HDR bei der Cry Demo. Man erzählt, dass alles auch anders möglich ist.
SM1.1 wäre 02/03 genauso wenig von Nachteil wie SM2 es in 2004/05 ist.
Es wird eben zu wenig genutzt.

ShadowXX
2005-06-19, 12:46:05
weil R4x0 lange zeit nicht für AGP erhältlich war... und ca. 80% der user noch AGP nutzen. =)

Ich würde auch gerne mal wissen, was ATI damals geritten hat, als Sie annahmen das der PCIe-Markt sooooo schnell so extrem wächst, das Sie sich AGP fast schenken können.

ICh schätze mal, das da einige Köpfe gerollt sind in der Abteilung die für diese Zukunftsprognose verantwortlich war.....

ShadowXX
2005-06-19, 12:48:14
Man sieht ja, dass es der Radeon X Serie nicht oder nur kaum schadet.
Aus HDR macht man fake HDR bei der Cry Demo. Man erzählt, dass alles auch anders möglich ist.

Sie dürfen aber auch nicht zu sehr übertreiben, sonst wird man unglaubwürdig, wenn man den beim r520 plötzlich SM3.0/HDR über den grünen Klee lobt.

Das wird IMHO sowieso noch ein stückchen Arbeit für ATI das den r4x0-Käufern ordentlich zu erklären...

SKYNET
2005-06-19, 12:53:18
Ich würde auch gerne mal wissen, was ATI damals geritten hat, als Sie annahmen das der PCIe-Markt sooooo schnell so extrem wächst, das Sie sich AGP fast schenken können.

ICh schätze mal, das da einige Köpfe gerollt sind in der Abteilung die für diese Zukunftsprognose verantwortlich war.....


k.a. aber das ein so gravierender einschnitt in die computerhardware, halt nicht von heute auf morgen geht hätten sie sich denken können.

und das da köpfe gerollt sind dürfte sicherlich der fall gewesen sein. =)

Gast
2005-06-19, 12:58:28
Ich würde auch gerne mal wissen, was ATI damals geritten hat, als Sie annahmen das der PCIe-Markt sooooo schnell so extrem wächst, das Sie sich AGP fast schenken können.

ICh schätze mal, das da einige Köpfe gerollt sind in der Abteilung die für diese Zukunftsprognose verantwortlich war.....

Was die geritten hat? Ganz einfach Intel.
ATI hat zu Intel ein recht gutes Verhältnis und Intel war damals arrogant wie sie immer sind der Meinung, das PCI-Express AGP blitz schnell ablösen wird.
Leider ist das so nicht gekommen aus vielerlei Gründen.
Zu wenig verschiedene PCI-E Chipsätze, der AMD Markt, der im Retail recht stark ist bekam erst mit dem nForce4 PCI-E usw....
ATI hat sich auf Intels Aussagen verlassen und ist dafür bitter bestraft worden.
Ein bisschen Selbstüberschätzung und Arroganz spielt natürlich auch noch mit rein. Ich könnte jetzt die ganzen Artikel rauskramen, in denen ATI über Nvidias HSI fürstlich gelacht hat.
Spätestens seit der 6800GT, 6800nonU, 6800LE und vor allem 6600GT für AGP wird ATI das Lachen grundlegend vergangen sein.
Diese Fehleinschätzung hat sie verdammt viel gekostet.

robbitop
2005-06-19, 13:02:16
Sie dürfen aber auch nicht zu sehr übertreiben, sonst wird man unglaubwürdig, wenn man den beim r520 plötzlich SM3.0/HDR über den grünen Klee lobt.

Das wird IMHO sowieso noch ein stückchen Arbeit für ATI das den r4x0-Käufern ordentlich zu erklären...
Die Masse wird das eh nicht wirklich interessieren.
Tolle neue SM3 Karte. Denn jetzt kann man SM3 sowieso erst nutzen. Und dazu mehr Speed. Boah ey! ;)

ShadowXX
2005-06-19, 13:41:48
Die Masse wird das eh nicht wirklich interessieren.
Tolle neue SM3 Karte. Denn jetzt kann man SM3 sowieso erst nutzen. Und dazu mehr Speed. Boah ey! ;)

Was sich aber erst auch zeigen muss....nämlich das Sie schneller in SM3.0 als der G70 ist.
Falls nämlich nicht, hat ATI IMO durchaus gewisse Erklärungsprobleme.

@Gast

Ja klar, der Intelfaktor.......aber IMO darf man sich bei sowas nicht nur auf eine Quelle verlassen.

Es war doch selbst für "Blinde" absehbar, das die Prognosen hinten und vorne nicht hinkommen.
Ich hab mich damlas halb scheckig gelacht, als ichs ATIs Folien dazu vor dem r420-Start gesehen haben und hab auch damals schon gesagt/gepostet, das das nie so hinkommen wird.

Da muss doch richtig jemand gepennt haben.......so blauäugig kann man doch wirklich nicht sein.

(Wobei natürlich selbst Intel so blauäugig bei DDR2 war.....nach Intel müssten wir alle inzwischen DDR2 und PCIe haben........auch da war wohl jemand extrem Blauäugig).

Ich würde einfach gerne mal wissen, worauf Intel(/ATI) sich hierbei gestützt haben....da wird ja wohl kaum irgendjemand einfach gesagt haben: "Ich gehe jetzt einfach mal davon aus....also machen wir das so bzw. planen wir so und das wird dann auch so eintreffen".
Da muss es doch irgendwelchen völlig verqueren Studien oder so drüber gegeben haben....diese und insbesondere die Annahmen von denen diese Studien ausgingen, würde ich gerne mal sehen.

reunion
2005-06-19, 13:45:12
Verfügbarkeit. 130nm lowk war vom Produktionsoutput eine Katastrophe. Es gab nur 1x Fabrik die das konnte. X800XT/PE haben ähnliche Verkaufszahlen wie 6800U. Die GT verkaufte sich besser alx die X800pro, da sie schneller war. Eine X800XL zum damaligen Zeitpunkt hätte das verändert.
Die großen Unterschiede in den Verkaufszahlen, auf die du hinauswillst betrifft die X700/6600. Die X700pro ist langsamer als die 6600GT. Die X700 Serie gabs auch zu lange nicht für den unterschätzten AGP Markt.
Sicher spielt SM3 auch eine gewisse Rolle, aber nicht so stark wie viele vermuten... ATI hat einfach viel falsch gemacht.


Hast du natürlich auch nicht ganz unrecht, allerdings sah es in punkto Verfügbarkeit mit dem NV40-Chip auch nicht wirklich besser aus.

Und alleine schon die Tatsache, dass sich die X800XT/PE nicht wirklich besser verkaufte als die 6800U - obwohl erstere in Extremsituationen bis zu 30% schneller war, zeigt schon sehr gut wie wichtig vielen SM3 war.

ATi war durch das fehlen von SM3 praktisch dazu verbannt, immer und überall schneller zu sein wie nV. Sieh man ja sehr gut an der von dir angesprochenen X700-Serie, hätte diese SM3, wären die paar Prozent weniger Leistung kaum ein Problem.

Ich würde es mal simpel so ausdrücken:
höheres Tech-Level und schneller - wird gekauft
höheres Tech-Level und gleichschnell - wird gekauft
höheres Tech-Level und langsamer - wird ebenfalls von vielen gekauft, sofern der Unterschied nicht zu krass ist.

Umgekeht hingegen kann man nur mit dem Speed argumentieren, welcher für viele allerdings nicht so wichtig ist.


Nein, das sieht man ja bei ATI. Nirgendwo sehe ich da einen Tod. Wäre die Verfügbarkeit von 130nm lowk besser gewesen und hätte man den AGP Markt nicht so unterschätzt, wäre es besser gelaufen. Und die Gesamtverkaufszahlen sehen gut aus bei ATI.
Wenn man die höhere Performance hat, kann man das marketingtechnisch gut ausschlachten. Die höhere Technologie als sinnlos einstufen, erzählen dass gleiche Effekte auch mit vorhandener Technologie funktionieren usw.
Im Prinzip das, was ATI seit R420 bis jetzt marketingtechnisch gemacht hat. Das funktioniert nicht so schlecht.


Naja, so rosig siehts bei ATi zurzeit nicht aus.
ATi kann sich zurzeit IMHO hauptsächlich durch die billige X300-Serie - welche früher verfügbar war und billiger ist als die 6200-Serie über Wasser halten. Außerdem half auch lange noch die R300-Serie mit und der damit verbundene gute Ruf.

robbitop
2005-06-19, 13:46:51
Was sich aber erst auch zeigen muss....nämlich das Sie schneller in SM3.0 als der G70 ist.
Falls nämlich nicht, hat ATI IMO durchaus gewisse Erklärungsprobleme.


Wieso Erklärungsprobleme? Man erklärt es einfach gar nicht. Das funktioniert klasse. Sieht man ja beim Pentium M. Vorher: Takt ist das wichtigste. Nun: Das Ding ist trotz wenig Takt schnell und zugleich verbrauchsarm.
Mit SM3 kann man 2005 sicher auch klasse werben. Und zur Not sagt man halt, dass es eh erst jetzt lohnt. An sich ist die große Masse immer sehr unkritisch und hinterfragt vieles nicht. Manchmal habe ich das Gefühl, dass diese Masse nichtmal ein Gedächtnis hat.

robbitop
2005-06-19, 13:51:59
Und alleine schon die Tatsache, dass sich die X800XT/PE nicht wirklich besser verkaufte als die 6800U - obwohl erstere in Extremsituationen bis zu 30% schneller war, zeigt schon sehr gut wie wichtig vielen SM3 war.

Sie konnte sich nicht besser verkaufen, weil es nicht mehr davon gab. Die Shops waren alle leer. NV40 Verfügbarkeit war nach einer Weile dramatisch besser. Vor Allem die GT wurde gekauft, denn da gab es bis zur X800XL nie einen echten Gegenpart von ATI. Und so viel länger waren die X800XT PE Balken in den Standardmassenbenches auch nicht. Dafür hat man ja dank Optimierungen mal wieder gesorgt. Nur halt in der Praxis. Aber davon bekommt die Masse beim Lesen ja kaum etwas mit.
Ich schliesse auf keinen Fall aus, dass Technologie mehr Käufer bringt. Aber eben nicht radikal. Aber es ist sicher ein gewisser Einfluss.

Aber besser ein paar Käufer durch mangelnde Technologie zu verlieren, als eine riesen Masse, bedingt durch schlechte Performance. Siehe NV3x. Die Dinger wurden bis auf die 5200 nicht wirklich verkauft relativ zur R3xx.
Und nur darauf wollte ich hinaus als ich vom R420 und vom NV25+++ sprach.
Besser ein bisschen Verkaufseinbruch als einen dramatischen Einbruch mit großem Imageverlust.
Natürlich kann der Technologiestand nicht unbedeutend sein. Aber bis zu einem gewissen Grenzwert halte ich die Performance für den ausschlagenden Kaufgrund bei Kunden. NV30 hat dies ja eindrucksvoll gezeigt *gg*

edit:
Das Problem an der X700 Serie war auch, dass sie nur für PCI-E war und das eine lange lange Zeit. Und dass sie kein SLI supportete. Als AGP Nutzer hole ich mir in dem Segement, besonders Herbst 04 natürlich!! eine 6600GT.
Als PCIe User auch. Die PCIe 6600GT war deutlich günstiger und ich habe die Aussicht auf eine SLI Nachrüstung. Und außerdem machten sich die 75MHz Mehrtakt schon tw deutlich bemerkbar.
Aber natürlich ist auch hier SM3 ein Faktor. Einer von vielen. Aber IMO keinesfalls DER Faktor für den Misserfolg.

reunion
2005-06-19, 14:00:05
Sie konnte sich nicht besser verkaufen, weil es nicht mehr davon gab. Die Shops waren alle leer. NV40 Verfügbarkeit war nach einer Weile dramatisch besser. Vor Allem die GT wurde gekauft, denn da gab es bis zur X800XL nie einen echten Gegenpart von ATI. Und so viel länger waren die X800XT PE Balken in den Standardmassenbenches auch nicht. Dafür hat man ja dank Optimierungen mal wieder gesorgt. Nur halt in der Praxis. Aber davon bekommt die Masse beim Lesen ja kaum etwas mit.
Ich schliesse auf keinen Fall aus, dass Technologie mehr Käufer bringt. Aber eben nicht radikal. Aber es ist sicher ein gewisser Einfluss.

Aber besser ein paar Käufer durch mangelnde Technologie zu verlieren, als eine riesen Masse, bedingt durch schlechte Performance. Siehe NV3x. Die Dinger wurden bis auf die 5200 nicht wirklich verkauft relativ zur R3xx.
Und nur darauf wollte ich hinaus als ich vom R420 und vom NV25+++ sprach.
Besser ein bisschen Verkaufseinbruch als einen dramatischen Einbruch mit großem Imageverlust.
Natürlich kann der Technologiestand nicht unbedeutend sein. Aber bis zu einem gewissen Grenzwert halte ich die Performance für den ausschlagenden Kaufgrund bei Kunden. NV30 hat dies ja eindrucksvoll gezeigt *gg*

edit:
Das Problem an der X700 Serie war auch, dass sie nur für PCI-E war und das eine lange lange Zeit. Und dass sie kein SLI supportete. Als AGP Nutzer hole ich mir in dem Segement, besonders Herbst 04 natürlich!! eine 6600GT.
Als PCIe User auch. Die PCIe 6600GT war deutlich günstiger und ich habe die Aussicht auf eine SLI Nachrüstung. Und außerdem machten sich die 75MHz Mehrtakt schon tw deutlich bemerkbar.
Aber natürlich ist auch hier SM3 ein Faktor. Einer von vielen. Aber IMO keinesfalls DER Faktor für den Misserfolg.


Okay, dem kann ich im größtenteils zustimmen. :)

Ailuros
2005-06-19, 14:28:35
Nur ganz so nebenbei, ich hab den Eindruck dass ganz am Anfang die hoechste Verkaufsrate der NV40-er der einfachen 6800nonU gehoert. Je billiger desto hoehere Verkaufszahlen.

Mit default Takten und 12p war diese zwar schneller als R350/360 mit den ersten Treibern, aber nicht auf dem Niveau dass es eine Aufruestung von der Leistung gesehen gerechtfertigt haette.

Als man dann erst die extra Einheiten einschalten konnte und die neueren Treiber dann in Leistung zusetzten, setzte sich diese erst richtig von diesen ab.

-error-
2005-06-19, 14:35:23
.......Diese Fehleinschätzung hat sie verdammt viel gekostet.

Naja, das Canceln der NV30 hat mehr gekostet, ingesammt rund 300mio Dollar.

robbitop
2005-06-19, 14:48:03
Naja, das Canceln der NV30 hat mehr gekostet, ingesammt rund 300mio Dollar.
300Mio Dollar waren die Entwicklungskosten für dieses Design. Kosten tut das Canclen gar nichts. Wenn man diese Entwicklungskosten durch das aktuelle Design nicht wieder reinholen kann durch Verkäufe..erst dann kostet das.
R400 muss ziemlich weh getan haben. Aber dennoch behält man ja die Ergebnisse und das Know How und kann mit weniger Entwicklungsaufwand einen Nachfolgerchip entwickeln. Somit ist nicht alles verloren.
Lieber einen erfolgreichen Plan B und ein gecanceltes Design, dass das nächste Design billiger macht, als ein teures crap Design auf den Markt zu werfen, mit dem man "Nasse" macht. Dann muss eben Plan B Entwicklungskosten einspielen.

-error-
2005-06-19, 14:50:53
300Mio Dollar waren die Entwicklungskosten für dieses Design. Kosten tut das Canclen gar nichts. Wenn man diese Entwicklungskosten durch das aktuelle Design nicht wieder reinholen kann durch Verkäufe..erst dann kostet das.

Meine ich doch, deswegen auch 300Mio Dollar für das Canceln, es hat ja nichts gebracht weiter auf dieser Architektur aufzubauen.

robbitop
2005-06-19, 14:54:53
Meine ich doch, deswegen auch 300Mio Dollar für das Canceln, es hat ja nichts gebracht weiter auf dieser Architektur aufzubauen.
Doch natürlich, man verbilligt damit auf jedenfall die Entwicklung der Nachfolge GPU. NV40 wurde erst durch NV30 möglich. R500 erst durch R400. R300 erst durch R200. Selbst wenn man einen davon cancelt partizipiert man noch immer von der Entwicklung. Denn meist muss man nur weiterentwicklen und nicht von neu an.

Demirug
2005-06-19, 15:02:31
Meine ich doch, deswegen auch 300Mio Dollar für das Canceln, es hat ja nichts gebracht weiter auf dieser Architektur aufzubauen.

Der NV40 baut ganz eindeutig auf dem NV35 Desgin auf welcher wiederum eine NV30 Variante ist.

Wenn man es drauf anlegt kann man die Entwicklung seit den TNTs dokumentieren und aufzeigen das jeder Chip eine Weiterentwicklung seines Vorgängers ist.

Coda
2005-06-19, 15:08:45
Der NV40 baut ganz eindeutig auf dem NV35 Desgin auf welcher wiederum eine NV30 Variante ist.Gibt's da eigentlich irgendwo einen schönen Vergleich was genau anders ist?

robbitop
2005-06-19, 15:11:46
Gibt's da eigentlich irgendwo einen schönen Vergleich was genau anders ist?
Brauchbar ists im CineFX Artikel beschrieben. Ein wenig auch im NV40 Inside Artikel.

Gast
2005-06-19, 15:32:39
Naja, das Canceln der NV30 hat mehr gekostet, ingesammt rund 300mio Dollar.
Das stimmt so nicht.
Die 300 Mio Dollar waren für die komplette Reihe also
NV30, NV31, NV34, NV35 und NV36.
Zudem kam Nvidia von einer ganz anderen Marktposition als ATI heute und der NV30/35 hat technisch bereits so viel vorgelegt, dass der NV40 vom Featureset nur noch unwesentlich aufgebohrt werden musste.
Dort konnte man sich auf die Schwachstellen des NV3x Designs konzentrieren (Temp Register z.B) und die Performance drastisch erhöhen.
Rein vom Featureset betrachtet - ohne Performance - war NV3x bereits der Zeit erheblich voraus.

Demirug
2005-06-19, 15:50:57
Hatten wir die schon?

http://www.bfgtech.com/7800GTX_256_PCIX.html

dildo4u
2005-06-19, 15:52:45
Hatten wir die schon?

http://www.bfgtech.com/7800GTX_256_PCIX.html
Schick schon vom Start weg gibst OC versionen aber kommen die auch nach good old Europe?

r3ptil3
2005-06-19, 15:58:23
Memory Clock: 1300

Die 7800 GTX von Pixelview hat 1400mhz (Memory Clock)
http://www.funcomputer.ch/default.php?page=shop&tp=true&artnr=30501&PHPSESSID=13ce618c02205e39f9838ca350fe2783

dildo4u
2005-06-19, 15:58:49
Memory Clock: 1300

Die 7800 GTX von Pixelview hat 1400mhz (Memory Clock)
http://www.funcomputer.ch/default.php?page=shop&tp=true&artnr=30501&PHPSESSID=13ce618c02205e39f9838ca350fe2783
Normal sind aber 1200

LovesuckZ
2005-06-19, 16:02:13
Schick von vom Start weg gibst OC versionen aber kommen die auch nach good old Europe?

BFG gib's nur in den USA.

Gast
2005-06-19, 16:02:51
interessant ist nur wann die agp version kommt

Coda
2005-06-19, 16:48:01
interessant ist nur wann die agp version kommtÖhm, bissel verallgemeinert oder? Es gibt durchaus viele Leute mit PCIe Mainboards.

robbitop
2005-06-19, 17:06:41
Scheint so als würde es schnell nach dem Launch zur Verfügbarkeit kommen. Es sind überraschend viele Samples, Leaks und Fotos unterwegs. Und anscheinend hat man bei BFG schon alles fertig.
Finde ich gut, wenns so kommt :)

DanMan
2005-06-19, 17:12:10
Hatten wir die schon?

http://www.bfgtech.com/7800GTX_256_PCIX.html
400W Netzteil mit 26A auf der 12V Leitung. Klingt human und nach keiner viel höheren Leistungsaufnahme als die der GF6.

Gast
2005-06-19, 17:15:49
Öhm, bissel verallgemeinert oder? Es gibt durchaus viele Leute mit PCIe Mainboards.

es gibt in hw foren vielleicht "viele" aber der durchschnitt der zocker hat zu 90% noch agp

Coda
2005-06-19, 17:20:31
90% bei Leuten die eine High-End GPU wollen und ein entsprechendes System haben? Glaube ich nicht.

Das AGP wichtig ist mag ja sein, aber so wichtig ist es dann auch nicht mehr ;)

Black-Scorpion
2005-06-19, 17:27:38
Was du glaubst ist aber irrelevant. ;)
Da wird gesagt das ATI sich mit mit PCIe verschätzt hat und du willst hier erzählen das AGP keine Rolle mehr spielt.

mapel110
2005-06-19, 17:33:52
Was du glaubst ist aber irrelevant. ;)
Da wird gesagt das ATI sich mit mit PCIe verschätzt hat und du willst hier erzählen das AGP keine Rolle mehr spielt.
Im High End meint er. Und da liegt er sicher nicht so falsch.

ATIs Katastrophe war mehr die X700, die es nur auf PCIe gab.

Coda
2005-06-19, 17:41:34
Ich habe ja selber noch AGP, aber dennoch ist 90% einfach viel zu hoch angesetzt.

nVIDIA wird schon nen "G75" mit Bridgechip on-package anbieten, keine Sorge.

mapel110
2005-06-19, 19:22:07
302 Mio Transistoren
http://www.hardtecs4u.com/?id=1119195854,6770,ht4u.php
:confused:

Der Rest der News ist für mich zumindest aaaaaaaaalt. ;)

ShadowXX
2005-06-19, 20:07:51
BFG gib's nur in den USA.

Deshalb steht bei den Läden, die zum Kauf empfohlen werden auch "Overclockers UK" mit dabei....

Klar bekommt man BFG auch in Europa....nur nicht so einfach.

Der ist ein Idiot
2005-06-19, 20:22:54
302 Mio Transistoren
http://www.hardtecs4u.com/?id=1119195854,6770,ht4u.php
:confused:

Der Rest der News ist für mich zumindest aaaaaaaaalt. ;)

Derjenige, welcher die News schreibt ist eh ein Idiot... Klaut sich die News zusammen und hat keinen Plan...

Quasar
2005-06-19, 22:07:03
1. uah, die arme Sprache. (normalerweise ist mir das egal, aber das tut ja schon fast weh ... Klingt genauso wie bei diesem RTL Formel 1 Moderator.) Hier wird doch der Akkusativ verlangt, auch wenn anglizistische Wörter zum Einsatz kommen. Oder nicht?

Es heisst auch "die Geschwindigkeit"... im Akkusativ.

robbitop
2005-06-19, 22:30:19
Es heisst auch "die Geschwindigkeit"... im Akkusativ.
"Die Geschwindigkeit" != "die Speed". Es heißt ja auch "der Speed".
Bei der Droge sogar "das Speed". Speed ist nicht feminin.
Geschwindigkeit hingegen schon. Aber ich bin sowieso gegen den ganzen anglizistischen Kram.

deekey777
2005-06-19, 22:39:21
Ich glaub, man hat den Christian Danner gezwungen, "die Speed" zu sagen, denn früher sagte er "der Speed".

SKYNET
2005-06-19, 22:42:45
sind wir hier im grammatik thread, oder im G70 speku?

Gast
2005-06-19, 23:05:14
400W Netzteil mit 26A auf der 12V Leitung. Klingt human und nach keiner viel höheren Leistungsaufnahme als die der GF6.Ich glaube, nur die wenigsten haben ein Netzteil, dass solchen Anforderungen genügt.
Vor gar nicht allzulanger Zeit gab es in der ct (das sind die vermeintlichen Computer-Profis) einen Artikel, man sollte maximal ein 350W-NT nehmen, weil damit selbst ein High-End-Rechner mit P4-3GHz und GF6U auskäme, der angeblich nur wenig über 200W benötigt.
Die Realität ist: Selbst ein 350W-NT von Fortron gibt auf der 12V-Schiene nur 15A.
Das Manko besteht auch bei einem 400W-Fortron
http://www.fsusa.com/Product/FSP400-60GN(12V).pdf

Wenn die Angaben von Digital-info (http://www.hardtecs4u.com/images/news/Nvidia_GeForce7800-lange.jpg)stimmen, dass eine einzelne GF7 169W verbrät, dann ist selbst für nahezu alle Extrem-Zocker auch eine Aufrüstung der PSU nötig.
Übrigens glaube ich nicht, dass der R520 (merklich) weniger zieht als der G70. Die bevorstehende Graka-Generation ist nun einmal stromhungrig.

Quasar
2005-06-19, 23:06:48
"Die Geschwindigkeit" != "die Speed". Es heißt ja auch "der Speed".
Bei der Droge sogar "das Speed". Speed ist nicht feminin.
Geschwindigkeit hingegen schon. Aber ich bin sowieso gegen den ganzen anglizistischen Kram.
Du hast Recht, ich habe meine Ruhe und wir können das OT hier beenden, ja?

Godmode
2005-06-19, 23:10:44
Ich glaube, nur die wenigsten haben ein Netzteil, dass solchen Anforderungen genügt.
Vor gar nicht allzulanger Zeit gab es in der ct (das sind die vermeintlichen Computer-Profis) einen Artikel, man sollte maximal ein 350W-NT nehmen, weil damit selbst ein High-End-Rechner mit P4-3GHz und GF6U auskäme, der angeblich nur wenig über 200W benötigt.
Die Realität ist: Selbst ein 350W-NT von Fortron gibt auf der 12V-Schiene nur 15A.
Das Manko besteht auch bei einem 400W-Fortron
http://www.fsusa.com/Product/FSP400-60GN(12V).pdf

Wenn die Angaben von Digital-info (http://www.hardtecs4u.com/images/news/Nvidia_GeForce7800-lange.jpg)stimmen, dass eine einzelne GF7 169W verbrät, dann ist selbst für nahezu alle Extrem-Zocker auch eine Aufrüstung der PSU nötig.
Übrigens glaube ich nicht, dass der R520 (merklich) weniger zieht als der G70. Die bevorstehende Graka-Generation ist nun einmal stromhungrig.

Zum Glück hab ich vor nem Jahr - wie ich mir nen neuen PC zusammengestellt hab - gleich das OCZ Powerstream gekauft, das wird schon noch ne Weile reichen! 33 Ampere auf der 12V Schiene.

Gast
2005-06-19, 23:12:35
Wenn die Angaben von Digital-info (http://www.hardtecs4u.com/images/news/Nvidia_GeForce7800-lange.jpg)stimmen, dass eine einzelne GF7 169W verbrät, dann ist selbst für nahezu alle Extrem-Zocker auch eine Aufrüstung der PSU nötig.
Übrigens glaube ich nicht, dass der R520 (merklich) weniger zieht als der G70. Die bevorstehende Graka-Generation ist nun einmal stromhungrig.Bilddatei hier:
http://www.hardtecs4u.com/images/news/Nvidia_GeForce7800-Watt.jpg

Quasar
2005-06-19, 23:15:39
Graka- oder Systemlast?

Zumindest versuchen, seinen Verstand einzuschalten, sollte man - auch bei HT4U.

Demirug
2005-06-19, 23:17:20
Bilddatei hier:
http://www.hardtecs4u.com/images/news/Nvidia_GeForce7800-Watt.jpg

Das ist die Gesamtaufnahme des Systems.

Angaben bezüglich des benötigten Netzteils werden immer so bestimmt das man davon ausgeht das auch sonst recht viel im System ist. Also lieber mehr angeben als zu wenig.

dildo4u
2005-06-19, 23:21:28
Bilddatei hier:
http://www.hardtecs4u.com/images/news/Nvidia_GeForce7800-Watt.jpg
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3165712#post3165712

SKYNET
2005-06-19, 23:21:45
Ich glaube, nur die wenigsten haben ein Netzteil, dass solchen Anforderungen genügt.
Vor gar nicht allzulanger Zeit gab es in der ct (das sind die vermeintlichen Computer-Profis) einen Artikel, man sollte maximal ein 350W-NT nehmen, weil damit selbst ein High-End-Rechner mit P4-3GHz und GF6U auskäme, der angeblich nur wenig über 200W benötigt.
Die Realität ist: Selbst ein 350W-NT von Fortron gibt auf der 12V-Schiene nur 15A.
Das Manko besteht auch bei einem 400W-Fortron
http://www.fsusa.com/Product/FSP400-60GN(12V).pdf

Wenn die Angaben von Digital-info (http://www.hardtecs4u.com/images/news/Nvidia_GeForce7800-lange.jpg)stimmen, dass eine einzelne GF7 169W verbrät, dann ist selbst für nahezu alle Extrem-Zocker auch eine Aufrüstung der PSU nötig.
Übrigens glaube ich nicht, dass der R520 (merklich) weniger zieht als der G70. Die bevorstehende Graka-Generation ist nun einmal stromhungrig.

169W = gesammt system... :rolleyes:

[edit]
da war wer schneller. ;(

stickedy
2005-06-19, 23:50:50
Ich glaube, nur die wenigsten haben ein Netzteil, dass solchen Anforderungen genügt.
Vor gar nicht allzulanger Zeit gab es in der ct (das sind die vermeintlichen Computer-Profis) einen Artikel, man sollte maximal ein 350W-NT nehmen, weil damit selbst ein High-End-Rechner mit P4-3GHz und GF6U auskäme, der angeblich nur wenig über 200W benötigt.
Die Realität ist: Selbst ein 350W-NT von Fortron gibt auf der 12V-Schiene nur 15A.

Die ct hat ja auch recht! Was willst du mit mehr als 15A auf der 12V-Schiene? Das sind satte 180W! Soviel verbraucht ein normaler Standard-PC inkl. Verlustleistung des Netzteils meistens nicht. Und es zieht eigentlich fast nichts mehr von der 12V-Leitung...

Gast
2005-06-20, 00:11:42
Die ct hat ja auch recht! Was willst du mit mehr als 15A auf der 12V-Schiene? Das sind satte 180W! Soviel verbraucht ein normaler Standard-PC inkl. Verlustleistung des Netzteils meistens nicht. Und es zieht eigentlich fast nichts mehr von der 12V-Leitung...
http://www.bfgtech.com/7800GTX_256_PCIX.html
Minimum System Requirements
>> A minimum 400W system power supply (with 12V current rating of 26A or more)

stickedy
2005-06-20, 00:13:53
Blödsinn - schlicht und ergreifend

Edit: Und der Beweis findet sich sogar auf der Seite selber! Für eine Karte werden 26A auf der 12V-Schiene empfohlen und für 2 Karten (SLI) sind es 34A, also genau 8A für eine Karte, was dann maximal 96W bedeutet (und es ist wohl eher viel weniger, die Hersteller übertreiben ja gerne).

So, haben wir also 8A für eine Karte. Damit bleiben von den empfohlenen 26A noch 18A für den gesamten Rest des PCs übrig! Und was da bitte 18A von der 12V-Scheine (oder besser 216W Leistung) verbrauchen soll, ist mir ein Rätsel!! :rolleyes: Schwachsinn, ganz einfach...

SKYNET
2005-06-20, 00:41:53
Die ct hat ja auch recht! Was willst du mit mehr als 15A auf der 12V-Schiene? Das sind satte 180W! Soviel verbraucht ein normaler Standard-PC inkl. Verlustleistung des Netzteils meistens nicht. Und es zieht eigentlich fast nichts mehr von der 12V-Leitung...


lol, also mit 20A @ 12V wollte mein rechner nichtmal sauber laufen mit A64 @ oc und EINER 6800U.

und es war nen marken netzteil. :P


mein jetziges hat zum glück 38A @ 12V... das langt so eben grade, das nächste hat 55A @ 12V(65A peak). ;D

das langt dann auch für nen quad SLI. :cool:

stickedy
2005-06-20, 00:58:27
:ucrazy:

Leonidas
2005-06-20, 01:08:47
Wenn die Angaben von Digital-info (http://www.hardtecs4u.com/images/news/Nvidia_GeForce7800-lange.jpg)stimmen, dass eine einzelne GF7 169W verbrät,



Das war die Messung des Gesamtsystems.




Minimum System Requirements
>> A minimum 400W system power supply (with 12V current rating of 26A or more)


Hat nVidia inzwischen schon wieder minimal gesenkt, ist nicht mehr aktuell.

deekey777
2005-06-20, 01:15:25
:ucrazy:

Ach komm, das bringt nichts. Es gibt nunmal kein perfektes Netzteil. Aber es ist sinnlos den 500W NT Usern zu beweisen, daß es auch mit weniger ginge, wenn das NT perfekt wäre.

Cyberboy
2005-06-20, 01:18:46
Das war die Messung des Gesamtsystems.


Kann nicht stimmen!

1. Gibt es bei Digital-Info ein weiteres Pic mit etwa 291 Watt
2. Wird gemäss Digital-Info ein AMD Athlon FX 57 benutzt
3. Eine GeForce 7800GTX soll etwa 100 Watt saugen, war zumindes so bisher bekannt, wenn hier also die übertaktete gemessen wurde, warum nicht...

Gast
2005-06-20, 01:33:06
Blödsinn - schlicht und ergreifend

Edit: Und der Beweis findet sich sogar auf der Seite selber! Für eine Karte werden 26A auf der 12V-Schiene empfohlen und für 2 Karten (SLI) sind es 34A, also genau 8A für eine Karte, was dann maximal 96W bedeutet (und es ist wohl eher viel weniger, die Hersteller übertreiben ja gerne).

So, haben wir also 8A für eine Karte. Damit bleiben von den empfohlenen 26A noch 18A für den gesamten Rest des PCs übrig! Und was da bitte 18A von der 12V-Scheine (oder besser 216W Leistung) verbrauchen soll, ist mir ein Rätsel!! :rolleyes: Schwachsinn, ganz einfach...Angenommen, das mit den 8A (96W) würde stimmen.
Dann hätte man selbst bei Markennetzteilen noch immer das Problem, dass nur noch 4A - 7A (48W - 84W) auf der 12V übrig blieben - für das gesamte System! Bei den heutigen CPUs klingt das sehr unglaubwürdig.

lol, also mit 20A @ 12V wollte mein rechner nichtmal sauber laufen mit A64 @ oc und EINER 6800U.

und es war nen marken netzteil. :P


mein jetziges hat zum glück 38A @ 12V... das langt so eben grade, das nächste hat 55A @ 12V(65A peak). ;D

das langt dann auch für nen quad SLI. :cool:
Das sagt wohl alles.

Ailuros
2005-06-20, 01:54:35
Das sagt wohl alles.

Wer jegliche Komponente uebertakten will, sollte auch ein staerkeres Netzteil besorgen, egal ob es sich jetzt um die CPU oder die GPU handelt.

Auf jeden Fall wuerde ich nicht erwarten dass ein IHV jegliche Uebertaktungen bei den minimalen Vorraussetzungen mitberechnen wuerde.

Sowieso eine irrsinnige Debatte; wer =/>500 euros fuer eine GPU ausgeben wird, wird wohl jetzt nicht zu geizig sein noch 100-150 euros fuer eine PSU hinzulegen falls man diese auch wirklich braucht. Die Mehrzahl der NV40-User haben schon seit einiger Zeit PSUs die selbst eine G70 unterbringen koennten.

Ganz OT: frueher uebertaktete ich regelmaessig alle CPUs; so langsam ist mir das Ganze aber zu bunt geworden; ueberhaupt seit ich die Aufloesungen in Spielen und AA/AF settings weiterhin durch die Jahre nach oben skalierte. Etwas ueber ein Jahr und dann kommt eine neue CPU.

SKYNET
2005-06-20, 02:10:17
Kann nicht stimmen!

1. Gibt es bei Digital-Info ein weiteres Pic mit etwa 291 Watt
2. Wird gemäss Digital-Info ein AMD Athlon FX 57 benutzt
3. Eine GeForce 7800GTX soll etwa 100 Watt saugen, war zumindes so bisher bekannt, wenn hier also die übertaktete gemessen wurde, warum nicht...


der FX zieht 40W, die karte gute 80W, bleiben noch gute 50W für speicher, mobo und laufwerke... =)

SKYNET
2005-06-20, 02:16:14
Ganz OT: frueher uebertaktete ich regelmaessig alle CPUs; so langsam ist mir das Ganze aber zu bunt geworden; ueberhaupt seit ich die Aufloesungen in Spielen und AA/AF settings weiterhin durch die Jahre nach oben skalierte. Etwas ueber ein Jahr und dann kommt eine neue CPU.


sei ehrlich, vermisst du das getakte nicht? ;)

Leonidas
2005-06-20, 02:16:55
Kann nicht stimmen!

1. Gibt es bei Digital-Info ein weiteres Pic mit etwa 291 Watt




... mit zwei GTX-Karten - und wieder das Gesamtsystem.

Xmas
2005-06-20, 02:25:01
Kann nicht stimmen!

1. Gibt es bei Digital-Info ein weiteres Pic mit etwa 291 Watt
2. Wird gemäss Digital-Info ein AMD Athlon FX 57 benutzt
3. Eine GeForce 7800GTX soll etwa 100 Watt saugen, war zumindes so bisher bekannt, wenn hier also die übertaktete gemessen wurde, warum nicht...
Natürlich kann das stimmen, allerdings ist das vielleicht nicht unter Volllast. 169 W für die Karte allein wären ja schon weit außerhalb der elektrischen Spezifikationen der Anschlüsse (75 W über PCIe, 75 W über den zusätzlichen Stecker). Sowas käme bestimmt nicht in den Handel.

Gast
2005-06-20, 02:31:40
... mit zwei GTX-Karten - und wieder das Gesamtsystem.
Mit einer Karte -> 169W
Mit zwei Karten -> 291W
Für die zweite Karte zusätzlich benötigt: 122W

SKYNET
2005-06-20, 02:39:49
Natürlich kann das stimmen, allerdings ist das vielleicht nicht unter Volllast. 169 W für die Karte allein wären ja schon weit außerhalb der elektrischen Spezifikationen der Anschlüsse (75 W über PCIe, 75 W über den zusätzlichen Stecker). Sowas käme bestimmt nicht in den Handel.


lass es, redest dir eh nur den mund fusselig ohne das es bei den fanboys ankommt. ;)

Ailuros
2005-06-20, 03:06:52
sei ehrlich, vermisst du das getakte nicht? ;)

Nein eigentlich ueberhaupt nicht; mit dem subtropischen Klima hier brauchte ich stets extravagantere Kuehlungsloesungen wie ihr Kerle.

Leonidas
2005-06-20, 03:18:26
Mit einer Karte -> 169W
Mit zwei Karten -> 291W
Für die zweite Karte zusätzlich benötigt: 122W



Ganz genau. Wobei das leicht überhalb der Specs liegt. Waren die Karten übertaktet?

SKYNET
2005-06-20, 03:18:36
Nein eigentlich ueberhaupt nicht; mit dem subtropischen Klima hier brauchte ich stets extravagantere Kuehlungsloesungen wie ihr Kerle.


subtropisch? wo treibste dich denn rum? :|

[edit] hab glaub ich schon... griechenland?!

Ailuros
2005-06-20, 04:54:17
Ja.

Cyberboy
2005-06-20, 08:16:47
... mit zwei GTX-Karten - und wieder das Gesamtsystem.

http://pic.digital-info.net/autumn/7800GTX/Preview/018.jpg

Ich sehe nur eine...

Ich gehe davon aus, dass das mit den übertakteten Karten gemessen wurde...

Cyberboy
2005-06-20, 08:24:18
Natürlich kann das stimmen, allerdings ist das vielleicht nicht unter Volllast. 169 W für die Karte allein wären ja schon weit außerhalb der elektrischen Spezifikationen der Anschlüsse (75 W über PCIe, 75 W über den zusätzlichen Stecker). Sowas käme bestimmt nicht in den Handel.

Könnte eben die übertaktete Version sein, welche die messen...

Core Normal 430 MHz, sie übertakten sie auf 508 MHz, macht ca. 18% mehr, ebenso der Speichertakt...1.200 zu 1.370 MHz... die wird garantiert deutlich mehr saufen, vielleicht über der Spezifikation, hat das OC je interessiert?

@Skynet
Das hat überhaupt nichts mit Fanboygetue zu tun...

dildo4u
2005-06-20, 08:41:27
Oh man ist das so schwer das eine ist im idle das andere unter lasst was auch gut hinkommt wenn man bedenkt das mit C n Q der FX relativ wenig verbraucht und die karte sich im 2D auch runtertaktet.Und 291watt last sind gar nix in der PCGH haben sie schon 320watt für ein FX55 mit einem 6800U SLI gemessen.


Volles system keine LAST
http://www.hardtecs4u.com/images/news/Nvidia_GeForce7800-Watt.jpg

Volles system vollast
http://pic.digital-info.net/autumn/7800GTX/Preview/018.jpg