Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42

reunion
2005-06-03, 15:58:46
Das und die jetzige Vorstellung von MVP, welches dann sogar erst ab August verfügbar ist, lassen mich momentan vermuten, das der r520 nicht vor Weihnachten aufschlägt....

Aus welchen Gründen auch immer.......


R520 hatte schon 2004 sein Tapeout und bereits seit März sind diverse Spielehersteller im Besitz von voll funktionsfähigen R520-Karten, deine Spekulationen entbehren also jeglicher Logik.

mapel110
2005-06-03, 16:01:15
R520 hatte schon 2004 sein Tapeout und bereits seit März sind diverse Spielehersteller im Besitz von voll funktionsfähigen R520-Karten, deine Spekulationen entbehren also jeglicher Logik.
fragt sich nur, welchen Takt diese voll-funktionsfähigen Karten besitzen. ;)

Gast
2005-06-03, 16:02:04
Das und die jetzige Vorstellung von MVP, welches dann sogar erst ab August verfügbar ist, lassen mich momentan vermuten, das der r520 nicht vor Weihnachten aufschlägt....

Aus welchen Gründen auch immer.......
Das lässt doch wohl eher auf einen Relase im August schließen. :|

Konsolenfreund

r3ptil3
2005-06-03, 16:02:18
R520 hatte schon 2004 sein Tapeout und bereits seit März sind diverse Spielehersteller im Besitz von voll funktionsfähigen R520-Karten, deine Spekulationen entbehren also jeglicher Logik.

Und sowieso ATI kann es sich nicht gefallen lassen wie 2x G70 die 2x X850 XT PE zerstören. Wenn im Juni erste Geforce 7800 verfügbar sind dann wird ATi sicherlich nicht lange warten.

Gast
2005-06-03, 16:02:53
fragt sich nur, welchen Takt diese voll-funktionsfähigen Karten besitzen. ;)
Das muss man sich bei frühen Samples wohl immer fragen. Worauf willst Du denn hinaus?

Konsolenfreund

Gast
2005-06-03, 16:03:14
R520 schon Anfang 2005?

reunion
2005-06-03, 16:05:05
fragt sich nur, welchen Takt diese voll-funktionsfähigen Karten besitzen. ;)


Irrelevant, wenn es seit März Karten gibt(G70 Karten soll es im übrigen auch erst seit März geben), ist eine Verfügbarkeit im Dezember Blödsinn.

r3ptil3
2005-06-03, 16:09:26
R520 schon Anfang 2005?

Hehe :D , läuft halt nicht immer alles nach Plan...

deekey777
2005-06-03, 16:11:02
R520 schon Anfang 2005?

Der Threadtitel wird nicht angepaßt. Okäy?

ShadowXX
2005-06-03, 16:12:05
Irrelevant, wenn es seit März Karten gibt(G70 Karten soll es im übrigen auch erst seit März geben), ist eine Verfügbarkeit im Dezember Blödsinn.

Wenn ATI nach Ihren eigenen Angaben die Crossfire-Karten erst im August rausbringt (kaufbar), dann hätten Sie es nebenbei miterwähnt, wenn es ab dann auch schon r520-Karten zu kaufen gäbe.

Ich sehe auch noch keine im Juli kaufbaren G70-Karten.

Gast
2005-06-03, 16:14:04
Wenn ATI nach Ihren eigenen Angaben die Crossfire-Karten erst im August rausbringt (kaufbar), dann hätten Sie es nebenbei miterwähnt, wenn es ab dann auch schon r520-Karten zu kaufen gäbe.
Wie kommst Du zu dieser Aussage? Wieso sollte ATi das den tun? Wäre doch nur kontraproduktiv.

Konsolenfreund

reunion
2005-06-03, 16:17:02
Wenn ATI nach Ihren eigenen Angaben die Crossfire-Karten erst im August rausbringt (kaufbar), dann hätten Sie es nebenbei miterwähnt, wenn es ab dann auch schon r520-Karten zu kaufen gäbe.


Auch dieser Satz ergibt für mich keinen Sinn.
Dass R420 überhaupt noch 'Crossfire-Ready' gemacht wurde liegt vermutlich an zu hohen Lagerbeständen, hat aber aus meiner Sicht nichts mit R520 zu tun.

mapel110
2005-06-03, 16:18:41
Auch dieser Satz ergibt für mich keinen Sinn.
Dass R420 überhaupt noch 'Crossfire-Ready' gemacht wurde liegt vermutlich an zu hohen Lagerbeständen, hat aber aus meiner Sicht nichts mit R520 zu tun.
zu hohe Lagerbestände bei einer Grakageneration, die praktisch nie große Verfügbarkeit erreichte?!

reunion
2005-06-03, 16:21:31
zu hohe Lagerbestände bei einer Grakageneration, die praktisch nie große Verfügbarkeit erreichte?!


X800/850-Karten bekommt man mittlerweile praktisch überall.
Ich gehe davon aus, dass G70/R520-Karten annähernd parallel auf den Ladentisch wandern.

ShadowXX
2005-06-03, 16:24:23
Wie kommst Du zu dieser Aussage? Wieso sollte ATi das den tun? Wäre doch nur kontraproduktiv.

Konsolenfreund

Sehr sinnig....ATI sagt also ab August gibts Crossfire und ein paar Leute legen sich schon Geld dafür zurück.

Und dann kommen Sie nächsten Monat damit an, das es auch r520 ab August gibt....was werden die Leute dann eher kaufen.

Damit das ganze mit Crossfire (und einer reinen x8x0-Vorstellung des ganzen) überhaupt Sinn ergibt, muss der r520 quasi 1-2 Monate noch den Crossfirekarten rauskommen.

Gast
2005-06-03, 17:11:02
Sehr sinnig....ATI sagt also ab August gibts Crossfire und ein paar Leute legen sich schon Geld dafür zurück.

Und dann kommen Sie nächsten Monat damit an, das es auch r520 ab August gibt....was werden die Leute dann eher kaufen.

Damit das ganze mit Crossfire (und einer reinen x8x0-Vorstellung des ganzen) überhaupt Sinn ergibt, muss der r520 quasi 1-2 Monate noch den Crossfirekarten rauskommen.
Das sehe ich nicht so. Crossfire kommt ja auch für den R520. Und die X8xx Crossfirekarten kommen halt trotzdem, denn für einige Leute könnte es durchaus interessant sein ihr X8xx System nochmal zu beflügeln.

Ich kann deinen Gedanken schon nachvollziehen, aber ehrlich gesagt glaube ich sowieso nicht, dass ATI mit großen Umsätzen bei X8xx Crossfirekarten rechnet und die X8xx Crossfirekarten einfach nachgeliefert werden, um interessierten Kunden was zu geben. Die X8xx Corssfire karten sollen ja nicht gegen die R520 Corssfire karten antreten, sondern sollen X8xx Besitzern nachträglich erlauben ihr System aufzurüsten, wenn die 2. Karten etwas günstiger zu bekommen ist.

Außerdem sind X8xx Crossfirekarten günstig angeboten ideal, um alte R4xx bestände abzuverkaufen. Manche Leute kaufen sich halt leiber ne 350€ X8xx karte als Crossfirekarte dazu, als 600€ für ne R520 Karte auszugeben.

Ich will dir damit aufzeigen, man bei solchen Spekulationen, die Du anstellst, durchaus sinnige Gegenspekulationen anstellen kann.


Konsolenfreund

Gast
2005-06-03, 17:13:58
zu hohe Lagerbestände bei einer Grakageneration, die praktisch nie große Verfügbarkeit erreichte?!
Was ist das denn nun wieder für eine Aussage? Bist Du in den ersten Monaten nach NV40/R420 Release stecken gebleiben? Verfügbarkeitsprobleme gibts schon lange nicht mehr.

deekey777
2005-06-03, 17:16:47
Auch dieser Satz ergibt für mich keinen Sinn.
Dass R420 überhaupt noch 'Crossfire-Ready' gemacht wurde liegt vermutlich an zu hohen Lagerbeständen, hat aber aus meiner Sicht nichts mit R520 zu tun.

Ohne passende und funktionierende Chipsätze gibt's kein CrossFire. ATi ist nunmal Neuling, dagegen lieferte nVidia gleich mit dem nForce eine Bombe.

reunion
2005-06-03, 17:19:52
Damit das ganze mit Crossfire (und einer reinen x8x0-Vorstellung des ganzen) überhaupt Sinn ergibt, muss der r520 quasi 1-2 Monate noch den Crossfirekarten rauskommen.


Wäre natürlich auch eine Möglichkeit.
Es könnte tausende Gründe für diese Vorgehen von ATi geben, vielleicht will man einfach den Absatz der RD480/400-Chipsätzte ankurbeln?

Tigerchen
2005-06-03, 17:30:24
Was ist das denn nun wieder für eine Aussage? Bist Du in den ersten Monaten nach NV40/R420 Release stecken gebleiben? Verfügbarkeitsprobleme gibts schon lange nicht mehr.


Trotzdem sind die X800XL bei uns immer nur von Shop zu Shop un dvon Zeit zu Zeit verfügbar. Also große Lagerbestände wird da wohl kaum geben.

Tigerchen
2005-06-03, 17:32:58
Und sowieso ATI kann es sich nicht gefallen lassen wie 2x G70 die 2x X850 XT PE zerstören. Wenn im Juni erste Geforce 7800 verfügbar sind dann wird ATi sicherlich nicht lange warten.


Es ist Juni. Wo ist die G70?

deekey777
2005-06-03, 17:40:44
Es ist Juni. Wo ist die G70?


Der Juni hat 30 Tage. Die G70 Generation soll am 21. Juni präsentiert werden - mit Blackjack und Nutten.

Crushinator
2005-06-03, 17:42:47
[COLOR="#000088"]
Es ist Juni. Wo ist die G70?
Der Juni ist doch noch gar nicht vorbei. ;)
Der Juni hat 30 Tage. Die G70 Generation soll am 21. Juni präsentiert werden - mit Blackjack und Nutten.
Blackjack wohl eher nicht. ;D

DrumDub
2005-06-03, 17:51:06
Der Juni hat 30 Tage. Die G70 Generation soll am 21. Juni präsentiert werden - mit Blackjack und Nutten. DAS glaube ich nicht... das wird eher so laufen: "Was ist denn das für eine Party? Ohne Alkohol und nur eine Nutte!" ;D

Quasar
2005-06-03, 17:55:20
Der Juni hat 30 Tage. Die G70 Generation soll am 21. Juni präsentiert werden - mit Blackjack und Nutten.
Yeeeeeeeeeeeeehaw!!!!

sry4spam.
*irgendeinencontentfürdaspostingsucht*
ähm, die Geschichte, daß Sony nV im Gegenzug für das IP Produktionskapazitäten für den G70 oder Nachfolger zur Verfügung stellen, finde ich interessant - denn wenn die architektonische Ähnlichkeit wirklich so weit gediehen ist, wie manche sagen, dann könnte man so prima die TSMC-Abhängigkeit in der Anfangsphase der 90nm-Fertigung kompensieren und vielleicht sogar wirkliche Stückzahlen liefern. Sony im Gegenzug hat, wenn dann im Dezember vielleicht Stückzahlen des RSX vom Band laufen sollen, schon einen ausgereifteren und nah am endgültigen Design erprobten Prozess und kann von Anfang an auf gute Yields hoffen.

deekey777
2005-06-03, 17:59:25
DAS glaube ich nicht... das wird eher so laufen: "Was ist denn das für eine Party? Ohne Alkohol und nur eine Nutte!" ;D

http://www.gamespot.com/news/2005/06/02/news_6126883.html

"...
Festivities will open with cocktails and a case-mod contest before the start of the scheduled press conference with live product demonstrations. The evening will conclude with a reception including hands-on product demonstrations and a Battlefield 2 LAN Party.
..."

Zu dieser News gab es auch pöses Flame-Posting im [DH] Forum (http://www.driverheaven.net/showthread.php?t=76247). :D

Sorry für OT, aber es gibt keinen Zusammenhang bei der Verfügbarkeit zw. dem R420 uder der X800XL

seahawk
2005-06-03, 18:00:46
Wenn die Crossfirekarten erst im August kommen, wird die Vorstellung des r520 nicht vor September sein (ich schätz eher anfang Oktober).

Man will sich ja das Geschäft nicht selbst Kaputtmachen.

Anfang Oktober + 1-2 Monate ist dann November-Dezember.

Es ist kein Problem wenn gilt

R520 < 2xR480 < 2x R520 :wink:

Leonidas
2005-06-03, 20:56:27
sch... wohl nicht unbedingt in allen fällen. er hat offensichtlich schon seine quellen, nur scheint er meist nicht in der lage, die informationen, die er bekommt, richtig zu interpretieren.




Korrekt. Man müsste bei den Börsen-Analüsten mal einen sitzen haben, der sich wirklich mit Chips auskennt, dann würden die Infos nur so sprudeln.

Leonidas
2005-06-03, 21:06:03
CrossFire ist doch in erster Linie ein günstiger Marketing-Erfolg. Um den gleichen Erfolg mittels eines Grafikchips zu erreichen, müsste man 100+ Mio. investieren. Deswegen CrossFire - maximale Aufmerksamkeit für wenig Geld. Ob man davon was absetzt, ist doch schon fast zweitrangig.

Aber natürlich kurbelt man damit das Geschäft an, was nie verkehrt ist und beschert vor allem den kommenden neuen ATI Mainboard-Chipsätzen, die bisher noch nicht so toll im Markt präsent sind, einen guten Start durch deren CrossFire-Logo.

ShadowXX
2005-06-03, 21:09:43
Es ist kein Problem wenn gilt

R520 < 2xR480 < 2x R520 :wink:

Nur das ATI wohl zusammen mit dem release des r520 auch gleich kräftig für SM3.0 (und wohl auch HDR) trommeln wird....

Und was wird dann gekauft...."alte" Technologie oder das neuste vom neusten?

(selbst wenn ein einzelner r520 etwas langsamer als 2xr480 sein sollte)

Die Idee mit dem Ankurbeln der Chipsatzverkäufe fand ich übrigens auch nicht schlecht....

Trotzdem (und ich akzeptiere durchaus die Meinungen von Reunion und Konsolenfreund, das es auch ganz anders kommen könnte) finde ich die momentane Taktik von ATI etwas "merkwürdig"...

P.S.
mit Weihnachten meinte ich immer das Weihnachtsquartal (also Oktober-Dezember)....war blöd ausgedrückt.

reunion
2005-06-03, 21:27:58
Und was wird dann gekauft...."alte" Technologie oder das neuste vom neusten?



Irrelevant, selbst wenn man nicht eine einzige R420-Crossfirekarte verkaufen würde, kann das ATi egal sein. Der Verkauf von High-End war schon immer Werbung und nicht Profit. Wie man sieht, gibt es einen relativ großen Wirbel um Crossfire und mehr wollte ATi höchstwarscheindlich nicht - Marketing.
Vermutlich wird man im August, wenn aufgrund des R520 sowieso kaum noch interesse an R420 Karten besteht, eine Hand voll Crossfire-Karten auf Basis des R420 herrausbringen und diese sobald wie möglich wieder einstellen.

Diskutator
2005-06-03, 21:38:36
Irrelevant, selbst wenn man nicht eine einzige R420-Crossfirekarte verkaufen würde, kann das ATi egal sein. Der Verkauf von High-End war schon immer Werbung und nicht Profit. Wie man sieht, gibt es einen relativ großen Wirbel um Crossfire und mehr wollte ATi höchstwarscheindlich nicht - Marketing.
Vermutlich wird man im August, wenn aufgrund des R520 sowieso kaum noch interesse an R420 Karten besteht, eine Hand voll Crossfire-Karten auf Basis des R420 herrausbringen und diese sobald wie möglich wieder einstellen.

Hallo,

das wird nicht eintreten, denke ich! Crossfire wird gerade bei den Gaming-PC's bis 999€ einziehen! Vom G70 wird es zu beginn auch nur "Hand"- Verlesene Stückzahlen geben! Das Volumen wird meiner Meinung nach erst im August/September bei beiden laufen!

Gast
2005-06-03, 23:36:51
Wird CrossFire eigentlich auch für FireGL Karten funktionieren?

deekey777
2005-06-03, 23:47:59
Wird CrossFire eigentlich auch für FireGL Karten funktionieren?


Irgendwo stand, wenn der Markt es verlangt. Vielleicht irre ich mich.

Hauwech
2005-06-04, 00:32:14
Da macht ATI aber einen Fehler das nicht von Anfang an anzubieten. Statt nur einmal mit einer FireGL zu kassieren wäre es mit CF und passendem Chipsatz dreimal möglich. FireGL und Quadro Karten sind ja auch nicht ganz billig. Die für den Profibereich vorgesehenen Chips geben die beiden bestimmt auch nicht zu den gleichen Preisen wie die Desktopchips ab.

In dem Bereich ist Nvidia imho cleverer SLI konsequenter durchzuziehen. Die Opteron Chipsätze (2200/2050) wurden mit Sicherheit auch nicht nur für Anteile bei Chipsätzen im Workstationbereich entwickelt. Zusammen mit Quadro Karten und SLI im Hinterkopf kann man da bestimmt ein erklägliches Sümmchen verdienen.

Falls dem wirklich so ist CF im semi- bzw professionellen Bereich nur bei Bedarf anzubieten, baut sich ATI imho einen dicken Bock. Vielleicht ändert es sich ja mit dem R520.

ShadowXX
2005-06-04, 10:22:17
Da macht ATI aber einen Fehler das nicht von Anfang an anzubieten. Statt nur einmal mit einer FireGL zu kassieren wäre es mit CF und passendem Chipsatz dreimal möglich. FireGL und Quadro Karten sind ja auch nicht ganz billig. Die für den Profibereich vorgesehenen Chips geben die beiden bestimmt auch nicht zu den gleichen Preisen wie die Desktopchips ab.

In dem Bereich ist Nvidia imho cleverer SLI konsequenter durchzuziehen. Die Opteron Chipsätze (2200/2050) wurden mit Sicherheit auch nicht nur für Anteile bei Chipsätzen im Workstationbereich entwickelt. Zusammen mit Quadro Karten und SLI im Hinterkopf kann man da bestimmt ein erklägliches Sümmchen verdienen.

Falls dem wirklich so ist CF im semi- bzw professionellen Bereich nur bei Bedarf anzubieten, baut sich ATI imho einen dicken Bock. Vielleicht ändert es sich ja mit dem R520.

Ausser Reunion hat recht und die Crossfirekarten auf Basis der x8x0-Serie sind wirklich nur ein Marketinggag um im "Gespräch" zu bleiben.

Aber ob das stimmt wissen wir erst, wenn man so gut wie überhaupt nicht an die Crossfires rankommt....

Ailuros
2005-06-04, 11:34:24
Ausser Reunion hat recht und die Crossfirekarten auf Basis der x8x0-Serie sind wirklich nur ein Marketinggag um im "Gespräch" zu bleiben.

Aber ob das stimmt wissen wir erst, wenn man so gut wie überhaupt nicht an die Crossfires rankommt....

Nein so gesehen eigentlich nicht; ein marketing-technischer Schachzug als Reaktion auf SLi gedacht. Wenn Du mich jetzt fragst was jetzt anders ist mit meiner Definition, wenn man sich schon im Gespraech halten will, dann sollte man auch komplette Blamagen vermeiden.

ATI wird schon Crossfire-Systeme gut verkaufen koennen IMHO. Diejenigen fuer die der Preis keine Rolle spielt haben jetzt eben eine Auswahl zwischen SLi und Crossfire.

Dass R5xx-Crossfire etwas besser ausgedacht sein wird kann sich ja wohl jeder erraten; und natuerlich wird NVIDIA mit "SLi-Part deux" auch nicht unbedingt stillhocken. Business and marketing as usual ;)

Quasar
2005-06-04, 11:38:18
CrossFire und FireGL stehen evtl. auch vertragliche Verpflichtungen mit E&S im Wege - wer würde denn noch deren, auf SuperTiling und damit nicht skalierbare Geometrie (!) festgelegt "Durchführungsbiester" kaufen?

Ailuros
2005-06-04, 12:02:05
CrossFire und FireGL stehen evtl. auch vertragliche Verpflichtungen mit E&S im Wege - wer würde denn noch deren, auf SuperTiling und damit nicht skalierbare Geometrie (!) festgelegt "Durchführungsbiester" kaufen?

Und mit welcher Logic entstand genau die SLi Idee? Quantum 3D Independence Systems (seit 2001).

Quasar
2005-06-04, 13:18:08
Und mit welcher Logic entstand genau die SLi Idee? Quantum 3D Independence Systems (seit 2001).
Ich verstehe deine Frage nicht so ganz.

nV und Q3D stehen nicht in Konkurrenz in der Weise, in der es ATi (via FireGL als Hersteller und Verkäufer) und E&S tun. Zumal vielleicht CrossFire ehemals proprietäre E&S-Technik nutzt.

Da wäre ich an E&S' Stelle darauf bedacht, mir meine Märkte zu sichern.

Ailuros
2005-06-04, 13:31:57
Ich verstehe deine Frage nicht so ganz.

nV und Q3D stehen nicht in Konkurrenz in der Weise, in der es ATi (via FireGL als Hersteller und Verkäufer) und E&S tun. Zumal vielleicht CrossFire ehemals proprietäre E&S-Technik nutzt.

Da wäre ich an E&S' Stelle darauf bedacht, mir meine Märkte zu sichern.

Welche E&S proprietaere Technik (ja ehrliche Frage)? ATI hat doch das SuperTiling Patent (-e) schon seit einiger Zeit veroeffentlicht.....Was verpass ich gerade?

***edit: simFusion sind uebrigens multi-chip boards, waehrend Crossfire eigentlich multi-board configs betrifft.

Zwischen Q3D und NVIDIA sind es multi-board configs in den Independence Systemen so wie in etwa desktop/SLi. Multi-chip configs auf SLi basierend ist dann wohl eher eine Initiative einiger Vendors.

Quasar
2005-06-04, 13:40:08
Die Compositing Engine sowie Erfahrungen mit dem Treiber kommen möglicherweise von E&S.

Klar sind die Renderbeasts mit SimFusion Multi-Chip-Multi-Board Systeme, aber wenn ich jetzt mal die reine, theoretische AFR-Power nehmen, dann habe ich mit 2x X850XT PE in etwa 17 GPix/s. Das sind schon etwa 7-8 R300.
Da dürfte mancher eventuell schwach werden, der nicht die Riesenleistung der Renderbeasts benötigt, sie sich ansonsten aber mangels Alternative evtl. doch hätte kaufen müssen.

Das meine ich. Da wird sich E&S sicher nicht selbst kannibalisieren, genauso wie ATi, wenn einer ihrer Partner bereits jahrelange Erfahrung mit der Technik hat, sicher nicht nur aus Spaß das Rad neu erfinden wird.

deekey777
2005-06-04, 13:44:20
Hier ist die Compositing Engine:
http://www.hardware.fr/articles/573/page2.html

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3108132&postcount=637

Meine zweite Frage. Ehlrich gesagt wäre ich nicht mehr ganz so sicher, daß die CrossFire Technologie, aber insb. die Compositing Engine von E&S kommen, es ist eher ein Zufall. Ist aber alles nur Speku.

Gast
2005-06-04, 13:48:43
Termin für die Vorstellung des R520 scheint der 26. Juli zu sein:
http://www.vr-zone.com/?i=2290&s=1

Winter[Raven]
2005-06-04, 14:24:01
Termin für die Vorstellung des R520 scheint der 26. Juli zu sein:
http://www.vr-zone.com/?i=2290&s=1

> 1 Monat später als Nvidia :confused: ... wenn Nvidia ihr Versprechen werden lässt die Grakas kurz nach der Vorstellung verfügbar zumachen...

SKYNET
2005-06-04, 14:38:59
']> 1 Monat später als Nvidia :confused: ... wenn Nvidia ihr Versprechen werden lässt die Grakas kurz nach der Vorstellung verfügbar zumachen...


und dann haben schon alle eine G70. ;D

deekey777
2005-06-04, 14:44:50
und dann haben schon alle eine G70. ;D

Und die allen haben einige Zeit bester Laune zu sein, bevor der R520 ihnen die Lust am Leben vermiest... Alles klar?

Und ich glaube kaum, daß die neue Generation - weder von ATi oder von nVidia - so schnell in den Läden ist.

Thowe
2005-06-04, 14:56:00
und dann haben schon alle eine G70. ;D

:uclap:

Wie geistreich.

r3ptil3
2005-06-04, 15:07:31
und dann haben schon alle eine G70. ;D

Ich mal sicher :D

SKYNET
2005-06-04, 15:08:27
:uclap:

Wie geistreich.


ja fand ich auch. X-D

aber die leute die auf speed stehn werden sich halt gleich die G70 in rechner holen.

crusader4
2005-06-04, 15:23:12
ja fand ich auch. X-D

aber die leute die auf speed stehn werden sich halt gleich die G70 in rechner holen.Du hast insofern recht, das sich in dieser Runde die Karten nicht durch Technik (zumindest nicht für den Endverbraucher) und (so wie es bisher gerüchteweise aussieht) auch kaum durch Speed unterscheiden werden. Es zählen aus meiner Sicht also eher "Softskills" wie:

Verfügbarkeit
Treiber (Bugs, Kompatibilität)
Ausstattung (Speicher, Anschlüsse, Bundles)
Support
persönliche Vorlieben
Seht ihr das ähnlich oder liege ich mit dieser Einschätzung daneben (hab von Grafikchips nicht wirklich Ahnung, verfolge nur die Diskussionen hierzu).

Grüße, Crusader

DrumDub
2005-06-04, 15:24:25
aber die leute die auf speed stehn werden sich halt gleich die G70 in rechner holen. du meinst wohl eher die leute, die auf nv stehen. X-D

r3ptil3
2005-06-04, 15:27:15
du meinst wohl eher die leute, die auf nv stehen. X-D

Falls G70 wirklich schon Juli im Handel ist und der R520 erst im Juni vergestellt wird dann ist der Kauf einer G70 Karte allemal eine überlegung wert.

Gast
2005-06-04, 15:28:08
Du hast insofern recht, das sich in dieser Runde die Karten nicht durch Technik (zumindest nicht für den Endverbraucher) und (so wie es bisher gerüchteweise aussieht) auch kaum durch Speed unterscheiden werden. Es zählen aus meiner Sicht also eher "Softskills" wie:

Verfügbarkeit
Treiber (Bugs, Kompatibilität)
Ausstattung (Speicher, Anschlüsse, Bundles)
Support
persönliche Vorlieben
Seht ihr das ähnlich oder liege ich mit dieser Einschätzung daneben (hab von Grafikchips nicht wirklich Ahnung, verfolge nur die Diskussionen hierzu).

Grüße, Crusader
Das könnte sein, muss aber nicht sein. Wenn der G70 kommt und vorschnelle Kunden sich die sündhaften teuren Karten kaufen, kann das ganz schön traurig enden, wenn die R520 Karten dann z.B. 1,5 Monate später Spiele mit HDR 30% schneller rendern.

Man weiß einfach noch nicht wie schnelle die Karten allgemeine sind oder insbesondere mit speziellen Features wie z.B. HDR.

Konsolenfreund

Godmode
2005-06-04, 15:28:13
Du hast insofern recht, das sich in dieser Runde die Karten nicht durch Technik (zumindest nicht für den Endverbraucher) und (so wie es bisher gerüchteweise aussieht) auch kaum durch Speed unterscheiden werden. Es zählen aus meiner Sicht also eher "Softskills" wie:

Verfügbarkeit
Treiber (Bugs, Kompatibilität)
Ausstattung (Speicher, Anschlüsse, Bundles)
Support
persönliche Vorlieben
Seht ihr das ähnlich oder liege ich mit dieser Einschätzung daneben (hab von Grafikchips nicht wirklich Ahnung, verfolge nur die Diskussionen hierzu).

Grüße, Crusader

Ich denke da hat jeder seine eigenen Ansichten. Ich zb würde liebend gerne Grakas als Bulk Versionen kaufen d.h. ohne jegliche Kabel, Spiele,... brauch das Zeugs nicht. Auf was es aber viele noch ankommt ist zb Lautstärke, Stromverbrauch, Platinengröße... Verfügbarkeit könnte aber diese Runde sicher eines der Hauptaugenmerke sein!

Godmode
2005-06-04, 15:29:22
Falls G70 wirklich schon Juli im Handel ist und der R520 erst im Juni vergestellt wird dann ist der Kauf einer G70 Karte allemal eine überlegung wert.

Ich kaufe doch keine Karte wenn der andere IHV seine Karte noch nicht auf den Tisch gelegt hat!

Gast
2005-06-04, 15:30:34
Falls G70 wirklich schon Juli im Handel ist und der R520 erst im Juni vergestellt wird dann ist der Kauf einer G70 Karte allemal eine überlegung wert.
Auch wenn er R520 der bessere Chip ist? Ich meine wer sich einen G70 kauft, ohne zu wissen wie schnell der R520 ist, der sollte sich mal Gedanken um sein Kaufverhalten machen.

Kf

r3ptil3
2005-06-04, 15:32:38
Auch wenn er R520 der bessere Chip ist? Ich meine wer sich einen G70 kauft, ohne zu wissen wie schnell der R520 ist, der sollte sich mal Gedanken um sein Kaufverhalten machen.

Kf

Beim Launch vom G70 werden 100% paar Benchmarks vom R520 im Netzt landen.
Und ich teste gerne selber...

mapel110
2005-06-04, 15:33:03
Auch wenn er R520 der bessere Chip ist? Ich meine wer sich einen G70 kauft, ohne zu wissen wie schnell der R520 ist, der sollte sich mal Gedanken um sein Kaufverhalten machen.

Kf
oder derjenige hat genug Geld und es spielt für ihn keine Rolle. Außerdem gibts ja noch die Leute, die lieber selbst ein Produkt testen. ;)
Beim Launch vom G70 werden 100% paar Benchmarks vom R520 im Netzt landen.
Das glaube ich nicht. ATI wird sich schon Gedanken gemacht haben, wann der beste Zeitpunkt für einen Launch ist.

Bislang siehts für mich jedenfalls so aus, dass ATI eher versucht, den Launch soweit rauszuzögern, weil sie selbst nicht zufrieden mit dem Produkt sind oder weil es mit der Verfügbarkeit noch nicht gut aussieht und man keinen Paperlaunch hinlegen möchte.

Thowe
2005-06-04, 15:35:16
ja fand ich auch. X-D

aber die leute die auf speed stehn werden sich halt gleich die G70 in rechner holen.


Nicht jeder der sich eine NV Karte kauft ist auch ein Drogen-Fan und braucht schon gar nicht Speed zu komsumieren, damit er mal bunte Farben sieht.

Allgemein: So, jetzt haben wir alle genug gelacht, wie wäre es mal zur Abwechslung mit intelligenten Beiträgen die nicht vermuten lassen, das der Verfasser einen rezessiven Verstand hat. Dann gehts uns allen besser und werden vielleicht mal zur Abwechslung mit Inhalt überrascht.

Thowe
2005-06-04, 15:36:05
Falls G70 wirklich schon Juli im Handel ist und der R520 erst im Juni vergestellt wird dann ist der Kauf einer G70 Karte allemal eine überlegung wert.


Ist doch Ok, so verdient NV wenigstens etwas Geld.

Gast
2005-06-04, 15:37:06
oder derjenige hat genug Geld und es spielt für ihn keine Rolle. Außerdem gibts ja noch die Leute, die lieber selbst ein Produkt testen. ;)
Wie groß ist der Anteil der kundschaft, bei denen Geld keien Rolle spielt im Bereich von 600€ für eine Grafikkarte?

Testen ist gut, wenn man damit Geld verdient. Wer mit testen kein Geld verdient, fällt unter Punkt 1.

Beim Launch vom G70 werden 100% paar Benchmarks vom R520 im Netzt landen.
Und ich teste gerne selber...
Und wenn die Benchmarks für den R520 sprechen?

Ach Du testest gerne? Na dann hast Du ja kein Problem, da man zum testen ja wohl beide Karten braucht und somit hast Du ja keinen möglichen Nachteil. :)


Konsolenfreund

r3ptil3
2005-06-04, 15:42:53
Wie groß ist der Anteil der kundschaft, bei denen Geld keien Rolle spielt im Bereich von 600€ für eine Grafikkarte?

Testen ist gut, wenn man damit Geld verdient. Wer mit testen kein Geld verdient, fällt unter Punkt 1.


Und wenn die Benchmarks für den R520 sprechen?

Ach Du testest gerne? Na dann hast Du ja kein Problem, da man zum testen ja wohl beide Karten braucht und somit hast Du ja keinen möglichen Nachteil. :)


Konsolenfreund

Ich habe gesagt der Kauf einer G70 Karte wäre eine überlegung wert und nicht dann werde ich 100% G70 kaufen! Doch falls eben G70 im Juli schon im Handel ist, kauf ich dann vielleicht die Karte und wenn der R520 rauskommt bring ich die G70 zurück und nehm den R520, beide auf einmal sicherlich nicht will früher oder später AMR oder SLi im Rechner haben (hört sich vielleicht komisch aber ist so der Händler ist einverstanden weil ich eh immer bei ihm Hardware kaufe).

mapel110
2005-06-04, 15:43:16
Wie groß ist der Anteil der kundschaft, bei denen Geld keien Rolle spielt im Bereich von 600€ für eine Grafikkarte?

Testen ist gut, wenn man damit Geld verdient. Wer mit testen kein Geld verdient, fällt unter Punkt 1.

Wer 600 € für eine Karte ausgeben kann, der sollte auch 1200 € ausgeben können und eine der beiden Karten wieder für 550 € weiterverkaufen können nach dem Testen. Aber den *Aufwand zum selbst testen scheuen recht viele. Aber sicher nicht wegen Geldmangel.

*nicht Geld, sondern Zeit, Einbauen, Treiberspielchen, Tweakerspielchen und Probezocken etc pp

Godmode
2005-06-04, 15:43:22
Das glaube ich nicht. ATI wird sich schon Gedanken gemacht haben, wann der beste Zeitpunkt für einen Launch ist.


Ich denke ATI will es so machen wie im letzten Jahr, warten wie leistungsfähig der G70 ist und dann die eigene Produktreihe darauf anpassen.

Quasar
2005-06-04, 15:45:36
Wäre doch prima. Ende Juni gibt's dann für die "Selbsttester" die ersten G70, Ende Juli dann den R520. Die Selbsttester verkaufen ihre G70 bei ebay nach einem Monat, da sie das Geld für den R520 brauchen. Die ebay-Preise sind sehr human, da die Verfügbarkeit komplett sichergestellt ist.

So kann ich einen Monat nach Launch bereits günstig an eine G70 herankommen. :D (Andersrum könnte ich, wenn ATi früher launchen würde, günstig an eine R520 kommen :D :D)

r3ptil3
2005-06-04, 15:45:46
Ich denke ATI will es so machen wie im letzten Jahr, warten wie leistungsfähig der G70 ist und dann die eigene Produktreihe darauf anpassen.

Ich denke nicht das ATi jetzt noch irgendwas anpassen kann wenn der R520 schon in Massenproduktion ist.

Gast
2005-06-04, 15:46:13
Ich habe gesagt der Kauf einer G70 Karte wäre eine überlegung wert und nicht dann werde ich 100% G70 kaufen! Doch falls eben G70 im Juli schon im Handel ist, kauf ich dann vielleicht die Karte und wenn der R520 rauskommt bring ich die G70 zurück und nehm den R520, beide auf einmal sicherlich nicht will früher oder später AMR oder SLi im Rechner haben (hört sich vielleicht komisch aber ist so der Händler ist einverstanden weil ich eh immer bei ihm Hardware kaufe).
Ok, das ist natürlich was anderes.

Wer 600 € für eine Karte ausgeben kann, der sollte auch 1200 € ausgeben können und eine der beiden Karten wieder für 550 € weiterverkaufen können nach dem Testen. Aber den *Aufwand zum selbst testen scheuen recht viele. Aber sicher nicht wegen Geldmangel.

*nicht Geld, sondern Zeit, Einbauen, Treiberspielchen, Tweakerspielchen und Probezocken etc pp
Aha. Du musst es ja dicke haben. :rolleyes:

Konsolenfreund

Gast
2005-06-04, 15:47:32
Ich denke nicht das ATi jetzt noch irgendwas anpassen kann wenn der R520 schon in Massenproduktion ist.
Coretakt, Speichertakt, ggf. Pipes, die man anfangs deaktivieren kann. Ist doch shcon ne Menge.

konsolenfreund

Godmode
2005-06-04, 15:48:33
Ich denke nicht das ATi jetzt noch irgendwas anpassen kann wenn der R520 schon in Massenproduktion ist.

Unter "darauf anpassen" verstehe ich eine XT Platinium Ultra Fat Edtion rauszubringen!

edit: da war über mir schon wer schneller :rolleyes:

SKYNET
2005-06-04, 15:50:20
Ich denke nicht das ATi jetzt noch irgendwas anpassen kann wenn der R520 schon in Massenproduktion ist.


doch, corespannung und damit verbunden höheren takt. =)

deekey777
2005-06-04, 15:52:59
Ich denke nicht das ATi jetzt noch irgendwas anpassen kann wenn der R520 schon in Massenproduktion ist.

Er ist nicht in der Massenproduktion, oder? Die News von Digi-Times sagte, daß kleine "Values" gefertigt werden.

r3ptil3
2005-06-04, 15:56:35
Er ist nicht in der Massenproduktion, oder? Die News von Digi-Times sagte, daß kleine "Values" gefertigt werden.

Habe halt auf paar Seiten gelesen das R520 in die Massenproduktion gegangen sein soll, offiziell ist es aber trotzdem nicht.

Winter[Raven]
2005-06-04, 15:58:38
Wenn es schon erste Samples des G70 im Januar gab, muss man man annehmen dass die Karten eigentlich schnell in den handel kommen "müssten", genug Zeit hatte Nvidia.

Andererseits muss ATI vielleicht ihren Chip "mehr" optimieren was den Takt angeht... vielleicht ist G70 "etwas" zuschnell für ATI geworden als erwartet.

r3ptil3
2005-06-04, 16:00:42
']Wenn es schon erste Samples des G70 im Januar gab, muss man man annehmen dass die Karten eigentlich schnell in den handel kommen "müssten", genug Zeit hatte Nvidia.

Andererseits muss ATI vielleicht ihren Chip "mehr" optimieren was den Takt angeht... vielleicht ist G70 "etwas" zuschnell für ATI geworden als erwartet.

Ja laut einigen seiten sollen die Pipelines 50% effizienter arbeiten als die beim Vorgänger!

Iwan
2005-06-04, 16:02:37
Coretakt, Speichertakt, ggf. Pipes, die man anfangs deaktivieren kann. Ist doch shcon ne Menge.

konsolenfreund

gibts einen vernünftigen grund bei einem chip piplines/quads zu deaktivieren, solange sie einwandfrei laufen? :confused: selbst wenn der yield mit voll funktionstüchtigen chips gering ist würden die doch wohl trotzdem diese wenigen chips mit allen pipes aktiviert ausliefern. immerhin gilt es ja benachmaks zu gewinnen und dem anderen ihv eine auszuwischen.

seahawk
2005-06-04, 16:03:38
Ende Juli halte ich für einen ungünstigen Launchtermin. Da ist Hauptferienzeit in fast allen ländern der nördlichen Hemisphere. Wichtig dürfte sein, dass man die Verfügbarkeit für September garantieren kann.

SKYNET
2005-06-04, 16:04:44
Ja laut einigen seiten sollen die Pipelines 50% effizienter arbeiten als die beim Vorgänger!


ja, das wird wohl auch der grund sein warum NV selber sagt das die GTX fast soschnell sein wird wie ein 6800U SLI gespann.
ich hatte ja speedtechnisch eher mit kanpp unterhalb 6800GT SL gespann gerechnet. :redface:

deekey777
2005-06-04, 16:11:16
Habe halt auf paar Seiten gelesen das R520 in die Massenproduktion gegangen sein soll, offiziell ist es aber trotzdem nicht.

Oft schreiben die Seiten von den anderen Seiten ab, mißinterpretieren die News, verändern diese so, daß keiner merkt, daß diese abgeschrieben wurde, und so entstehen neue News. :biggrin:

Ende Juli halte ich für einen ungünstigen Launchtermin. Da ist Hauptferienzeit in fast allen ländern der nördlichen Hemisphere. Wichtig dürfte sein, dass man die Verfügbarkeit für September garantieren kann.

Wegen der ganzen Klimaänderungen wird das Wetter unberechnenbar, und alle werden zu Hause sein.

ja, das wird wohl auch der grund sein warum NV selber sagt das die GTX fast soschnell sein wird wie ein 6800U SLI gespann.
ich hatte ja speedtechnisch eher mit kanpp unterhalb 6800GT SL gespann gerechnet. :redface:

Schwach... ;D
Nein, im Ernst: Ich glaube, die neue Generation wird nicht nur in Spielen schneller sein, wo SLI/CrossFire nichts bringen, sondern überall schneller. Es würde mich nicht wundern, wenn die G70er/R520er Generation Futuremark zwingt, wieder einen neuen Grafikbenchmark zu schreiben, da sie sich langweilt.

ShadowXX
2005-06-04, 16:19:48
Ich kaufe doch keine Karte wenn der andere IHV seine Karte noch nicht auf den Tisch gelegt hat!

Juppss....das ist auch der Grund warum ich von ATIs hinhaltetaktik momentan nicht so angetan bin.

Andererseits vermute ich dasselbe wie mapel110: ATI hat einen Grund (und damit meine ich weniger das abwarten auf die Leistungsfähigkeit des G70), das der Launch des r520 so herausgezögert wird.....

Welchen auch immer....totale überlegenheit gegenüber dem G70 wird es nicht sein.

Aber es wird bei mir wohl doch wieder auf nV hinauslaufen, da ich Hybride&SSAA-Modi nicht missen will.
Und ATI bietet sowas (ausserhalb von Crossfire) ja leider nicht an.....

ShadowXX
2005-06-04, 16:22:41
Nein, im Ernst: Ich glaube, die neue Generation wird nicht nur in Spielen schneller sein, wo SLI/CrossFire nichts bringen, sondern überall schneller. Es würde mich nicht wundern, wenn die G70er/R520er Generation Futuremark zwingt, wieder einen neuen Grafikbenchmark zu schreiben, da sie sich langweilt.

Das ist übrigens noch ein Grund, warum ich ATIs Crossfirelaunch nur für x8x0-Serie irgendwie deplaziert finde......irgendwie läuft das für mich immer stärker auf einen reinen Marketingschachzug raus....

-error-
2005-06-04, 16:25:10
Juppss....das ist auch der Grund warum ich von ATIs hinhaltetaktik momentan nicht so angetan bin.

Andererseits vermute ich dasselbe wie mapel110: ATI hat einen Grund (und damit meine ich weniger das abwarten auf die Leistungsfähigkeit des G70), das der Launch des r520 so herausgezögert wird.....

Welchen auch immer....totale überlegenheit gegenüber dem G70 wird es nicht sein.

Aber es wird bei mir wohl doch wieder auf nV hinauslaufen, da ich Hybride&SSAA-Modi nicht missen will.
Und ATI bietet sowas (ausserhalb von Crossfire) ja leider nicht an.....

Es wird ja spekuliert, ob ATI mit einer höheren Pipezahl aufwarten kann. Sollte der G70 nicht bedeutend schneller sein, wird die R520 24 Pipes haben. Ist das nicht der Fall, kommen 32 Pipes zum Einsatz.

Kommt der R520 mit 32 Pipelines?! - 20:18 - Wenzula - Kommentare (0)

Wir hatten gestern bereits berichtet, dass ATI auf der Computex den R520 zum zweiten Mal (nach der E3) der hiesigen Presse zur Schau stellt. Aber im Gegensatz zu den bisherigen Meldungen, werden nicht nur die neuen Video-Features angepriesen, sondern auch die 3D-Leistung (anhand von Alan Wake und Prey) des Chips.

Darüber hinaus scheinen sich die Gerüchte zu bestätigen, dass es sich beim Fudo um einen 32 Pixel-Pipeline (8 QUads) starken Chip handeln wird, von denen zurzeit aber nur 24 aktiv sein sollen. Dies wird sich auch bei den finalen Produkten nicht ändern, außer NVIDIAs kommendes Flagschiff (Codename: G70) sollte die 24 Pipe-Lösung von ATI in Grund und Boden stampfen.

Aber auch die Kalifornier schlafen nicht, denn sie haben für den Fall der Fälle, dass der Fudo - ähnlich wie damals der R300 - ein Überchip werden sollte, noch eine Ultra-Version in der Hinterhand, die dann für ausgeglichene Verhältnisse sorgen soll.

ATI-NEWS.de --> Fuad


Halte ich für am warscheinlichsten.

seahawk
2005-06-04, 16:28:52
Guckt euch den Transistorcount an und die vermuteten Taktfrequenzen und dann beurteilt bitte selber ob ein echter 32 Pipechip denkbar ist und ob es Speicher gibt, der die notwendige Bandbreite hat.

Imho wird die Meldung des Inq. nur wieder und wieder aufgekocht.

@deekey

Oder man könnte auch sagen, dass die echten Freaks sowieso ihren Urlaub vor dem OC verbringen. ;) Aber insgesamt halte ich Ende Juli für eher ungünstig.

Winter[Raven]
2005-06-04, 16:28:55
@ Desire

Das "Gerücht" von den 32 Pipes und der Deaktivierung stirbt wohl nie....

Godmode
2005-06-04, 16:35:47
']@ Desire

Das "Gerücht" von den 32 Pipes und der Deaktivierung stirbt wohl nie....

Du darfst aber nicht vergessen dass ATI das schon mal gemacht hat siehe Radeon 9500-9700. Es könnte ja auch gut möglich sein dass sie die 32 Pipe Version für den Refresh zurückhalten(R580), was aber dann ziemlich unwirtschaftliche wäre.

Gast
2005-06-04, 16:36:20
']@ Desire

Das "Gerücht" von den 32 Pipes und der Deaktivierung stirbt wohl nie....
Wieso sollte das auch sterben? Das Gerücht, dass die Pipes des G70 50% effizienter sind, ist wohl nicht minder glaubwürdiger. :rolleyes:

ATI wollte wahrscheinlich mit 24 Pipes starten und sich funktionierende 32Pipe Chips bunkern, um dann ein paar Monate mit einer guten Anzahl 32Pipe Chips den Level nochmal anzuheben. Jetzt denkt ATI vielleicht darüber nach gleich mit 32Pipes zu starten, um nVidia so richtig wegzufegen.

Godmode
2005-06-04, 16:37:48
Wieso sollte das auch sterben? Das Gerücht, dass die Pipes des G70 50% effizienter sind, ist wohl nicht minder glaubwürdiger. :rolleyes:

ATI wollte wahrscheinlich mit 24 Pipes starten und sich funktionierende 32Pipe Chips bunkern, um dann ein paar Monate mit einer guten Anzahl 32Pipe Chips den Level nochmal anzuheben. Jetzt denkt ATI vielleicht darüber nach gleich mit 32Pipes zu starten, um nVidia so richtig wegzufegen.

Das war ja beim R420 auch so geplannt IIRC, nur war dann der NV40 zu stark für die X800Pro

Gast
2005-06-04, 16:44:04
Das war ja beim R420 auch so geplannt IIRC, nur war dann der NV40 zu stark für die X800Pro
Genau. Mit dieser Taktik ist man einfach flexibel und kann reagieren. Und wenn dem so ist, muss ATI jetzt den Yield realtiv gut in den Griff bekommen mit 32Pipes, und 800Mhz GDDR3 wären sicher auch nicht schlecht für das Topmodell, damit sich die GPU nicht langweilt.


Konsolenfreund

seahawk
2005-06-04, 17:08:20
Du darfst aber nicht vergessen dass ATI das schon mal gemacht hat siehe Radeon 9500-9700. Es könnte ja auch gut möglich sein dass sie die 32 Pipe Version für den Refresh zurückhalten(R580), was aber dann ziemlich unwirtschaftliche wäre.

ATI hat Pipes deaktiviert ?

Die 9700,9700pro.9500pro waren alles 8 Pipeversionen ? Nur die 9500 hatte ein deaktiviertes Quad. Wobei viele davon ein defketes Quad hatten und ATI zusätzlich noch den MArkt bis zur Vorstellung der 9600 befriedigen mußte.

Außerdem würde ich mal überlegen welchen Sinn es machen würde. Ein Sesign, dass jetzt nicht stabil mit 32 Pipes funktionert, wird auch in Zukunft nicht funktionieren, wenn man kein Redesign duchführt.

seahawk
2005-06-04, 17:10:36
Genau. Mit dieser Taktik ist man einfach flexibel und kann reagieren. Und wenn dem so ist, muss ATI jetzt den Yield realtiv gut in den Griff bekommen mit 32Pipes, und 800Mhz GDDR3 wären sicher auch nicht schlecht für das Topmodell, damit sich die GPU nicht langweilt.


Konsolenfreund

Ist bestimmt ne tolle Taktik einen Chip mit ca. 20% unnützen Transistoren verkaufen zu wollen. :up:

Der Yield dürfte sich eher über die gewählte Taktung, als über die Anzahl der funktionierenden Pipes beschreiben lassen. Wenn weniger als 50% der Chips mit 32 Pipes laufen, dann brauchen sie sowieso einen neue Revision mit neuen Tape-out.

Gast
2005-06-04, 17:29:35
Ist bestimmt ne tolle Taktik einen Chip mit ca. 20% unnützen Transistoren verkaufen zu wollen. :up:

Der Yield dürfte sich eher über die gewählte Taktung, als über die Anzahl der funktionierenden Pipes beschreiben lassen. Wenn weniger als 50% der Chips mit 32 Pipes laufen, dann brauchen sie sowieso einen neue Revision mit neuen Tape-out.
Besser als einen Chip wegzuwerfen, der immer noch über 24 funktioniernde Pipes verfügt und sauschnell ist. Die X800Pro hat gezeigt, dass man den Yield sehr wohl erhöhen kann, wenn man defekte Pipes deaktivieren kann.

Und deine Rechnung ist ne Milchmädchenrechnung oder woher nimmst Du dein Wissen?


Konsolenfreund

Gast
2005-06-04, 17:51:12
Besser als einen Chip wegzuwerfen, der immer noch über 24 funktioniernde Pipes verfügt und sauschnell ist. Die X800Pro hat gezeigt, dass man den Yield sehr wohl erhöhen kann, wenn man defekte Pipes deaktivieren kann.

*zustimm* Sehe ich auch so.

anderer Gast :)

deekey777
2005-06-04, 18:16:35
Das ist übrigens noch ein Grund, warum ich ATIs Crossfirelaunch nur für x8x0-Serie irgendwie deplaziert finde......irgendwie läuft das für mich immer stärker auf einen reinen Marketingschachzug raus....

Mit CrossFire hat ATi auch den PR-Mund richtig vollgenommen: CrossFire wird/soll mit allen Spielen funktionieren, besser gesagt, irgendein Modus wird schon funktionieren. Das könnte auch der Grund sein, warum sich das Ganze so weit hachhinten verzögerte: Wann kamen die ersten vernünftigen Gerüchte zu SLI und wann zu MVP? (Ist eine rhetorische Frage!)

seahawk
2005-06-04, 18:25:00
Besser als einen Chip wegzuwerfen, der immer noch über 24 funktioniernde Pipes verfügt und sauschnell ist. Die X800Pro hat gezeigt, dass man den Yield sehr wohl erhöhen kann, wenn man defekte Pipes deaktivieren kann.

Und deine Rechnung ist ne Milchmädchenrechnung oder woher nimmst Du dein Wissen?


Konsolenfreund

Nur wesentlich dümmer, als gleich im Desgin einen Chip zu entwerfen, der im gegebenen Prozess mit hohen Yields produziert werden kann. ;D

Gast
2005-06-04, 18:45:04
Nur wesentlich dümmer, als gleich im Desgin einen Chip zu entwerfen, der im gegebenen Prozess mit hohen Yields produziert werden kann. ;D
Wenn Du das sagst wird es wohl so sein. Wunder dich nur nicht, wenn ATI dich Montag anruft, damit Du die dummen Leute bei ATI ersetzen kannst, die scheinbar keine Ahnung vom Geschäft haben. Die brauchen dich dringend. :)


Konsolenfreund

mapel110
2005-06-04, 20:43:30
Die X800Pro hat gezeigt, dass man den Yield sehr wohl erhöhen kann, wenn man defekte Pipes deaktivieren kann.

Die x800 Pro Vivo hat gezeigt, dass das Blödsinn ist. :)

Gast
2005-06-04, 22:27:51
Die x800 Pro Vivo hat gezeigt, dass das Blödsinn ist. :)
Nur für den Normaluser, die Overclocker hat es gefreut...
Ob das wirtschaftlich ist, kann nur ATI entscheiden. :)

Gast
2005-06-04, 22:34:11
Die x800 Pro Vivo hat gezeigt, dass das Blödsinn ist. :)
Was hat die X800Pro gezeigt? Kannst Du das bitte etwas genauer ausführen? So weiß man nicht welchen Gedanken Du verfolgst.

Konsolenfreund

wuzetti
2005-06-04, 22:35:35
R520 doch "schon" am 26. Juli?

http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/juni/ati_r520_26_juli_2005/

mapel110
2005-06-04, 22:40:14
Was hat die X800Pro gezeigt? Kannst Du das bitte etwas genauer ausführen? So weiß man nicht welchen Gedanken Du verfolgst.

Konsolenfreund
Die x800 pro ließ sich zu wohl 100% auf 16 Pipes modden. Ergo keine Probs mit Yields, was 16 Pipes anbelangte.

Der Vorteil liegt eher darin, nur einen Chip(16 Pipes) fertigen zu müssen/designen zu müssen und keine zwei(16 und 12).

Es gab dazu ja einen Artikel auf 3DCenter. war zwar in Bezug auf CPUs, aber dürfte auch weitestgehend auf Grakas zutreffen.

Gast
2005-06-04, 22:45:05
Die x800 pro ließ sich zu wohl 100% auf 16 Pipes modden. Ergo keine Probs mit Yields, was 16 Pipes anbelangte.

Falsch...
das bezieht sich nur auf die VIVO Karten.

deekey777
2005-06-04, 22:47:43
Falsch...
das bezieht sich nur auf die VIVO Karten.

Hat er doch in seinem vorherigen Posting geschrieben?
So eine Korinthenkackerei muß doch nicht sein?

Gast
2005-06-04, 22:54:22
Hat er doch in seinem vorherigen Posting geschrieben?
So eine Korinthenkackerei muß doch nicht sein?
Sry ;(
Mappel hat Recht.
Hab nur das letzte Posting von ihm gelesen...

Gast
2005-06-04, 22:54:24
Die x800 pro ließ sich zu wohl 100% auf 16 Pipes modden. Ergo keine Probs mit Yields, was 16 Pipes anbelangte.

Der Vorteil liegt eher darin, nur einen Chip(16 Pipes) fertigen zu müssen/designen zu müssen und keine zwei(16 und 12).

Es gab dazu ja einen Artikel auf 3DCenter. war zwar in Bezug auf CPUs, aber dürfte auch weitestgehend auf Grakas zutreffen.

Das ist nicht richtig. Bei den X800Pro Vivos lag die Quote sicherlich nicht bei 100% und liegt sie auch zur Zeit nicht. Die Quote ist allerdings recht hoch, nicht zuletzt weil die X800Pro ViVo im Grunde eine komlette X800XT/-PE ist, die es halt nur als ViVos gibt.

Die X800Pro ViVo haben R420 GPUs, die beim ersten Test nicht durchgefallen sind, aber beim zweiten Test, der auf der Karte stattfindet. Somit haben wahrscheinlich viel mehr X800Pro Karten, die auf 16Pipes gemoddet wurden einen minimalen Defekt auf der vorher inaktiven Pipe. Manche Karten werden ihr Leben lang nicht auffällig, manche vermeintlich super stabile Karten zeigen Auffälligkeiten in Sachen Blockmuster und Co. nur in ganz wenigen Applikationen. - Ergo sind viel mehr X800ProViVo @ 16Pipes garnicht 100% fehlerfrei, als das die vermeintlichen Moddingerfolge erahnen lassen, da der Fehler ist in der Praxis garnicht oder nur mit ausgesuchten Appplikationen reproduzierbar ist. Um sie als 16Pipe GPU zu verkaufen.

Und es werden ja nicht nur X800ProViVos verkauft. Bei den normalen X800Pros sind die meisten GPUs direkt schon beim ersten Test rausgefallen, so dass ein Betrieb mit 16 Pipes garnicht möglich ist.

Und schon die Logik sollte einem eigentlich klar machen, dass bei so großen Chips ein Abschalten von logikkreisen den Yiel erhöht. Nicht umsonst ist nvida auf den Zug aufgesrungen und auch im CPU Bereich wird diese Methode praktiziert. - Oder willst Du und ernsthaft erzählen, dass ATI so blöd ist und sowas aus Spaß an der Freude macht?


Konsolenfreund

Ailuros
2005-06-05, 02:47:57
Nach der Ankuendigung mach ich einen Poll auf um zu sehen wieviele genau enttaeuscht sein werden von den Spezifikationen von R520. :D

Falls sich alle IHVs von den bisherigen quad-designs mit WGF2.0 entfernen werden, wird es IMHLO nie 8 quad GPUs geben.

Und schon die Logik sollte einem eigentlich klar machen, dass bei so großen Chips ein Abschalten von logikkreisen den Yiel erhöht. Nicht umsonst ist nvida auf den Zug aufgesrungen und auch im CPU Bereich wird diese Methode praktiziert. - Oder willst Du und ernsthaft erzählen, dass ATI so blöd ist und sowas aus Spaß an der Freude macht?

Natuerlich erhoeht es quasi die yields, denn man kann chips wo nur ein Anteil nicht zu 100% funktioniert immer noch verkaufen.

Das aendert aber auch nichts an der Tatsache dass wenn ein IHV einen chip auslegt dann in seiner vollen Konfiguration im high end verkauft und dann erst werden die defekten chips ausgesucht und als kleinere Modelle verkauft und nicht anders rum.

NVIDIA waere auch frueher auf den Zug gestiegen, wenn NV3x nicht ein single-quad Design gewesen waere.

Gast
2005-06-05, 02:58:15
Das aendert aber auch nichts an der Tatsache dass wenn ein IHV einen chip auslegt dann in seiner vollen Konfiguration im high end verkauft und dann erst werden die defekten chips ausgesucht und als kleinere Modelle verkauft und nicht anders rum.
Habe ich denn was anderes behauptet?

Konsolenfreund

Ailuros
2005-06-05, 03:05:05
Habe ich denn was anderes behauptet?

Konsolenfreund

Wenn R520 X Anzahl von quads hat, dann wird es auch Modelle mit X quads geben und nicht ausschliesslich X-1 oder X-2.

Gast
2005-06-05, 03:27:02
Wenn R520 X Anzahl von quads hat, dann wird es auch Modelle mit X quads geben und nicht ausschliesslich X-1 oder X-2.
Logisch. Alles andere wäre auch unsinnig. Aber man muss nicht gleich mit X-0 starten, wenn die Konkurrenz einen nicht dazu zwingt. Daher ist man flexibel und kann mit den X-Y Chips Geld verdienen und kann einige Zeit später das ganze nochmal toppen mit dem entstandenen Bestand von X-0 Chips.

Konsolenfreund

r3ptil3
2005-06-05, 04:27:47
Ich denke diese News mit den "32 doch nur 24 aktivierte Pipes" wurde vielleicht irgendwie missverstanden. Es hiess ja mal das beim R520 "Extreme Pipelines" (Vertex Shader die man auch wie Pixel Shader nutzen kann) zum Einsatz kommen würden doch dann wurde aus dem nichts und raus kam eben diese News weil die dann vielleicht dachten ah keine Extreme Pipelines (nur noch 8 normale Vertex Shader) und so wurde aus den 32 nur 24 Pixel Pipelines!

Gast
2005-06-05, 04:34:55
Das hört sich ziemlich plausibel an.

Kf

Ailuros
2005-06-05, 05:05:37
Logisch. Alles andere wäre auch unsinnig. Aber man muss nicht gleich mit X-0 starten, wenn die Konkurrenz einen nicht dazu zwingt. Daher ist man flexibel und kann mit den X-Y Chips Geld verdienen und kann einige Zeit später das ganze nochmal toppen mit dem entstandenen Bestand von X-0 Chips.

Konsolenfreund

Wenn man momentan keine theoretischen 8 quads braucht, dann wird ein chip auch nur mit 6 quads verbaut. Braucht man in der absehbaren Zukunft mehr werden dann erst nochmal 2 eventuell hinzugefuegt.

Wuerde diese verrueckte Theorie irgendwelchen Sinn machen, dann haette NVIDIA auch von Anfang einen G70 gebaut und diese nur als 4 quad- NV40 verkauft. Da aber der reale NV40 mit 222M und 400MHz schon ziemlich selten war am Anfang, kann ich mir nicht vorstellen dass eine noch hoehere Chip-komplexitaet die Situation verbessert haette; eher das Gegenteil und das gilt fuer alle chips.

Ist sowieso alles albern, denn alle wirklich serioesen Indizien zeigen auf eine viel einfachere Wahrheit. Die Frequenz der Prototypen die bei ISVs seit Maerz vorhanden sind liegen auf dem "sign-off speed" Niveau und sie bestaetigen auch quasi die anfangs angepeilte Taktrate von ~650MHz. 6 quads mit einer solchen Frequenz moechte ich erstmal sehen dass ich es glaube.

Natuerlich kann jeder glauben oder hoffen was er will.

Gast
2005-06-05, 05:52:21
Wenn man momentan keine theoretischen 8 quads braucht, dann wird ein chip auch nur mit 6 quads verbaut. Braucht man in der absehbaren Zukunft mehr werden dann erst nochmal 2 eventuell hinzugefuegt.

Wuerde diese verrueckte Theorie irgendwelchen Sinn machen, dann haette NVIDIA auch von Anfang einen G70 gebaut und diese nur als 4 quad- NV40 verkauft. Da aber der reale NV40 mit 222M und 400MHz schon ziemlich selten war am Anfang, kann ich mir nicht vorstellen dass eine noch hoehere Chip-komplexitaet die Situation verbessert haette; eher das Gegenteil und das gilt fuer alle chips.

Ist sowieso alles albern, denn alle wirklich serioesen Indizien zeigen auf eine viel einfachere Wahrheit. Die Frequenz der Prototypen die bei ISVs seit Maerz vorhanden sind liegen auf dem "sign-off speed" Niveau und sie bestaetigen auch quasi die anfangs angepeilte Taktrate von ~650MHz. 6 quads mit einer solchen Frequenz moechte ich erstmal sehen dass ich es glaube.

Natuerlich kann jeder glauben oder hoffen was er will.
Natürlich ist das nicht sehr wahrscheinlich, bei einem vermeintlichen Takt von 650Mhz sogar extrem unwahrscheinlich. Die Diskussion ist auch mehr draus entstanden, dass ich sagte, dass 32 Pipes nicht minder wahrschienlich sind, als dass beim G70 die Pipes 50% effizienter gemacht wurden. Und dann kam die Grundsatzdiskussion auf, weil einige Leute scheinbar anzweifeln, dass das Deaktivieren von Quads den Yield erhöht. Ich wollte mit meinen Statements keinesfalls den Eindruck erwecken, dass ich der Annahmen bin, dass der R520 32 Pipes hat.

Konsolenfreund

DjDino
2005-06-05, 13:00:33
Das ist Quatsch. Die erfolgreichen Midrangekarten sind 8 Pipekarten und im Lowrange 4 Pipekarten. Und da wird Geld verdient.

Die kastrierten Highendkarten gab es :

a) um Schrott noch zu vermarkten ( 8 Pipe R420)
b) wenn ein entsprechendes Midrangeprodukt fehlte (9500pro)
c) den Yield im aktzeptabelen Bereich zu halten (X800PRO. 9800SE)

Oder anders gesagt, wenn die den Chip in der jetzigen Revision sowieso nicht zuverlässig als 32 Pipevariante fertigen können, dann brauchen sie sowieso eine neue Revision und einen neuen Tape-Out. Das ist der Aufwand einen Chip zu verdoppeln oder zu erweitern auch nicht mehr viel größer.

ZITAT : "...laut Gerüchteküche wird nVidias G70 mit 24 Pipelines aufwarten können. Auch für ATis R520 sind 24 Pixelpipelines im Gespräch, allerdings mit dem Unterschied, dass der Chip insgesamt 32 Pipelines besitzt, von denen nur ein Teil aktiv ist. Zum einen kann der kanadische Grafikchip-Hersteller dadurch die Chip-Ausbeute steigern, indem einfach defekte Recheneinheiten deaktiviert werden und zum anderen ist es damit ein Leichtes, schnellere Modelle auf den Markt zu bringen, um so gegebenenfalls auf eine GeForce 7800 Ultra reagieren zu können..."
Quelle : http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/juni/ati_r520_26_juli_2005/

Scheint meine Theorie doch wieder etwas "hervorzuheben" ?!

reunion
2005-06-05, 13:54:37
ZITAT : "...laut Gerüchteküche wird nVidias G70 mit 24 Pipelines aufwarten können. Auch für ATis R520 sind 24 Pixelpipelines im Gespräch, allerdings mit dem Unterschied, dass der Chip insgesamt 32 Pipelines besitzt, von denen nur ein Teil aktiv ist. Zum einen kann der kanadische Grafikchip-Hersteller dadurch die Chip-Ausbeute steigern, indem einfach defekte Recheneinheiten deaktiviert werden und zum anderen ist es damit ein Leichtes, schnellere Modelle auf den Markt zu bringen, um so gegebenenfalls auf eine GeForce 7800 Ultra reagieren zu können..."
Quelle : http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/juni/ati_r520_26_juli_2005/

Scheint meine Theorie doch wieder etwas "hervorzuheben" ?!


Wurde auch nur von INQ abgeschrieben - wertlos.

AlfredENeumann
2005-06-05, 14:54:16
Wurde auch nur von INQ abgeschrieben - wertlos.


Und außerdem QUATSCH.
Wenn es nicht sein muss wird kein Chip mal so eben Kastriert, damit man einen eingebremstem Chip verkauft, der nur ein wenig schneller ist als die Konkurenz.
Wenn man es könnte würde man NV vernichtent schlagen und nicht nur so gerade eben.

Exxtreme
2005-06-05, 16:22:24
Und außerdem QUATSCH.
Wenn es nicht sein muss wird kein Chip mal so eben Kastriert, damit man einen eingebremstem Chip verkauft, der nur ein wenig schneller ist als die Konkurenz.
Wenn man es könnte würde man NV vernichtent schlagen und nicht nur so gerade eben.
Nicht unbedingt. Es kann sein, daß der Chip zwar 32 Pipes hat, er läuft aber vielleicht nicht stabil genug damit. Man hebt es sich das dann für eine XT-PE-Edition auf. Das hat ATi beim R420 auch so gemacht.

seahawk
2005-06-05, 17:31:25
Nicht unbedingt. Es kann sein, daß der Chip zwar 32 Pipes hat, er läuft aber vielleicht nicht stabil genug damit. Man hebt es sich das dann für eine XT-PE-Edition auf. Das hat ATi beim R420 auch so gemacht.

Ein R420 XT-PE hatte mehr Pipes als eine normale XT ? Das glaube ich nicht, Tim. Die XT-PE war wohl eher eine Werks-OC-Lösung. :wink:

Wer sollte ernsthaft seinen absoluten High-End-Chip mit 33% der vorhandenen Pipes deaktiviert auf den Markt bringen ?

Ubnd 32Pipes bei >600mhz halte ich für sehr sehr unwahrscheinlich. Aber jeder hat das Recht auf seinen Traum.

Gast
2005-06-05, 18:14:31
Ein R420 XT-PE hatte mehr Pipes als eine normale XT ? Das glaube ich nicht, Tim. Die XT-PE war wohl eher eine Werks-OC-Lösung. :wink:

Wer sollte ernsthaft seinen absoluten High-End-Chip mit 33% der vorhandenen Pipes deaktiviert auf den Markt bringen ?
Es gab beim Start nur die X800Pro und die X800XT-PE, wobei letztere kaum verfügbar war. Die Xt kam erst einige Monate später.

Na ATI. Die haben es mit der X800Pro gemacht und die Bilanzen zeigen, dass sie wohl mit ihrer Rehcnung nicht falsch liegen.

Und wieso sollte man nicht mit Chips auf den Markt kommen, die 33% der Pipes deaktiviert haben, weil diese defekt sind, wenn die Konkurrenz trotzdem nicht besser ist. Die voll funktionstüchtigen Chips schmeißt man ja nicht weg - siehe X800XT-PE und X800Pro.

Entweder Du verstehst das Prinzip wirklich nicht oder Du willst es nicht verstehen.

Konsolenfreund

Ailuros
2005-06-05, 18:45:31
Natürlich ist das nicht sehr wahrscheinlich, bei einem vermeintlichen Takt von 650Mhz sogar extrem unwahrscheinlich. Die Diskussion ist auch mehr draus entstanden, dass ich sagte, dass 32 Pipes nicht minder wahrschienlich sind, als dass beim G70 die Pipes 50% effizienter gemacht wurden. Und dann kam die Grundsatzdiskussion auf, weil einige Leute scheinbar anzweifeln, dass das Deaktivieren von Quads den Yield erhöht. Ich wollte mit meinen Statements keinesfalls den Eindruck erwecken, dass ich der Annahmen bin, dass der R520 32 Pipes hat.

Konsolenfreund


Ich hab keine Ahnung was die genauen Kleinigkeiten von G70 betrifft, es ist auch noch zu frueh. Kommt ganz drauf an ob das Zeug erstmal stimmt und was man mit Effizienz genau meint.

These: hat der G70 tatsaechlich nur 38GB Bandbreite aber mit 6 quads, dann muesste es normalerweise eine gesunde Effizienz-Steigerung geben damit das Ding auch nicht an Bandbreite verhungert (stets im Vergleich zu 4 quads/35GB NV40). 50% mehr Effizienz heisst natuerlich auch nicht 50% mehr Leistung pro SIMD Kanal.

Gast
2005-06-05, 18:50:31
Es gab beim Start nur die X800Pro und die X800XT-PE, wobei letztere kaum verfügbar war. Die Xt kam erst einige Monate später.

Na ATI. Die haben es mit der X800Pro gemacht und die Bilanzen zeigen, dass sie wohl mit ihrer Rehcnung nicht falsch liegen.


Das verstehe ich nun nicht so ganz. Also den letzten Punkt. ATI hat doch über das ganze Jahr gesehen allenfalls an Boden verloren. Gut gemacht haben sie jedenfalls keinen und mehr Freunde haben sie sicher auch nicht bekommen. Die Investoren sind im übrigen auch nicht so überzeugt und die eigenen Ziele in diesem Zeitraum wurden auch nicht gerade erfüllt.

Ailuros
2005-06-05, 18:51:27
Nicht unbedingt. Es kann sein, daß der Chip zwar 32 Pipes hat, er läuft aber vielleicht nicht stabil genug damit. Man hebt es sich das dann für eine XT-PE-Edition auf. Das hat ATi beim R420 auch so gemacht.

"Sign-off" fuer R420 war knapp >400MHz und es gab von Anfang an 4 quad@500MHz X800XTs. Im Gegensatz war sign off fuer R520 fast bei 600MHz.

R420 war genauso wie NV40 von Anfang an fuer 4 quads geplant; dass beide dann die Taktraten hochschraubten ist eine andere Geschichte.

***edit: der Relevanz zu liebe; sign off fuer R300 war bei ~250MHz.

LovesuckZ
2005-06-05, 18:54:37
Es gab beim Start nur die X800Pro und die X800XT-PE, wobei letztere kaum verfügbar war. Die Xt kam erst einige Monate später.
Na ATI. Die haben es mit der X800Pro gemacht und die Bilanzen zeigen, dass sie wohl mit ihrer Rehcnung nicht falsch liegen.

Oder sie wurden von nvidia überrascht...
Es gab vor einem Jahr anzeichen, dass nur die X800Pro als einzige AGP Karte der R420 geben sollte. Die X800 XTPE sollten wohl ausschließlich nur für PCI-E als R423 erscheinen.

Und wieso sollte man nicht mit Chips auf den Markt kommen, die 33% der Pipes deaktiviert haben, weil diese defekt sind, wenn die Konkurrenz trotzdem nicht besser ist. Die voll funktionstüchtigen Chips schmeißt man ja nicht weg - siehe X800XT-PE und X800Pro.

Wirtschaftlichkeit. Man verschwendet kostbaren Platz auf den Wafer, wodurch die Produktivitaet sinkt und dadurch der Gewinn. Dies spiegelt sich natuerlich auch auf die "kleineren" Version wider.
Daneben kommen die anderen Faktoren: Höherer Stromverbrauch, laeutere und größere Kühlung (Kostenfaktor), geringereTaktung.
Und der Marketingbonus: Wenn ich ein Produkt habe, dass meinen Konkurenten katastrophal schlägt, dann bringe ich es auch auf den Markt.

Gast
2005-06-05, 19:10:44
Oder sie wurden von nvidia überrascht...
Es gab vor einem Jahr anzeichen, dass nur die X800Pro als einzige AGP Karte der R420 geben sollte. Die X800 XTPE sollten wohl ausschließlich nur für PCI-E als R423 erscheinen.
Auf jedenfall. ATI hatte eigentlich vor nur die X800Pro zu bringen und die 16Pipe Chips für die XT/-PE auf PCIe zu lagern. Und da nVidia mit dem NV40 einen ordentlichen Chip hingelegt hat, waren sie gezwungen mit einer schlecht verfügbaren X800XT-PE zu kontern. Aber genua da liegt ja der Vorteil bei dieser herangehensweise. Man kann eben reagieren und ggf. erstmal mit einer "abgespeckten" Version Geld verdienen.

Wirtschaftlichkeit. Man verschwendet kostbaren Platz auf den Wafer, wodurch die Produktivitaet sinkt und dadurch der Gewinn. Dies spiegelt sich natuerlich auch auf die "kleineren" Version wider.
Daneben kommen die anderen Faktoren: Höherer Stromverbrauch, laeutere und größere Kühlung (Kostenfaktor), geringereTaktung.
Und der Marketingbonus: Wenn ich ein Produkt habe, dass meinen Konkurenten katastrophal schlägt, dann bringe ich es auch auf den Markt.
Diese Ansicht teile ich nicht. Prduktivität wird durch einen hohen Yield gesteigert. Das ganze wird sich schon rechnen, sonst würde es ATI nicht so machen. Du weißt doch garnicht wie das Yield-/Kostenverhältniss ändert, wenn man einen größen Chip produzieren lässt, um den Yield zu erhöhen. Meinst Du die IHVs sind blöde? Und wie kommst Du drauf, dass irgendjemand Platz verschwendet? Man wirft die Chips mit voller Anzahl an Pipes ja nicht weg. Die CPU Hersteller machen das, ATI und auch nVidia.

Konsolenfreund

LovesuckZ
2005-06-05, 19:27:41
Diese Ansicht teile ich nicht. Prduktivität wird durch einen hohen Yield gesteigert.

"Ergiebigkeit der betrieblichen Faktorkombination, das Verhältnis zwischen Produktionsergebnis (Output) zu Faktoreinsatz (Input)"

Je höher die Anzahl der Chips ist, umso größer ist die Produktivitaet für das Unternehmen. Sie produzieren also billiger.

Du weißt doch garnicht wie das Yield-/Kostenverhältniss ändert, wenn man einen größen Chip produzieren lässt, um den Yield zu erhöhen.

Er wird schlechter, da der Platzbedarf steigt.

Und wie kommst Du drauf, dass irgendjemand Platz verschwendet? Man wirft die Chips mit voller Anzahl an Pipes ja nicht weg.


Ein Wafer hat nicht unendlich viel Platz. Je größer der Chip ist, umso geringerer ist die Ausbeute. Dadurch erhöhen sich die Produktionskosten, da der Aufwand für eine bestimmte Menge erhöht wird.
Es ist daher unlogisch, eine GPU mit 32 Pipelines zu entwerfen, aber von vornerein nur 24 zu verwenden. Entweder wird es am Anfang eine Spezielversion geben oder die GPU ist auf 16/24 Röhre beschraenkt.

Gast
2005-06-05, 19:39:12
Er wird schlechter, da der Platzbedarf steigt.
Nicht unbedingt, wenn der Yield entsprechend gesteigert wird. Und genau diese Rechnung kann man nur anstellen, wenn man an der Quelle sitzt und das anhand der Produktionsergebnisse und den vertraglichen Spezialitäten nachvollziehen kann. Als ob die IHVs so blöd wären und sich solche Methoden nicht ganz genau überlegen.

Ein Wafer hat nicht unendlich viel Platz. Je größer der Chip ist, umso geringerer ist die Ausbeute. Dadurch erhöhen sich die Produktionskosten, da der Aufwand für eine bestimmte Menge erhöht wird.
Es ist daher unlogisch, eine GPU mit 32 Pipelines zu entwerfen, aber von vornerein nur 24 zu verwenden. Entweder wird es am Anfang eine Spezielversion geben oder die GPU ist auf 16/24 Röhre beschraenkt.
Wenn denn was an der 32 Pipe geschichte dran sein sollte, dann wollte ATI erst mit den "defekten" 24 Pipe GPUs starten (wenn nVidia das zulässt), um dann etwas später mit den gesammelten 32 Pipe nachzukarten. Ganz wie bei der X800Pro. Ist ja nicht so, als ob irgendjemand behauptet hat, dass ATI einen 32Pipe Chip entwirft, um dann auschließlich 24Pipes des Chips zu verwenden.

Konsolenfreund

DrumDub
2005-06-05, 19:45:58
obs stimmt?

ATI R520 to Launch On 26th July
Source: VR-Zone

ATI icon

Well we brought you the launch date of Nvidia's Geforce 7 series and today we've the launch date for its competing rival from ATI; the R520. Enjoy !

Over at Computex, we heard faintly that the next generation ATi R520 GPU will be launched on July 26th, a month later than NVIDIA G70 slated for full scale release later this month. http://www.gfx.unknownserv.net/index.php?subaction=showfull&id=1116214372&archive=&start_from=&ucat=

mapel110
2005-06-05, 19:51:49
obs stimmt?

http://www.gfx.unknownserv.net/index.php?subaction=showfull&id=1116214372&archive=&start_from=&ucat=
Fragen wir uns auch seit 4 Seiten ^^
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3109849#post3109849

DrumDub
2005-06-05, 19:54:20
Fragen wir uns auch seit 4 Seiten ^^
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3109849#post3109849

ups.... :redface:

Ailuros
2005-06-05, 19:56:34
Wenn denn was an der 32 Pipe geschichte dran sein sollte, dann wollte ATI erst mit den "defekten" 24 Pipe GPUs starten (wenn nVidia das zulässt), um dann etwas später mit den gesammelten 32 Pipe nachzukarten. Ganz wie bei der X800Pro. Ist ja nicht so, als ob irgendjemand behauptet hat, dass ATI einen 32Pipe Chip entwirft, um dann auschließlich 24Pipes des Chips zu verwenden.

So langsam wird das Zeug albern; R420 wurde fuer 4 quads ausgelegt und dabei hat die X800PRO gar nichts damit zu tun. Das alberne hier ist natuerlich dass dieses Zeug schon bis zum geht nicht mehr diskuttiert wurde. ATI stand mit dem ersten Schub ohne Konkurrenz fuer die 6800nonU da und das hat sich dann mit dem Einschub von 110nm X800XL und 3 quad/X800-ern geaendert. Diese Masche haetten sie auch von Anfang an verfolgen koennen ausschliesslich auf low-k 130nm, es haette eben von Anfang an anstatt einer X800PRO eine X800XL und eine X800 gegeben. Fuer mich persoenlich war es eine pure Design-entscheidung denn keiner wird mich so leicht ueberzeugen koennen dass eine 4 quad R420@~350-375MHz nicht von Anfang an moeglich gewesen waere. Ganz im Gegenteil hat ATI einen fetten Batzen von chips verkauft (fuer PROs) bei denen womoeglich nichts krumm war an dem vierten quad (gleiches gilt auch fuer 6800nonU und der relativ gesunde Erfolg beim modden der verschlossenen Pipelines; alles was ueber die 40% Grenze steigt ist nennenswert).

Alle "aber" zur Seite die X800XL ist eine bessere Loesung im Vergleich zu 6800GT und ich konnte bis jetzt keine besondere Aenderungen von Seiten NVIDIA fuer die GT sehen; nicht mal was die Taktraten betrifft. Im Gegenteil wurde die 6800nonU teilweise ersetzt, wobei NV41 doch von Grund auf 3 quad/5VS Designs sind.

Nochmal es gab in gesunder Verfuegbarkeit 500MHz 4 quad X800XTs; durchaus selten waren nur die XT PEs die sowieso nicht allzu viel der Rede wert waren im Vergleich zu den XT's vom Preis/Leistungsstandpunkt.

Quasar
2005-06-05, 22:08:04
Diese Masche haetten sie auch von Anfang an verfolgen koennen ausschliesslich auf low-k 130nm, es haette eben von Anfang an anstatt einer X800PRO eine X800XL und eine X800 gegeben. Fuer mich persoenlich war es eine pure Design-entscheidung denn keiner wird mich so leicht ueberzeugen koennen dass eine 4 quad R420@~350-375MHz nicht von Anfang an moeglich gewesen waere.
Ich denke, die Aufteilung, so, wie sie letztendlich auch erfolgt ist, war schon sinnvoll. Denn man hatte keine absolut festgelegten Erfahrungswerte, welche GPUs in welcher Konfiguration lauffähig sein würden.

So konnte man die bestmöglichen GPUs handselektiert als XTPE verkaufen. Die, die diese Taktraten nicht ganz schafften, gingen eben als normale XTs über den Tisch.
Eine Stufe weiter unten konnte man alle Karten, die entweder die 500MHz nicht schafften oder aber einen Defekt in einem Pixelprozessor aufwiesen als Pro verkaufen und den absoluten Ausschuss, also mit wenig Taktpotential und mehr als einem defekten Prozessor, als SE.

In deinem Modell hätte man alle, egal wie gut taktbaren Chips, die einen Defekt in einem der Quads hatten, nur als SE verkaufen können, während das Potential, welches mit hohen Taktraten (auch gut für die VS) erreicht werden konnte, in den bei dir niedrig getakteten XLs (~400MHz) verschwendet gewesen wäre.

Man hätte also in Summe über die komplette Produktlinie mehr Potential liegen gelassen, als es so der Fall war. Dazu kam noch, daß man nicht allein durch simples OCen mit einer Pro das Taktpotential der XT/PE erreichen konnte, da hier ein komplettes Quad fehlte. Viele "deiner" XLs wären hingegen auch auf 450 MHz und höher gelaufen, wo der Mehrwert der XTs ihnen gegenüber nicht mehr so groß gewesen wäre, wie der Preisunterschied andeutete.

Ailuros
2005-06-06, 00:27:11
In deinem Modell hätte man alle, egal wie gut taktbaren Chips, die einen Defekt in einem der Quads hatten, nur als SE verkaufen können, während das Potential, welches mit hohen Taktraten (auch gut für die VS) erreicht werden konnte, in den bei dir niedrig getakteten XLs (~400MHz) verschwendet gewesen wäre.

Man hätte also in Summe über die komplette Produktlinie mehr Potential liegen gelassen, als es so der Fall war. Dazu kam noch, daß man nicht allein durch simples OCen mit einer Pro das Taktpotential der XT/PE erreichen konnte, da hier ein komplettes Quad fehlte. Viele "deiner" XLs wären hingegen auch auf 450 MHz und höher gelaufen, wo der Mehrwert der XTs ihnen gegenüber nicht mehr so groß gewesen wäre, wie der Preisunterschied andeutete.

Und wieso hat sich dann die Masche (von Herstellungsprozessen mal abgesehen) dann mit R480/430 geaendert? Rein theoretisch duerften alle Deine Punkte auch fuer heute gelten.

Dunkeltier
2005-06-06, 01:46:04
Ist bestimmt ne tolle Taktik einen Chip mit ca. 20% unnützen Transistoren verkaufen zu wollen. :up:

(...)


Sicher, siehe die Geforce 6800 LE Serie, wo sehr viele Karten absolut zuverlässig auch mit 12 oder gar 16 Pipes laufen. :) Wieso also beschneiden? Gibt ja nur zwei Punkte, defektes Kram wirtschaftlich abverkaufen oder aber einen bestimmten Markt zu befriedigen.

Ailuros
2005-06-06, 01:54:51
Sicher, siehe die Geforce 6800 LE Serie, wo sehr viele Karten absolut zuverlässig auch mit 12 oder gar 16 Pipes laufen. :) Wieso also beschneiden? Gibt ja nur zwei Punkte, defektes Kram wirtschaftlich abverkaufen oder aber einen bestimmten Markt zu befriedigen.

Bei der Mehrzahl der LEs kann man meistens einen quad problemlos einschalten, zusaetzliche VS Einheiten aber auch nicht immer und auch nicht alle. Diejenigen LEs bei denen man tatsaechlich alle 4 quads und 6 VS freischalten kann sind verdammt selten.

Iwan
2005-06-06, 02:18:54
Sicher, siehe die Geforce 6800 LE Serie, wo sehr viele Karten absolut zuverlässig auch mit 12 oder gar 16 Pipes laufen. :) Wieso also beschneiden? Gibt ja nur zwei Punkte, defektes Kram wirtschaftlich abverkaufen oder aber einen bestimmten Markt zu befriedigen.

evtl fährt nvidia so harte qualitäts-tests, das von den 4 quads nur 2 bestehen und dann eben als 2quads gelabelt werden, jedoch im normalfall die fehler, also bei einem user zuhause im pc, selten bis nie auftreten. nv wäre doch blöd wenn sie einen funktionierenden 16piper als 8piper verkaufn würden.

Ailuros
2005-06-06, 02:37:59
Zurueck zum Thema:

Dave Baumann:

More that the differences between the rumours and realities are diametrically opposed between this year and last...

Geruechte vor dem launch von R420 sprachen von "8 extremen pipelines"
wobei es doch 16 "normale pipelines" am Ende waren. Was waere der "diametrische" Gegensatz zu den mythischen "32 pipelines" im Vergleich zum vorigen?

Und ein ziemlich interessanter Post von einem User bei B3D:

I just read the whole thread and I think Dave is saying that the rumors last generation were much closer to the truth than the rumors this time around. That leads me to believe that R520 will not be 32 pipes for sure and the transistor count is much too high at 350 million. I also sense a very disturbing lack of enthusiasm for R520 from many other posters that I think know something.

If ATI is again put in a position to be stuck with a generation that requires MAXIMUM (100 MHz more than Nvidia) clock speeds to compete, then there are very serious problems at ATI. Gross margins have been stalled at 34% for ATI the past several quarters while Nvidia has seen dramatic gross margin expansion. I am completely convinced that the early shortages of R420 (especially AGP) were the result of poor yields on the 130 nm low-k process. This shortage lasted many months and only when ATI moved some SKU's to 110 nm did the supply become less tight. While capacity may have played an issue as well, yields were without question an issue as I can find not other explanation of ATI being stuck at the low end of their 34-38% GM guidance for so long.

IF and I do mean IF ATI is in a similar position as R420, on a new process, facing yield issues and the prospect of having to push clock speeds to theoretical maximums to compete against Nvidia then there is something very wrong at ATI. Was R3xx a one trick pony from Orton? If R520 doesn't take back the initiative from Nvidia, recapture market share, be available in mass quantities for PCIe/AGP and improve gross margins then it is a failure. As such, Orton will have shown himself to be a great engineer of R3xx and then to be a shitty CEO that was unable to duplicate his earlier success.

What happened to ATI's great idea of introducing new generations with a midrange product on the newest cutting edge process and then riding the older process for the flagship? I would mush rather see R520 on 110 nm and maybe the x700 replacement on 90 nm. To have to work the bugs out on the flagship SKUs with a new process smacks of what went so horribly wrong with R420.

Ganz zustimmen werde ich natuerlich nicht, denn es gibt ein paar feine Kleinigkeiten die nicht bekannt sind was NVIDIA und deren Margen betrifft und ich werde mich auch nicht darueber aeussern bis jemand anders den ersten Schritt wagt. Nichtdestominder - obwohl etwas zu radikal positioniert - gibt es ein paar Gedankensporne im obrigen Text.

http://www.beyond3d.com/forum/viewtopic.php?t=23600&start=120

mapel110
2005-06-06, 02:51:59
Zurueck zum Thema:

Dave Baumann:



Geruechte vor dem launch von R420 sprachen von "8 extremen pipelines"
wobei es doch 16 "normale pipelines" am Ende waren. Was waere der "diametrische" Gegensatz zu den mythischen "32 pipelines" im Vergleich zum vorigen?

Und ein ziemlich interessanter Post von einem User bei B3D:



Ganz zustimmen werde ich natuerlich nicht, denn es gibt ein paar feine Kleinigkeiten die nicht bekannt sind was NVIDIA und deren Margen betrifft und ich werde mich auch nicht darueber aeussern bis jemand anders den ersten Schritt wagt. Nichtdestominder - obwohl etwas zu radikal positioniert - gibt es ein paar Gedankensporne im obrigen Text.

http://www.beyond3d.com/forum/viewtopic.php?t=23600&start=120
Hm, die Gedanken zum Fertigungsprozess find ich interessant. Kann man wirklich so sehen.

Dunkeltier
2005-06-06, 05:19:00
evtl fährt nvidia so harte qualitäts-tests, das von den 4 quads nur 2 bestehen und dann eben als 2quads gelabelt werden, jedoch im normalfall die fehler, also bei einem user zuhause im pc, selten bis nie auftreten. nv wäre doch blöd wenn sie einen funktionierenden 16piper als 8piper verkaufn würden.


Genauso blöd wie ATI, die Radeon X800 Pro ViVo mit eigentlich 16x funktionierden Pipes verkauft haben? Imho alles Geschwätz.

seahawk
2005-06-06, 08:36:20
Sicher, siehe die Geforce 6800 LE Serie, wo sehr viele Karten absolut zuverlässig auch mit 12 oder gar 16 Pipes laufen. :) Wieso also beschneiden? Gibt ja nur zwei Punkte, defektes Kram wirtschaftlich abverkaufen oder aber einen bestimmten Markt zu befriedigen.

Haben die 6800LE einen großen Marktanteil erreicht, oder sind sie zeitnah von der 6600 verdrängt worden.

Eigentlich war es ne reine OEM Karte für OEMs die gerne GeForce 6800 auf ihre Kisten schreiben wollten und dafür haben sich defekte Chips sehr gut geeignet. Ich würde die 6800LE aber nicht als wichtiges Produkt im NV Line-Up einschätzen.

Was Dave Baumann sagt kann imho nur so verstehen. R420 sollte gerüchtehalber 8 Pipes haben und hatte 16, R520 soll gerüchthehalber 32 Pipes haben und wird 16 Pipes haben.
Aber das sollte neimanden überraschen.

ShadowXX
2005-06-06, 08:56:58
Was Dave Baumann sagt kann imho nur so verstehen. R420 sollte gerüchtehalber 8 Pipes haben und hatte 16, R520 soll gerüchthehalber 32 Pipes haben und wird 16 Pipes haben.
Aber das sollte neimanden überraschen.

Ja, überraschend ist das wirklich nicht. Ich bin seit "ewigkeiten" von 16Pipes @ hohen Takt ausgegangen.

Die 24Pipes kommen sehr wahrscheinlich aus der Rechnung 16 PS + 8 VS....

Und die 32Pipe Gerüchte kommen entweder davon, das auch ATI jetzt die ALU in 2 "Teile" aufgespalten hat oder einfach davon, das sich "jemand"* gesagt hat: "wenn nV 24 hat, dann "muss" ATI 32 haben (denn eine ATI kann ja nicht schlechter/langsamer/etc. als eine nV sein)".

Wobei ich tatsächlich eher von kreativer Zählweise ausgehe....

(* Irgendein redaktioneller "Fanboy" halt)

Quasar
2005-06-06, 10:05:23
Und wieso hat sich dann die Masche (von Herstellungsprozessen mal abgesehen) dann mit R480/430 geaendert? Rein theoretisch duerften alle Deine Punkte auch fuer heute gelten.
Erfahrungswerte - die halt vorher nicht vorhanden waren. Mit der X850 Pro gibt es nach wie vor einen hochgetakteten 12-Pipe-Chip. Warum wohl?

edit:
Und dazu: Nun sind es zwei "verschiedene" Chips, ein Luxus, den man sich vor einem Jahr noch nicht erlaubte. Damals musste alles mit einer Produktion bedient werden.

Quasar
2005-06-06, 10:07:56
Sicher, siehe die Geforce 6800 LE Serie, wo sehr viele Karten absolut zuverlässig auch mit 12 oder gar 16 Pipes laufen. :) Wieso also beschneiden? Gibt ja nur zwei Punkte, defektes Kram wirtschaftlich abverkaufen oder aber einen bestimmten Markt zu befriedigen.
Ich habe den Verdacht, daß so gut wie alle diese Chips Fehler aufweisen. Vielleicht Fehler, die man in einem von tausend Games sieht, oder gar welche, die man gar nicht sieht.

Aber richtig "kaputte" Produkte auszuliefern, kann ernsthaft teuer werden und zudem das Image schädigen.

Quasar
2005-06-06, 10:13:55
Die 24Pipes kommen sehr wahrscheinlich aus der Rechnung 16 PS + 8 VS....

Oder, und jetzt bin ich froh, daß wir hier im Spekulationsforum sind, sie kommen daher, daß der R520 bereits unified shader benutzt, diese aber aus irgendeinem Grunde (Treiber, OS, sonstwas) irgendwie auf eine feste PS/VS-Konfiguration gelockt sind. Performancegründe evtl., da man im Gegensatz zur XBox 360 nicht davon ausgehen kann, daß die Devs einem alles auf den Leib schneidern.

reunion
2005-06-06, 10:34:20
Oder, und jetzt bin ich froh, daß wir hier im Spekulationsforum sind, sie kommen daher, daß der R520 bereits unified shader benutzt, diese aber aus irgendeinem Grunde (Treiber, OS, sonstwas) irgendwie auf eine feste PS/VS-Konfiguration gelockt sind. Performancegründe evtl., da man im Gegensatz zur XBox 360 nicht davon ausgehen kann, daß die Devs einem alles auf den Leib schneidern.


Daran hab' ich auch schonmal gedacht.
Es macht aus meiner Sicht einfach wenig Sinn, wenn man mit R500 schon ein fertiges SM3.0-Design zur Verfügung hat, parallel nochmal den R300 mit sicherlich nicht gerade geringen Aufwand weiterzuentwickeln.
Vielleicht hat R520 doch mehr mit R500 zu tun als viele glauben, dann würden zumindest auch die 32 Pipe Gerüchte einen Sinn ergeben.

ShadowXX
2005-06-06, 10:43:08
Oder, und jetzt bin ich froh, daß wir hier im Spekulationsforum sind, sie kommen daher, daß der R520 bereits unified shader benutzt, diese aber aus irgendeinem Grunde (Treiber, OS, sonstwas) irgendwie auf eine feste PS/VS-Konfiguration gelockt sind. Performancegründe evtl., da man im Gegensatz zur XBox 360 nicht davon ausgehen kann, daß die Devs einem alles auf den Leib schneidern.

Das wäre dann allerdings eine reine Aussendarstellung, den soweit ich den Aufbau des r500 verstanden habe, wäre ein "lock" Chipintern so nicht möglich.

Also würde dann nur der Treiber so tun, als wenn er 16xPS/8xVS hätte.

Und dann wiederum wäre es auch kein Problem das ganze wieder dynamisch zu verteilen....was das Programm/Spiel/OS nicht weiss, macht es nicht heiss.

Wobei ich glaube, das ATI dieses dann schon hätte durchblicken lassen...und wenns nur ist um nV eins auszuwischen.

Aber unmöglich halte ich momentan nichts......(wenn auch bestimmtes für unwahrscheinlich)

Demirug
2005-06-06, 10:52:41
Das wäre dann allerdings eine reine Aussendarstellung, den soweit ich den Aufbau des r500 verstanden habe, wäre ein "lock" Chipintern so nicht möglich.

Also würde dann nur der Treiber so tun, als wenn er 16xPS/8xVS hätte.

Und dann wiederum wäre es auch kein Problem das ganze wieder dynamisch zu verteilen....was das Programm/Spiel/OS nicht weiss, macht es nicht heiss.

Wobei ich glaube, das ATI dieses dann schon hätte durchblicken lassen...und wenns nur ist um nV eins auszuwischen.

Aber unmöglich halte ich momentan nichts......(wenn auch bestimmtes für unwahrscheinlich)

Ein derartiger Lock ist machbar wenn der Chip einen festen und keinen dynamischen Scheduler hat. Also zum Beispiel 3/4 der Threads immer an Pixel gebunden sind und 1/4 an Verticen.

Quasar
2005-06-06, 11:02:23
Vielleicht ein 32xSIMD, aber dafür nur zwei Stufen? Wahrscheinlich wohl zuviel Verschnitt.

ShadowXX
2005-06-06, 11:13:58
Ein derartiger Lock ist machbar wenn der Chip einen festen und keinen dynamischen Scheduler hat. Also zum Beispiel 3/4 der Threads immer an Pixel gebunden sind und 1/4 an Verticen.

Wäre das aber nicht unsinnig?.....was im OS/DirectX sollte auf eine per Hardware festgelegte aufsplittung "Wert" legen bzw. dieses expliziet verlangen?

Würde es da nicht reichen, wenn der Treiber so tun würde, als ob?? (speziell wäre es wohl auch Billiger).

Und würde es dann nicht wiedrum sinnvoller sein das ganze hinter der von den Apps sichtbaren Schicht wieder dynamisch zu machen??

Botcruscher
2005-06-06, 11:29:31
Warum sollte man pipes verbauen die nicht genutzt werden? Wenn man sie sowieso abschaltet, kann man sie auch gleich wecklassen.

Gast
2005-06-06, 14:32:09
Das wäre dann allerdings eine reine Aussendarstellung, den soweit ich den Aufbau des r500 verstanden habe, wäre ein "lock" Chipintern so nicht möglich.

Also würde dann nur der Treiber so tun, als wenn er 16xPS/8xVS hätte.

Und dann wiederum wäre es auch kein Problem das ganze wieder dynamisch zu verteilen....was das Programm/Spiel/OS nicht weiss, macht es nicht heiss.

Wobei ich glaube, das ATI dieses dann schon hätte durchblicken lassen...und wenns nur ist um nV eins auszuwischen.

Aber unmöglich halte ich momentan nichts......(wenn auch bestimmtes für unwahrscheinlich)


das wäre irgendwie sinnlos, nach außen hin wird dx doch nur mitgeteilst dass der grafikchip PS und VS version X unterstützt.

wie und wie viele interne einheiten diese dann rechnen ist doch egal.

DjDino
2005-06-06, 15:51:43
Könnte mir hier jemand das mit der (fraglichen?) Wirtschaftlichkeit bei GPUs mit deaktivierten Quads/Pipes genau erklären ? Disbezügliche Argumente wurde hier jetzt schon oft von jemand in Frage gestellt, dann wieder von anderen untermauert, dann wieder vom nächsten weggeworfen, u.s.w.
Ich hätte da gerne ein klareres Fazit oder wenn schon nicht das dann zumindest eine verständliche Erklärung des Zusammenspiels der hierbei einzelnen Faktoren :)

Ailuros
2005-06-06, 19:31:01
Ja, überraschend ist das wirklich nicht. Ich bin seit "ewigkeiten" von 16Pipes @ hohen Takt ausgegangen.

Die 24Pipes kommen sehr wahrscheinlich aus der Rechnung 16 PS + 8 VS....

Und die 32Pipe Gerüchte kommen entweder davon, das auch ATI jetzt die ALU in 2 "Teile" aufgespalten hat oder einfach davon, das sich "jemand"* gesagt hat: "wenn nV 24 hat, dann "muss" ATI 32 haben (denn eine ATI kann ja nicht schlechter/langsamer/etc. als eine nV sein)".

Wobei ich tatsächlich eher von kreativer Zählweise ausgehe....

(* Irgendein redaktioneller "Fanboy" halt)


Auf dem Ulk aufbauend postete ich bei B3D dass R520 eigentlich 72 "pipelines" hat LOL :D

Ailuros
2005-06-06, 19:34:25
Erfahrungswerte - die halt vorher nicht vorhanden waren. Mit der X850 Pro gibt es nach wie vor einen hochgetakteten 12-Pipe-Chip. Warum wohl?

edit:
Und dazu: Nun sind es zwei "verschiedene" Chips, ein Luxus, den man sich vor einem Jahr noch nicht erlaubte. Damals musste alles mit einer Produktion bedient werden.

Dass ich mir den Post von B3D reingequotet habe war auch kein Zufall. Und ja da hier vorhin "yields"/Margen erwaehnt wurden, war es gar nicht so stark off topic. Lies es nochmal durch; in manchen Stellen hat der Kerl sogar recht.

Ailuros
2005-06-06, 19:50:24
Oder, und jetzt bin ich froh, daß wir hier im Spekulationsforum sind, sie kommen daher, daß der R520 bereits unified shader benutzt, diese aber aus irgendeinem Grunde (Treiber, OS, sonstwas) irgendwie auf eine feste PS/VS-Konfiguration gelockt sind. Performancegründe evtl., da man im Gegensatz zur XBox 360 nicht davon ausgehen kann, daß die Devs einem alles auf den Leib schneidern.

Ich weiss zwar unter welchem Licht Du es postest, aber ich bin mir schon seit Ende 2002 sicher, dass davon nichts das Licht der PC Maschinen VOR WGF2.0 sehen wird.

a.) As far as I can tell the Marlborough guys have been pretty much working in their own silo since even before they started work Xenos so I don't think that will have affected them that much in terms of the DX9 development path - possibly it may be Revolution that would have more of an impact on current tech, depending on how close or different it is.

b.) I think you can bet you bottom dollar that the basic shader/threading architecture will be the core of R600.

http://www.beyond3d.com/forum/viewtopic.php?t=23600&start=120

Quasar
2005-06-06, 20:56:23
Dass ich mir den Post von B3D reingequotet habe war auch kein Zufall. Und ja da hier vorhin "yields"/Margen erwaehnt wurden, war es gar nicht so stark off topic. Lies es nochmal durch; in manchen Stellen hat der Kerl sogar recht.
Ich komme nicht drauf....?

reunion
2005-06-06, 21:44:57
INQ: ATI R520 scores 10K+ in 3Dmark05: "Fudo" to beat two 6800 Ultra SLI (http://www.the-inquirer.net/?article=23752)

DESPITE WHAT people were claiming, the G70 will score better than the 7800. The card never got the 7800 suffix based on its 3Dmark05 score and if it was number would end up significantly bigger. It's actually going to be quite better but still not as good as the "Fudo" R520.
We got some numbers from this card and it turns out that R520 scores more than 10000 in 3Dmark05. We still don't know its clock speeds but we know the score. For what we know Nvidia can not mach this with G70.

This is actually even better or equal to two 6800 Ultra cards in SLI which kinds of makes it looks ridiculously fast. Imagine R520 in Crossfire, what ATI "cool chap" described as "Coolest technology ever" could do? Just double the number please.

No question that R520, Fudo will be fast the only questions remains are when is it going to be out and when it will actually be available. We will hopefully found out more soon. µ

wuzetti
2005-06-06, 21:53:59
FUDO in bestform? :ulol4:

reunion
2005-06-06, 21:56:04
FUDO in bestform? :ulol4:

FUAD is always right. :uup:

Gast
2005-06-06, 22:29:36
FUAD is always right. :uup:

wenn man etwas nicht widerlegen kann sollte man sich nicht darüber lustig machen

Gast
2005-06-06, 22:54:06
the G70 will score better than the 7800.War damals der R300 nicht auch schneller als die 9700?

reunion
2005-06-06, 23:09:32
War damals der R300 nicht auch schneller als die 9700?


:D

(Ich denke es sollte klar sein, dass damit 7800 Punkte gemeint sind.)

mapel110
2005-06-06, 23:11:17
10k halte ich nicht für unwahrscheinlich. Soviel mehr Vertexpower könnte ATI durchaus haben.

reunion
2005-06-06, 23:12:29
wenn man etwas nicht widerlegen kann sollte man sich nicht darüber lustig machen


Man sollte auch etwas Spaß verstehen. :rolleyes:

deekey777
2005-06-06, 23:13:25
War damals der R300 nicht auch schneller als die 9700?

Ist eine nette Zahlenspielerei. :up:

Ich halte 10.000 für sehr wahrscheinlich, sonst wäre es schwer die doppelte Leistung der neuen Generation für den Otto-Normal-Dau deutlich zu machen.

mrt
2005-06-06, 23:16:29
10k halte ich nicht für unwahrscheinlich. Soviel mehr Vertexpower könnte ATI durchaus haben.


Glaubst du das Vertex-Power alleine ausreicht um 10k zu knacken?
Ich kann mir das nicht vorstellen.

reunion
2005-06-06, 23:16:44
10k halte ich nicht für unwahrscheinlich. Soviel mehr Vertexpower könnte ATI durchaus haben.


Bei 8VS?
Im übrigen sind die Gametests im 3dmark05 nichtnur VS limitiert.

Ailuros
2005-06-07, 00:43:08
Ich komme nicht drauf....?

ATI setzte und setzt wahrscheinlich wieder auf ziemlich hohe Taktraten (R420/R520); fuer die Margen ist das nicht unbedingt gut.

Ailuros
2005-06-07, 00:46:16
10k halte ich nicht für unwahrscheinlich. Soviel mehr Vertexpower könnte ATI durchaus haben.

Mit 6 quads/8VS und =/>430MHz duerfte die Zahl schon erreichbar sein ;)

tombman
2005-06-07, 05:05:26
10k dürfte sicher drinnen sein, schließlich schafft eine X850Xtpe auch über 6000.

Sind also nur ca 50% mehr score, bei mindestens 50% mehr pixelpipelines und wahrscheinlich 8 VS sollten 10K als sicher gelten ;)

Die 20K 3dm05 werden heuer 100% geknackt ;) --> SO SICK :)

Diskutator
2005-06-07, 07:52:20
Hallo,

der R520 wird über 10K bei 3DMark liegen, thats fact!

Der G70 wird auch bei 10K landen, so what!

Beide Chips sind laut meiner Information gleich schnell unter 3DMark!

Der Kernunterschied wird wie bei Crossfire sein - Stichwort Superman Sampling und die Pipes nicht vergessen, das wird noch einigen die Augen öffnen!

Alles andere wird sich zeigen wenn beide fair verglichen werden.

Adam D.
2005-06-07, 08:11:37
Wo hast du denn deine Information her? :rolleyes:

Diskutator
2005-06-07, 08:21:17
Wo hast du denn deine Information her? :rolleyes:
No comment! Die wissenden können es sich denken ;)
Nochmal zu meiner Kernaussage: Ich erwarte keinen grossen Unterschied zwischen G70 und R520! Der Unterschied wird im "Detail" liegen!

Ich freue mich schon wenn die :uexplode: platzt!

ShadowXX
2005-06-07, 09:57:21
Der Kernunterschied wird wie bei Crossfire sein - Stichwort Superman Sampling und die Pipes nicht vergessen, das wird noch einigen die Augen öffnen!


Was soll Superman Sampling sein??


Nochmal zu meiner Kernaussage: Ich erwarte keinen grossen Unterschied zwischen G70 und R520! Der Unterschied wird im "Detail" liegen!


Der Unterschied lag prinzipiel gesehen immer im Detail....

robbitop
2005-06-07, 10:07:25
Was soll Superman Sampling sein??


Naja das ist die Weiterentwicklung von Batman Sampling :D
Soviel zu seinen "Informationen" ;)

reunion
2005-06-07, 10:29:48
Mit 6 quads/8VS und =/>430MHz duerfte die Zahl schon erreichbar sein ;)


Aktuell geht man von unter 8k aus.

reunion
2005-06-07, 10:31:56
Glaubst du das Vertex-Power alleine ausreicht um 10k zu knacken?
Ich kann mir das nicht vorstellen.


ACK, allerdings hat mapal110 natürlich schon recht, dass ein hypotetischer R520 mit 8VS und ~700Mhz Takt eine wesentlich höhere VS-Power aufweisen würde als ein G70 mit ebenfalls 8VS und 430Mhz.

ShadowXX
2005-06-07, 10:35:22
Aktuell geht man von unter 8k aus.


DESPITE WHAT people were claiming, the G70 will score better than the 7800. The card never got the 7800 suffix based on its 3Dmark05 score and if it was number would end up significantly bigger.


Ist zwar auch nur INQ, aber die r520 Zahlen mit denen gerade gehandhabt wird sind ja auch vom INQ.

Aber beim 3d05 wird der r520 dank mehr Vertex-Power definitiv besser abschneiden....

deekey777
2005-06-07, 10:52:49
Hallo,

der R520 wird über 10K bei 3DMark liegen, thats fact!

Der G70 wird auch bei 10K landen, so what!

Beide Chips sind laut meiner Information gleich schnell unter 3DMark!

Der Kernunterschied wird wie bei Crossfire sein - Stichwort Superman Sampling und die Pipes nicht vergessen, das wird noch einigen die Augen öffnen!

Alles andere wird sich zeigen wenn beide fair verglichen werden.

Noch eine Insiderinfo: Der R520 wird einen 12V Connector haben. Aber nicht weitersagen!

Gast
2005-06-07, 11:41:21
Noch eine Insiderinfo: Der R520 wird einen 12V Connector haben. Aber nicht weitersagen!
Ich hatte damit gerechnet, dass der R520 erheblich weniger Strom zieht als der G70. Anscheinend sieht´s so aus:
G70: 110 nm; Verbrauch: 110 W
R520: 90 nm low-k: Verbrauch: über 75 W (PCIe stellt 75 W zur Verfügung).
Wegen der (vermeintlich?) niedrigeren Verlustleistung wollte ich die voraussichtlichen ein bis zwei Monate auf den R520 warten, auch wenn er diesmal nicht wieder mehr als doppelt so schnell sein sollte wie der NV. Jedenfalls ist jetzt ein wichtiger ATi-Kaufgrund ins Wanken geraten.

mrt
2005-06-07, 12:01:02
G70: 110 nm; Verbrauch: 110 W
R520: 90 nm low-k: Verbrauch: über 75 W (PCIe stellt 75 W zur Verfügung).


Quelle?

robbitop
2005-06-07, 12:06:56
Quelle?
Batman oder Superman vermutlich :D (sorry ;( )

Also hochgerechnet müßte ein G70 in etwa 8000 Punkte schaffen. Aber wen interessiert schon 3D Mark?
Wenn R520 wirklich über 6 Quadpipelines verfügt, dann sollte er die 10k+ auch schaffen.

r3ptil3
2005-06-07, 12:10:52
Batman oder Superman vermutlich :D (sorry ;( )

Also hochgerechnet müßte ein G70 in etwa 8000 Punkte schaffen. Aber wen interessiert schon 3D Mark?
Wenn R520 wirklich über 6 Quadpipelines verfügt, dann sollte er die 10k+ auch schaffen.

3D Mark interessiert sicher vielen falls die geforce 7800 GTX auf etwa 8000 P. und der R520 auf 10000 dann ist das alleine schon ein Erfolg für ATI und für viele auch ein Kaufgrund.

deekey777
2005-06-07, 12:15:20
Batman oder Superman vermutlich :D (sorry ;( )

Also hochgerechnet müßte ein G70 in etwa 8000 Punkte schaffen. Aber wen interessiert schon 3D Mark?
Wenn R520 wirklich über 6 Quadpipelines verfügt, dann sollte er die 10k+ auch schaffen.

Für lustige PDFs ist 3D Mark doch erste Sahne. 3D Mark hat einfach zu viel Einfluß auf die Entscheidungsfindung eines Käufers, jedes Käufers.


Quelle?

Etwas Eigeninitiative zeigen und selbst suchen?

mrt
2005-06-07, 12:20:59
Etwas Eigeninitiative zeigen und selbst suchen?

Ernst gemeint? :|


@robbitop

Mit 700MHz GDDR3 wirds trotzdem nicht so leicht. Auch wenn 3DMurks Shader lastig ist.

2005
2005-06-07, 12:26:48
No comment! Die wissenden können es sich denken ;)
Nochmal zu meiner Kernaussage: Ich erwarte keinen grossen Unterschied zwischen G70 und R520! Der Unterschied wird im "Detail" liegen!

Ich freue mich schon wenn die :uexplode: platzt!
Detail = Präzision?
Naja das ist die Weiterentwicklung von Batman Sampling :D
Soviel zu seinen "Informationen" ;)
Batman oder Superman vermutlich :D (sorry ;( )
Gaaanz ruhig, vermutlich nur ein Wortspiel.

robbitop
2005-06-07, 12:34:44
Gaaanz ruhig, vermutlich nur ein Wortspiel.
Du weißt, dass Smileys ein symbolisches Mittel für einen Scherz sind? Und Scherze sind AFAIK erlaubt ;)

robbitop
2005-06-07, 12:36:14
Ernst gemeint? :|


@robbitop

Mit 700MHz GDDR3 wirds trotzdem nicht so leicht. Auch wenn 3DMurks Shader lastig ist.
Für 3DMurks ist denke ich kein GDDR3 700MHz nötig, um an hohe Punktzahlen zu kommen. Viel Pixel und Vertexshaderleistung sollten genügen.

phil99
2005-06-07, 13:00:41
Laut Inquire sollen die 10K bei 3dMurks 2k05 gefallen sein.
http://www.theinquirer.net/?article=23752

2005
2005-06-07, 13:26:01
Du weißt, dass Smileys ein symbolisches Mittel für einen Scherz sind? Und Scherze sind AFAIK erlaubt ;)
Du hast aber einen derben* Humor. :|
Naja das ist die Weiterentwicklung von Batman Sampling :D
*Soviel zu seinen "Informationen" ;)

seahawk
2005-06-07, 13:52:01
Was auffällt ist, dass außer Fuad kaum einer der üblichen Verdächtigen sich gerade in Andeutungen über eine sehr hohe Leistungsfähigkeit des R520 ergeht. Dave Baumann scheint z.B. eher den Hype bremsen zu wollen. Ich glaube langsam irgendwer füttert Fuad gezielt mit Fehlinformationen. Eine echte FUAD Kampagne. :wink:

Xmas
2005-06-07, 14:04:56
Könnte mir hier jemand das mit der (fraglichen?) Wirtschaftlichkeit bei GPUs mit deaktivierten Quads/Pipes genau erklären ? Disbezügliche Argumente wurde hier jetzt schon oft von jemand in Frage gestellt, dann wieder von anderen untermauert, dann wieder vom nächsten weggeworfen, u.s.w.
Ich hätte da gerne ein klareres Fazit oder wenn schon nicht das dann zumindest eine verständliche Erklärung des Zusammenspiels der hierbei einzelnen Faktoren :)
Ein klares Fazit kann man immer nur individuell für einen bestimmten Chip ziehen.

Nun, zusammengefasst:
Bei der Fertigung von Chips gibt es nicht selten punktuelle Fehler, die dafür sorgen dass der Chipteil indem sie sich befinden nur mit geringerer Taktfrequenz oder gar nicht richtig funktioniert.
Hat man nun keine Möglichkeit vorgesehen, einen solchen defekten Teil zu deaktivieren und seine Arbeit von anderen Chipteilen erledigen zu lassen, ist der ganze Chip defekt.

Deswegen verwendet man Redundanz, d.h. Teile des Chips werden mehrfach ausgelegt, so dass bei einem Defekt eines Teils ein anderer die Arbeit übernimmt. Die Redundanz kann nutzbar oder nicht nutzbar implementiert werden.
Bei heutigen Grafikchips sind, sofern kein Defekt auftritt, alle Pixelpipelines nutzbar, bei einem Defekt aber übernehmen die funktionierenden Pipelines die Aufgabe der defekten. Anders bei RAM-Chips, hier wird zur nominalen Menge an Speicherzellen auch immer noch etwas zusätzlicher Speicher implementiert, der im Falle eines Defekts für andere Speicherblöcke einspringt. Dieser zusätzliche Speicher ist aber nicht nutzbar wenn kein Defekt vorliegt. Denn sowas wie 256,5 Mib lässt sich schlecht adressieren ;)

Nicht nutzbare Redundanz erkauft mit zusätzlichen Transistoren eine erhöhte Fehlertoleranz. Nutzbare Redundanz benötigt noch etwas mehr Transistoren, erhöht aber auch die maximal erreichbare Leistung.

Bei sehr niedriger Fehlerdichte werden die Kosten für Redundanz höher als der Gewinn dadurch, dass man einige Chips noch retten kann. Bei sehr hoher Fehlerdichte lohnt sich nutzbare Redundanz nicht, denn wenn von 1000 Chips nur einer voll nutzbar ist, ist das nicht genug für eine eigene Produktreihe.

Wichtig bei der Redundanz ist natürlich auch die Granularität. Sind z.B. immer nur ganze Quad-Pipelines abschaltbar, und in einem 2-Quad-Chip ist in dem einen Quad die TMU defekt, im anderen eine ALU, so sind trotzdem beide Quad-Pipes unbrauchbar und der Chip Abfall. Hat man stattdessen eine Struktur mit einem "TMU-Pool" und einem "ALU-Pool", können durchaus die erste TMU und die zweite ALU defekt sein, man kann den Chip trotzdem noch nutzen.
Hohe Granularität erhöht also die Fehlertoleranz besonders bei hoher Fehlerdichte, benötigt aber wieder mehr Transistoren und Designaufwand.

Neben der Fertigung kommt es natürlich darauf an, die Nachfrage durch ein entsprechendes Angebot zu befriedigen. Kann man eine gute Ausbeute voll funktionierender 4-Quad-Chips, aber der Markt will günstigere 3-Quad-Chips, dann tut man besser daran das Produktionsvolumen der 4-Quads zu reduzieren und einen billigeren 3-Quad-Chip zu produzieren.
Entsprechen Ausbeute der 3- und 4-Quad-Chips in etwa dem Marktbedarf mit leichten 4-Quad-Überschuss, kann es günstiger sein ab und an ein paar voll funktionierende 4-Quad-Chips als 3-Quads umzulabeln statt einen neuen 3-Quad-Chip aufzulegen, was ja auch zusätzliche Kosten bringt.

Es ist also ein komplexes Zusammenspiel aus Fehlerdichte, Produktionskosten, Fixkosten und Marktnachfrage das entscheidet welche Chipkonfigurationen in der Fertigung sinnvoll sind.

Es ist durchaus denkbar, dass es sich lohnt einen Chip mit 8 Quads zu bauen, vorerst aber nur mit 6 Quads in den Handel zu bringen, statt gleich einen Chip mit 6 Quads zu bauen.

Gaestle
2005-06-07, 14:11:07
Wenn R520 wirklich über 6 Quadpipelines verfügt, dann sollte er die 10k+ auch schaffen.


Dann sollten aber sicher keine 650MHz drin sein, oder?

Grüße

pF3NG
2005-06-07, 14:13:43
FUDO in bestform? :ulol4:
Fudo ist doch IMO der Codename für R520?? Ich dacht der Typ vom Inq heißt Fuad? :confused:

r3ptil3
2005-06-07, 14:18:50
Fudo ist doch IMO der Codename für R520?? Ich dacht der Typ vom Inq heißt Fuad? :confused:

Fudo= ATI Radeon R520
Fuad= Abazovic Fuad -> von The Inquirer

deekey777
2005-06-07, 14:24:41
Fudo= ATI Radeon R520
Fuad= Abazovic Fuad -> von The Inquirer

Als Vorname ist Fudo gleich Fuad. ;)

robbitop
2005-06-07, 14:29:21
Du hast aber einen derben* Humor. :|
Selektive Wahrnehmung nennt sich das. ;)

r3ptil3
2005-06-07, 14:29:49
Als Vorname ist Fudo gleich Fuad. ;)

Hm, wiso das?

robbitop
2005-06-07, 14:32:00
Dann sollten aber sicher keine 650MHz drin sein, oder?

Grüße
Dann würde man das aus Ertragsgründen nicht machen.

deekey777
2005-06-07, 14:34:29
Hm, wieso das?

http://www.theinq.com/?article=17622

If you are called Fuad in my country, Bosnia and Herzegovina you will get nick name Fudo. Fuad actually means heart in the Arabic language and it's not as common a name in Bosnia as Sam is in US but I know quite a few Fuad's or should I say Fudo's.

Alles klar?

r3ptil3
2005-06-07, 14:41:27
http://www.theinq.com/?article=17622

If you are called Fuad in my country, Bosnia and Herzegovina you will get nick name Fudo. Fuad actually means heart in the Arabic language and it's not as common a name in Bosnia as Sam is in US but I know quite a few Fuad's or should I say Fudo's.

Alles klar?

Ob Fuad in Bosnien also Spitzname Fudo heisst ist mir egal. Laut ATI kommt der Codename Fudo von einem Japanischen Philosophen.

reunion
2005-06-07, 15:54:54
Dave Baumann scheint z.B. eher den Hype bremsen zu wollen.


Link?

reunion
2005-06-07, 15:58:03
Dann sollten aber sicher keine 650MHz drin sein, oder?

Grüße


Da bereits das erste Tapeout mit über 600Mhz lief, werden es wohl nicht mehr als 4 Quads werden.

Ailuros
2005-06-07, 16:46:10
Aktuell geht man von unter 8k aus.

Aktuell geht keine zuverlaessige Quelle auf solchen Quark aus.

****edit: das letzte Wort auf der Strasse spricht ueber ziemlich groesseren "throughput" in puren Shader-limitierten Situationen. Fuer welchen der Beiden? Derjenige der nicht nur eine ALU pro SIMD Kanal hat *vaporizes back to the shadows* :D

wuzetti
2005-06-07, 17:05:40
Da bereits das erste Tapeout mit über 600Mhz lief, werden es wohl nicht mehr als 4 Quads werden.

seh ich auch so. jetzt wird's halt interessant, was ein quad oder eine ps pipe alles kann.

spekumode=on: wenn z.b. keine zweite volle ALU dazugekommen ist, können sie die taktschraube hochdrehen wie sie wollen und werden gg. NV in den meisten situationen eher nicht so gut ausschauen. vielleicht ist das ja auch der grund für die verzögerung. die angepeilte leistung (~ + 50% ggü. R420) ist zwar da, um NV zu schlagen würde man aber mehr benötigen!? :| /spekumode=off

pF3NG
2005-06-07, 17:57:45
ist die Erweiterung der Pipe um eine ALU nicht schon mehr als ein refresh, der R520 ja werden soll?

Coda
2005-06-07, 18:02:10
Durch SM 3.0 werden eh schon relativ radikale Änderungen nötig. Eigentlich kann es kaum ein reiner Refresh sein, es wird nur auf der bestehenden Architektur aufgebaut, d.h. es ist keine völlige Neuentwicklung alá R500.

Diskutator
2005-06-07, 18:17:02
Stimmt Coda.
Es wird ein komplett NEUES Design sein!

wuzetti
2005-06-07, 18:26:31
Stimmt Coda.
Es wird ein komplett NEUES Design sein!

häh? Coda meinte doch gerade, dass es kein komplett neues design werden wird. würde ja auch angesichts R500 überhaupt keinen sinn machen! :confused:

seahawk
2005-06-07, 18:27:33
Link?

http://www.beyond3d.com/forum/viewtopic.php?t=23600&postdays=0&postorder=asc&start=100

Imho hat er in dem Thread vielse gesagt. Und langsam erahne ich wie die 32Pipes sich errechnen.

seahawk
2005-06-07, 18:28:39
Aktuell geht keine zuverlaessige Quelle auf solchen Quark aus.

****edit: das letzte Wort auf der Strasse spricht ueber ziemlich groesseren "throughput" in puren Shader-limitierten Situationen. Fuer welchen der Beiden? Derjenige der nicht nur eine ALU pro SIMD Kanal hat *vaporizes back to the shadows* :D

Also beide :biggrin:

Ronny145
2005-06-07, 18:35:53
Ich hatte damit gerechnet, dass der R520 erheblich weniger Strom zieht als der G70. Anscheinend sieht´s so aus:
G70: 110 nm; Verbrauch: 110 W
R520: 90 nm low-k: Verbrauch: über 75 W (PCIe stellt 75 W zur Verfügung).
Wegen der (vermeintlich?) niedrigeren Verlustleistung wollte ich die voraussichtlichen ein bis zwei Monate auf den R520 warten, auch wenn er diesmal nicht wieder mehr als doppelt so schnell sein sollte wie der NV. Jedenfalls ist jetzt ein wichtiger ATi-Kaufgrund ins Wanken geraten.


Das wären 35W Unterschied. Aber woher willst du das wissen?

robbitop
2005-06-07, 18:40:03
Stimmt Coda.
Es wird ein komplett NEUES Design sein!
Ein komplett neues Design habe ich im GPU Bereich das letzte Mal zum NV3 gesehen. Das war 1997. Alles andere war "nur" Weiterentwicklung.

Gast
2005-06-07, 20:01:04
Das wären 35W Unterschied. Aber woher willst du das wissen?
Nein, das wären MAXIMAL 35W Unterschied. Der Stecker bedeutet nur, dass ATi die Versorgung über PCIe für nicht ausreichend hält. Weil PCIe 75W liefern kann, könnte der R520 auch weit mehr als 100W brauchen.

Und wer es noch nicht wissen sollte: Es gibt im Internet sog. "Suchmaschinen", da muss man Buchstaben eingeben, und dann werden Internetseiten aufgelistet, auf denen diese Buchstaben vorkommen.

Beispiele:
http://www.google.com/search?hl=de&q=G70+110nm+Verlustleistung
http://www.google.com/search?hl=de&q=R520+90nm+low-k

Ronny145
2005-06-07, 20:04:53
Nein, das wären MAXIMAL 35W Unterschied. Der Stecker bedeutet nur, dass ATi die Versorgung über PCIe für nicht ausreichend hält. Weil PCIe 75W liefern kann, könnte der R520 auch weit mehr als 100W brauchen.

Und wer es noch nicht wissen sollte: Es gibt im Internet sog. "Suchmaschinen", da muss man Buchstaben eingeben, und dann werden Internetseiten aufgelistet, auf denen diese Buchstaben vorkommen.

Beispiele:
http://www.google.com/search?hl=de&q=G70+110nm+Verlustleistung
http://www.google.com/search?hl=de&q=R520+90nm+low-k


lol, was bringt da google. Wurde die Verlustleistung schon getestet oder wie? Also nur reine Spekulation von dir.

Botcruscher
2005-06-07, 20:12:25
http://www.beyond3d.com/forum/viewtopic.php?t=23600&postdays=0&postorder=asc&start=100

Imho hat er in dem Thread vielse gesagt. Und langsam erahne ich wie die 32Pipes sich errechnen.

24PS +8VS ?

Demirug
2005-06-07, 20:22:34
http://www.beyond3d.com/forum/viewtopic.php?t=23600&postdays=0&postorder=asc&start=100

Imho hat er in dem Thread vielse gesagt. Und langsam erahne ich wie die 32Pipes sich errechnen.

Vielleicht zählen sie ja genauso wie nVidia beim NV30.

ShadowXX
2005-06-07, 20:23:52
24PS +8VS ?

Ich schätzte mal eher was in die Richtung 16 x 2.....wobei die 2 IMO nicht für TMUs steht.

//Edit:

@Demi:
vielleicht doch 2 TMUs?? Oder eher in die Richtung "Z-writes".

robbitop
2005-06-07, 20:28:37
Vielleicht zählen sie ja genauso wie nVidia beim NV30.
Du meinst sie zählen ROPs bzw. Z-Writes pro Takt?
Ob irgendjmd nach dem NV30 Desaster soetwas nochmals wagt..?

seahawk
2005-06-07, 20:30:49
Vielleicht zählen sie ja genauso wie nVidia beim NV30.

In diese Richtung denke ich auch.

ShadowXX
2005-06-07, 20:31:07
Du meinst sie zählen ROPs bzw. Z-Writes pro Takt?
Ob irgendjmd nach dem NV30 Desaster soetwas nochmals wagt..?

Wenn die Marketingabteilung hohe Zahlen für die Werbung braucht, wir alles gezählt was bei 3 nicht vom Wafer gehüpft ist....

Diskutator
2005-06-07, 20:33:11
Vielleicht zählen sie ja genauso wie nVidia beim NV30.
Nein, ich denke es wird ein anderer Weg eingeschlagen, das wäre positionierungmässig so nicht verkaufbar, im vergleich zum g70.

Diskutator
2005-06-07, 20:33:33
Wenn die Marketingabteilung hohe Zahlen für die Werbung braucht, wir alles gezählt was bei 3 nicht vom Wafer gehüpft ist....
LOL :eek:

Gast
2005-06-07, 20:33:48
lol, was bringt da google. Wurde die Verlustleistung schon getestet oder wie? Also nur reine Spekulation von dir.LOL?
In welchem Forum sind wir hier eigentlich?
Und es ist nicht "meine" Spekulation. Ich habe nur wiedergegeben, was andere spekulieren, nämlich dass
a) der G70 über 100W verbrauchen WIRD (was wohl feststehen dürfte) und
b) der R520 über 100W verbrauchen KANN (weil er einen zusätzlichen Stecker erhält).

Diskutator
2005-06-07, 20:35:43
LOL?
In welchem Forum sind wir hier eigentlich?
Und es ist nicht "meine" Spekulation. Ich habe nur wiedergegeben, was andere spekulieren, nämlich dass
a) der G70 über 100W verbrauchen WIRD (was wohl feststehen dürfte) und
b) der R520 über 100W verbrauchen KANN (weil er einen zusätzlichen Stecker erhält).

A.) Paßt ungefähr
B.) Weniger als 100W

mapel110
2005-06-07, 20:38:56
a) Wahrscheinlichkeit geht gegen 0
b) Wahrscheinlichkeit geht gegen 0

Aber jedem seine Speku-ansichten. Machts ja bunt hier. :)

Godmode
2005-06-07, 20:55:32
LOL?
In welchem Forum sind wir hier eigentlich?
Und es ist nicht "meine" Spekulation. Ich habe nur wiedergegeben, was andere spekulieren, nämlich dass
a) der G70 über 100W verbrauchen WIRD (was wohl feststehen dürfte) und
b) der R520 über 100W verbrauchen KANN (weil er einen zusätzlichen Stecker erhält).

Schau dir mal die 6800Ultra an die braucht ca 72W. Der G70 wird aber in einem feineren Prozess gefertigt (wie du sicher schon mitbekommen hast nur ne Singleslot Kühlung. Daraus könnte man schließen => kühler als NV40?)
wird aber etwas höher getaktet sein und mehr Transistoren haben, also denke ich wird der G70 in etwa gleich viel Strom ziehen wie eine 6800U, aber ich sag mal provokant sogar weniger.

NV40:http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_10.html
NV43:http://www.xbitlabs.com/articles/video/display/geforce6600gt-oc_3.html

Demirug
2005-06-07, 20:58:47
Die Singelslot Kühlung könnte auch das Ergebniss eines besseren Hotspotmanagments sein.

reunion
2005-06-07, 21:03:21
http://www.beyond3d.com/forum/viewtopic.php?t=23600&postdays=0&postorder=asc&start=100


Thx, wobei von Dave verständlicherweise auch nicht viel mehr kommt als heiße Luft.


Imho hat er in dem Thread vielse gesagt. Und langsam erahne ich wie die 32Pipes sich errechnen.


Ich glaube, dass man die 32 Pipes überhaupt nicht errechnen braucht, sondern, dass es sich entweder um eine geziehlte Fehlinformation seitens ATi handelt, oder, dass FUAD wiedermal Pablicity benötigte. Eher letzteres.

Coda
2005-06-07, 21:03:47
Stimmt Coda.
Es wird ein komplett NEUES Design sein!Sicher nicht.

Godmode
2005-06-07, 21:05:50
Die Singelslot Kühlung könnte auch das Ergebniss eines besseren Hotspotmanagments sein.

Dh multiple Temperaturmessung im Die und dadurch Herunterregelung von bestimmten Teilen, oder Senkung der Taktfrequenz von bestimmten Teilen? Wie darf ich mir das vorstellen, wird dann zb ne Alu einfach ausgeschaltet, oder werden die Daten so verteilt das zb eher eine kühlere Alu die Daten bekommt, dass eine andere wieder etwas abkühlen kann?

deekey777
2005-06-07, 21:06:21
Irgendjemand meinte, daß in der Gamestar stand, der R520 sei ein 16x2 Chip. :|

crusader4
2005-06-07, 21:07:27
Dh multiple Temperaturmessung im Die und dadurch Herunterregelung von bestimmten Teilen, oder Senkung der Taktfrequenz von bestimmten Teilen? Wie darf ich mir das vorstellen, wird dann zb ne Alu einfach ausgeschaltet, oder werden die Daten so verteilt das zb eher eine kühlere Alu die Daten bekommt das eine andere wieder etwas abkühlen kann?Ich würde es eher so interpretieren, das man beim Chipdesign die Einheiten so platziert, das sich keine ausgeprägten Hotspots ergeben. Vielleicht war das jetzt leichter möglich als beim NV40.

reunion
2005-06-07, 21:08:42
Dh multiple Temperaturmessung im Die und dadurch Herunterregelung von bestimmten Teilen, oder Senkung der Taktfrequenz von bestimmten Teilen? Wie darf ich mir das vorstellen, wird dann zb ne Alu einfach ausgeschaltet, oder werden die Daten so verteilt das zb eher eine kühlere Alu die Daten bekommt das eine andere wieder etwas abkühlen kann?


IMO meinte er nur, dass die "Hitzequellen" im Die gut verteilt wurden, um Hotspots zu vermeiden.

reunion
2005-06-07, 21:10:37
Irgendjemand meinte, daß in der Gamestar stand, der R520 sei ein 16x2 Chip. :|


Zwei TMUs pro Pipeline ist garantiert falsch.

Godmode
2005-06-07, 21:10:52
Irgendjemand meinte, daß in der Gamestar stand, der R520 sei ein 16x2 Chip. :|

Da geht aber dann erst die Bandbreite aus!

Godmode
2005-06-07, 21:12:12
IMO meinte er nur, dass die "Hitzequellen" im Die gut verteilt wurden, um Hotspots zu vermeiden.

Achso das hab ich dann falsch verstanden, ich dachte da gehts um dynamische Verteilung der Last, sodass sich nicht imm die gleichen Units aufheizen.

Demirug
2005-06-07, 21:27:34
Eigentlich meinte ich die Hotspots auf dem PCB.

- 4 der Speicherchips sind die Rückseite gewandert sind.
- Der Spannungsteil scheint sich über eine größere Fläche zu verteilen.
- Der Kühlkörper scheint mir ebenso größer zu sein.

TheGood
2005-06-07, 22:22:06
jopp das stand in der printausgabe der gamestar drin mit dem 16*2

Hauwech
2005-06-07, 22:33:55
Nein, ich denke es wird ein anderer Weg eingeschlagen, das wäre positionierungmässig so nicht verkaufbar, im vergleich zum g70.

Warum nicht? Marketingabteilungen erzählen viel wenn der Tag lang ist.

Diskutator
2005-06-07, 22:58:14
a) Wahrscheinlichkeit geht gegen 0
b) Wahrscheinlichkeit geht gegen 0

Aber jedem seine Speku-ansichten. Machts ja bunt hier. :)

Das hast du allerdings recht, jedem seine Ansichten ;)
Wobei ich von max. 80-90W beim R520 ausgehe und das auch anhand 90nm auch logisch wäre. 100W beim G70 (110nm) halte ich sogar noch für zu wenig, aber wir werden sehen :eek: !

Vom Core sehe ich in meiner Glaskugel mind. 600Mhz beim R520.
Bitte haltet mich jetzt nicht für :ucrazy4:

Quasar
2005-06-07, 22:59:17
Vom Core sehe ich in meiner Glaskugel mind. 600Mhz beim R520.
Bitte haltet mich jetzt für :ucrazy4:
Die sehe ich auch - bei max. 5 Quads.

robbitop
2005-06-07, 23:00:12
Das hast du allerdings recht, jedem seine Ansichten ;)
Wobei ich von max. 80-90W beim R520 ausgehe und das auch anhand 90nm auch logisch wäre. 100W beim G70 (110nm) halte ich sogar noch für zu wenig, aber wir werden sehen :eek: !

Vom Core sehe ich in meiner Glaskugel mind. 600Mhz beim R520.
Bitte haltet mich jetzt für :ucrazy4:
Laut XBit Labs hatte die Geforce 6800 Ultra eine Leistungsaufnahme von ~72W im Volllastbetrieb. Das haben die sehr exakt nachgemesessen durch einen AGP Extender und ein zusätzliches Multimeter am 3,5" Eingang.
G70 sollte in diesen Regionen liegen, R520 vieleicht etwas darunter.

Diskutator
2005-06-07, 23:07:03
Laut XBit Labs hatte die Geforce 6800 Ultra eine Leistungsaufnahme von ~72W im Volllastbetrieb. Das haben die sehr exakt nachgemesessen durch einen AGP Extender und ein zusätzliches Multimeter am 3,5" Eingang.
G70 sollte in diesen Regionen liegen, R520 vieleicht etwas darunter.

Laut http://www.tecchannel.de/hardware/1384/3.html aber .........NVIDIA schraubte den Core-Takt von 400 auf 450 MHz, der Speicher arbeitet unverändert mit 550 MHz. Die Messungen an den externen Stromstecker ergeben eine elektrische Leistungsaufnahme von etwa 81 Watt. Addiert man noch die vorgeschriebenen 25 Watt des AGP-Slot, erreicht die Grafikkarte eine Leistungsaufnahme von fast 110 Watt. Alle Details zum GeForce 6800 Ultra finden Sie in .......

ShadowXX
2005-06-07, 23:15:46
Laut http://www.tecchannel.de/hardware/1384/3.html aber .........NVIDIA schraubte den Core-Takt von 400 auf 450 MHz, der Speicher arbeitet unverändert mit 550 MHz. Die Messungen an den externen Stromstecker ergeben eine elektrische Leistungsaufnahme von etwa 81 Watt. Addiert man noch die vorgeschriebenen 25 Watt des AGP-Slot, erreicht die Grafikkarte eine Leistungsaufnahme von fast 110 Watt. Alle Details zum GeForce 6800 Ultra finden Sie in .......

Einen noch etwas älteren Artikel hast du zufälligerweise nicht gefunden, oder?

Von der Tatsache mal abgesehen, dass es keine offizielle 68U mit 450MHz gibt und ich zusätzlich XBit wesentlich mehr traue als techannel.

Es gab/gibt auch noch ein paar andere Seite, die gemessen haben und auf ähnliche ergebnisse wie xbit kamen.
Zwischen 68U und x850xt(pe) liegen um die 7-10Watt. Bei 68U und x850xt(pe) dürfte es noch weniger sein.

Demirug
2005-06-07, 23:16:26
Schon man einen Spannungswandler gesehen der die 25W aus dem AGP ziehen kann? Seit man die externen Anschlüsse hat holt man keine 25W mehr über den AGP weil das viel zu kompliziert ist.

Diskutator
2005-06-07, 23:17:45
Einen etwas älteren Artikel hast du nicht gefunden, oder?

Von der Tatsache mal abgesehen, dass es keine offizielle 68U mit 450MHz gibt und ich zusätzlich XBit wesentlich mehr traue als techannel.

Es gab/gibt auch noch ein paar andere Seite, die gemessen haben und auf ähnliche ergebnisse wie xbit kamen.
Zwischen 68U und x850xt(pe) liegen um die 7-10Watt. Bei 68U und x850xt(pe) dürfte es noch weniger sein.

No, das war "Zufall-Ge-Googelt" *g*, aber mal ehrlich, zu 100W stehe ich! Wir werden sehen, wenn nicht gibt es ne Kiste Bier! Einverstanden!?

Quasar
2005-06-07, 23:18:36
Laut http://www.tecchannel.de/hardware/1384/3.html aber .........NVIDIA schraubte den Core-Takt von 400 auf 450 MHz, der Speicher arbeitet unverändert mit 550 MHz. Die Messungen an den externen Stromstecker ergeben eine elektrische Leistungsaufnahme von etwa 81 Watt. Addiert man noch die vorgeschriebenen 25 Watt des AGP-Slot, erreicht die Grafikkarte eine Leistungsaufnahme von fast 110 Watt. Alle Details zum GeForce 6800 Ultra finden Sie in .......
Laut xBit:
http://www.xbitlabs.com/images/video/ati-vs-nv-power/6800u_table-b.gif

Ist ja nett von Techchannel, daß sie annehmen, daß 25W über den AGP gehen. xBit hat aber gemessen und da kamen <5 Watt via AGP heraus.

Techchannels 81 Watt wären also statt 25 nur um 5 Watt zu erhöhen - für die Ultra Extreme!
Eine normale, auf 440/625 übertaktete Ultra kommt, gemessen(!), "nur" auf ~77W.


edit:
Tja, das hat man nun von einer ausführlichen Begründung... ;( ksrythx!

Diskutator
2005-06-07, 23:20:26
Okay, das könnte so sein! Was hälst du hiervon:

http://www.tweakpc.de/?news_id=7692&rdf=1
NVIDIAs G70: Bilder und Details zur GeForce 7800 GTX
Montag, 30. Mai. 2005 20:03 -[jp]


Hier und da gab es bereits Meldungen zu NVIDIAs neuem Chip, dem G70, welcher auf den GeForce 7800 GTX-Karten zu finden sein wird. Nun sind weitere Details und Bilder aufgetaucht, leider war die Karte allerdings nicht lauffähig.


Geradezu erschreckend ist, was die Kollegen der HardwareZone über die Stromaufnahme zu berichten haben. Satte 150 Watt soll das gute Stück verbraten - 74 Watt werden dabei aus dem PCI- Express Slot gezogen, die zweiten 75 Watt über einen separaten sechspoligen Stromanschluss. Ein potentes Netzteil dürfte somit wohl Pflicht werden, wenn sich diese Angaben bewahrheiten sollten.



Oder hier: http://www.winfuture.de/news,20558.html

Quasar
2005-06-07, 23:28:02
Okay, das könnte so sein! Was hälst du hiervon:

http://www.tweakpc.de/?news_id=7692&rdf=1
NVIDIAs G70: Bilder und Details zur GeForce 7800 GTX
Montag, 30. Mai. 2005 20:03 -[jp]


Hier und da gab es bereits Meldungen zu NVIDIAs neuem Chip, dem G70, welcher auf den GeForce 7800 GTX-Karten zu finden sein wird. Nun sind weitere Details und Bilder aufgetaucht, leider war die Karte allerdings nicht lauffähig.


Geradezu erschreckend ist, was die Kollegen der HardwareZone über die Stromaufnahme zu berichten haben. Satte 150 Watt soll das gute Stück verbraten - 74 Watt werden dabei aus dem PCI- Express Slot gezogen, die zweiten 75 Watt über einen separaten sechspoligen Stromanschluss. Ein potentes Netzteil dürfte somit wohl Pflicht werden, wenn sich diese Angaben bewahrheiten sollten.



Oder hier: http://www.winfuture.de/news,20558.html

Das erste ist eine schlechte Übersetzung einer Fehlinterpretation.
Die Karte haben die Jungs, die die Bilder geschossen haben, bereits im kaputten Zustand bekommen. Sie können also nicht wissen, wie heiss dir geworden ist.
Brandspuren hat auch mein Küchenbrett, wo ich immer die Bratpfanne drauf abstelle - und das nimmt überhaupt keine elektrische Leistung auf. ;)

Wärst du jetzt überrascht, wenn ich dir sagen würde, daß nVidia selbst mal von 130W+ bei einem nV40GL ausgegangen ist? :)

Diskutator
2005-06-07, 23:32:14
Das erste ist eine schlechte Übersetzung einer Fehlinterpretation.
Die Karte haben die Jungs, die die Bilder geschossen haben, bereits im kaputten Zustand bekommen. Sie können also nicht wissen, wie heiss dir geworden ist.
Brandspuren hat auch mein Küchenbrett, wo ich immer die Bratpfanne drauf abstelle - und das nimmt überhaupt keine elektrische Leistung auf. ;)

Wärst du jetzt überrascht, wenn ich dir sagen würde, daß nVidia selbst mal von 130W+ bei einem nV40GL ausgegangen ist? :)

Das stimmt auch wieder! aber mal was anderes zu dieser späten Stunde.....
:eek: Mir sind gerade die Augen ausgefallen!

http://www.ati.com/products/crossfire/index.html
Dann auf "How it works" klicken und sich das Mainboard genau anschauen!

Quasar
2005-06-07, 23:38:29
Es hat einen großen roten Kühlkörper - und was noch?