PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 [20] 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42

reunion
2005-07-01, 12:24:57
Das ATI bei der Vorstellung von Crossfire selber betonte wie sinnvoll doch die Master-/Slave-Lösung sei und wie unsinnig es wäre jede GPU mit einer MultiGPU-Logic zu versehen.

Aber das kenne nwir ja von ATI. (Rialto - hust)

Marketing eben - würde jeder so machen.

Crushinator
2005-07-01, 12:28:41
Das ATI bei der Vorstellung von Crossfire selber betonte wie sinnvoll doch die Master-/Slave-Lösung sei und wie unsinnig es wäre jede GPU mit einer MultiGPU-Logic zu versehen.
Hä? Meinst Du nicht eher Multikarten-Logik? Weil Multi-GPU-fähig ist eh' schon jeder Chip ab R200. Was Multikarten-Logik angeht, ist es eine einfache Rechnung: Wieviel % der Käuferschicht würde sich 2 x 75 bis 100 Watt Verbraucher in sein Gehäuse pressen? Etwa die Mehrheit? Wohl eher nicht. :)
Aber das kenne nwir ja von ATI. (Rialto - hust)
Technisch und wirtschaftlich weniger sinnvoll war eine AGP-Bridge zu gegebener Zeit trotzdem, weil wohl sehr viele dachten, PCI-E würde sich sehr schnell durchsetzen. Es kam jedoch so, wie es kam. Der Markt will AGP eben länger behalten.

robbitop
2005-07-01, 12:59:44
Nur was bringt uns das? Daß auch NV40 und der Nachfolger dessen schlußendlich konsoquente Weiterentwicklungen des NV30 sind, dürfte wohl kaum einer anzweifeln. Eben so, daß eine SM3-Radeon kaum eine gänzlich neue Architektur sein wird. Wenn man nach Deiner Liste ginge, hätte R300 folglich keine Ähnlichkeit mit R200, was Deiner eigenen Meinung vor gar nicht mal so langer Zeit nicht zutreffen würde.
Eine Weiterentwicklung ist etwas anderes als Mitglieder einer Familie.

NV40 ist bsw eine NV30 Weiterentwicklung aber keinesfalls in der NV30 Familie ;)
Da steckt architektonisch viel zu viel dazwischen.

ShadowXX
2005-07-01, 13:01:23
Technisch und wirtschaftlich weniger sinnvoll war eine AGP-Bridge zu gegebener Zeit trotzdem, weil wohl sehr viele dachten, PCI-E würde sich sehr schnell durchsetzen. Es kam jedoch so, wie es kam. Der Markt will AGP eben länger behalten.

Es mag ja sein, das man dachte, dass sich PCIe schneller durchsetzt.....aber warum war dann bitte schön ein Bridgechip "wirtschaftlich weniger sinnvoll"?

IMHO ist genau das Gegenteil der Fall. Der Bridgechip ist wirtschaftlich wesentlich sinvoller, da ich dann keine 2 verschiedenen Chips brauche....

Crushinator
2005-07-01, 13:05:26
(...) IMHO ist genau das Gegenteil der Fall. Der Bridgechip ist wirtschaftlich wesentlich sinvoller, da ich dann keine 2 verschiedenen Chips brauche....
Der Bridge-Chip macht das PCB aufwendiger und teurer, wohingegen 2 verschiedene Interfaces im DIE deren Größe kaum bzw. gar nicht verändern.

Crushinator
2005-07-01, 13:15:50
Eine Weiterentwicklung ist etwas anderes als Mitglieder einer Familie. (...)
Jetzt gerade im Hinblick darauf, daß R520 SM3 beinhalten soll... In wieweit kann man dann von der selben Familienzugehörigkeit sprechen? Wir vertiefen uns mit dieser "R520 ist doch nur ein R300-Ableger" nur in Spekulationen, die letztendlich keine nachvollziehbaren Schlußfolgerungen zulassen, wieweit eine solche Abstammung Einfluß auf die Leistung und/oder Features ausüben könnte.

deekey777
2005-07-01, 13:28:43
Eine Weiterentwicklung ist etwas anderes als Mitglieder einer Familie.

NV40 ist bsw eine NV30 Weiterentwicklung aber keinesfalls in der NV30 Familie ;)
Da steckt architektonisch viel zu viel dazwischen.

Ob man das auch nicht auf den R520 <-> R300/R420 übertragen könnte?
Alles andere wäre doch Untertreibung.

Jetzt gerade im Hinblick darauf, daß R520 SM3 beinhalten soll... In wieweit kann man dann von der selben Familienzugehörigkeit sprechen? Wir vertiefen uns mit dieser "R520 ist doch nur ein R300-Ableger" nur in Spekulationen, die letztendlich keine nachvollziehbaren Schlußfolgerungen zulassen, wieweit eine solche Abstammung Einfluß auf die Leistung und/oder Features ausüben könnte.

Für mich bedeutet, der R520 sei ein Ableger des R300, nur eins: Der R520 liefert iVm SM3.0 eine vergleichbare oder bessere Performance wie die R300 iVm SM2.0. :biggrin:

Crushinator
2005-07-01, 13:38:20
(...) Für mich bedeutet, der R520 sei ein Ableger des R300, nur eins: Der R520 liefert iVm SM3.0 eine vergleichbare oder bessere Performance wie die R300 iVm SM2.0. :biggrin:
Es kann natürlich so kommen, eben so aber auch andersrum. Mir ist's egal, ich will nur Blackjack... X-D

ShadowXX
2005-07-01, 13:47:16
Der Bridge-Chip macht das PCB aufwendiger und teurer, wohingegen 2 verschiedene Interfaces im DIE deren Größe kaum bzw. gar nicht verändern.

Wenn dem so wäre, hätten es wohl doch alle so gemacht.....oder?

Ich schätze mal, das das komplizierter ist, als man sich das ganze so vorstellt.....nicht umsonst sind die Bridgechips relativ groß.

Es wäre sonst ziemlich dämlich (sowohl von nV sowie von ATI) gewesen nicht alle Chips der letzten Generation von Anfang an so zu bauen...man wäre dann immer auf der richtigen Seite gewesen.

Davon abgesehen haben nur die GraKa-Bauer das Kostenproblem bei den PCBs, aber nicht ATI oder nV.

Tomcat70
2005-07-01, 14:08:03
']
@ treibertabelle
Natürlich, alles was gegen ATI spricht ist böse... sehr böse...

wer sagt das diese treibertabelle "gegen" ati spricht? antwort: du

genau darin liegt das problem, du legst wie fast immer alles "gegen" ati aus, egal wie klein, winzig oder wichtig/unwichtig ein detail oder eine sache auch noch sein mag.

Crushinator
2005-07-01, 14:17:52
Wenn dem so wäre, hätten es wohl doch alle so gemacht.....oder?
Nicht jeder hat die gleiche Strategie, wen man als Käufer erreichen möchte.
Ich schätze mal, das das komplizierter ist, als man sich das ganze so vorstellt.....nicht umsonst sind die Bridgechips relativ groß.

Es wäre sonst ziemlich dämlich (sowohl von nV sowie von ATI) gewesen nicht alle Chips der letzten Generation von Anfang an so zu bauen...man wäre dann immer auf der richtigen Seite gewesen.
Verschiedene Platinen gibt's eh' allein durch die verschiedenen Busse, warum soll man da noch einen Chip drauf knallen, der das Ding noch komplizierter macht? Alles rein ins jeweilige DIE, und man erspart sich die Entwicklungskosten für einen Extra Chip. Natürlich beißt man sich wieder in den Schwanz, wenn man die verschiedenen Interfaces bei einem oder mehreren Chips nicht von Anfang an vorgesehen hat, und dieser Fehler ist ATi halt unterlaufen, weil sie den Markt schlicht falsch eingeschätzt haben.

[Edit]
Bridge-Chips sind nur deshalb so groß, weil sie im Prinzip ein zusätzliches Businterface plus Protokoll-Konverter außerhalb des DIE mit anderem Fertigungsprozeß und Package sind.
Davon abgesehen haben nur die GraKa-Bauer das Kostenproblem bei den PCBs, aber nicht ATI oder nV.
Was sich so eben in weniger Margen für den AIB niederschlägt.

reunion
2005-07-01, 14:21:05
Eine Weiterentwicklung ist etwas anderes als Mitglieder einer Familie.

NV40 ist bsw eine NV30 Weiterentwicklung aber keinesfalls in der NV30 Familie ;)
Da steckt architektonisch viel zu viel dazwischen.

Das ist deine persöhnliche Definition, ob das ATi oder nV genauso sehen?
Ob ATi das genauso sieht wie nV?
Diese Diskussion ist nicht zielführend IMO.

robbitop
2005-07-01, 14:28:19
Das ist deine persöhnliche Definition, ob das ATi oder nV genauso sehen?
Ob ATi das genauso sieht wie nV?
Diese Diskussion ist nicht zielführend IMO.
Wenn du schon ein anderes Treiberpaket nutzen musst, bedeutet das aber eine größere Differenz. Das hat Demirug auch schon gesagt.

Crushinator
2005-07-01, 14:32:02
Wenn du schon ein anderes Treiberpaket nutzen musst, bedeutet das aber eine größere Differenz. Das hat Demirug auch schon gesagt.
Sind die neuesten ForceWare denn in verschiedenen Paketen für jeweils NV3x und NV4x erhältlich, oder reden wir hier von verschiedenen Pfaden innerhalb ein- und desselben Treibers?

Ailuros
2005-07-01, 15:00:03
Der ist ja nicht mal mehr unglaubwürdig. Der hat ja schon eine grüne Paranoia. ;D

PS. Wenn jede R520 die Crossfirelogic drinne hat, dann ist der Unterschied zu SLI noch kleiner geworden und Crossfire ist noch mehr eine SLI-Kopie.

Gruene Paranoia der Inquirer?

http://www.theinquirer.net/?article=24306

Eher das Gegenteil, obwohl sie trotz allem immer noch nicht durchblicken....

Ailuros
2005-07-01, 15:04:19
Leider muss ich wie alle anderen wissenden bis zum Launchtag warten, aber nur soviel, wer annähernd die Technik in der Xbox360 verstanden hat, kann sich vorstellen in welchem Umfang die NEUEN DESIGNS beim R520/R580 sein
werden. We will see!

Du hast eben ein nettes Schmunzeln von mir gewonnen, aber mehr nicht. Gut wenn das Zeug zumindest selber glaubst.

Ailuros
2005-07-01, 15:10:42
Kann es nicht sein, dass der G70 mit vergleichbarer ATi AF Qualität deutlich langsamer wäre?

Nein auf keinen Fall.

Exxtreme
2005-07-01, 15:46:34
Ach Leute, ich würde in den Treibereintrag nicht allzuviel hineininterpretieren. :) Es muss nicht unbedingt heissen, daß der R520 ein leicht aufgemotzter R300 ist. Kann sein, daß ATis Treibermodell das ohne Probleme handeln kann auch wenn die Unterschiede grösser sind.

ShadowXX
2005-07-01, 15:59:11
Nicht jeder hat die gleiche Strategie, wen man als Käufer erreichen möchte.

Verschiedene Platinen gibt's eh' allein durch die verschiedenen Busse, warum soll man da noch einen Chip drauf knallen, der das Ding noch komplizierter macht? Alles rein ins jeweilige DIE, und man erspart sich die Entwicklungskosten für einen Extra Chip. Natürlich beißt man sich wieder in den Schwanz, wenn man die verschiedenen Interfaces bei einem oder mehreren Chips nicht von Anfang an vorgesehen hat, und dieser Fehler ist ATi halt unterlaufen, weil sie den Markt schlicht falsch eingeschätzt haben.

[Edit]
Bridge-Chips sind nur deshalb so groß, weil sie im Prinzip ein zusätzliches Businterface plus Protokoll-Konverter außerhalb des DIE mit anderem Fertigungsprozeß und Package sind.

Was sich so eben in weniger Margen für den AIB niederschlägt.

Irgendwie hat das aber keiner gemacht.....weder nV noch ATI.

nV hat von Anfang an auf den Bridgechip gesetzt. Wenn deine Vorgehensweise die bessere wäre, warum hat nV das dann nicht genauso gemacht?

Ailuros
2005-07-01, 16:01:46
Ich kann zwar verstehen dass diejenigen die ATI bevorzugen es nicht gerne einsehen moechten, aber die Firma hat sich seit dem R3xx ganz schoen ueberlastet mit viel zu vielen komplizierten Projekten.

Wer genau will behaupten dass bei ATI in letzter Zeit alles nach Plan laeuft?

Ein anderer Versuch....natuerlich hat der INQ recht dass der G70 nur ein Refresh zu NV40 ist...hallo sind die jetzt erst vom Dornroesschenschlaf aufgewacht oder was? Natuerlich gibt es noch ein paar Bereiche wo der G70 zu wuenschen uebrig laesst (FP16+MSAA z.B.) aber so viel mehr im Vergleich zum NV40 Featureset koennte man auch nicht wirklich bringen vor WGF2.0. Man verhandelte mit SONY fuer einen Console und plante damals die gesamte NV4x Linie mit dem RSX mitinbegriffen.

Den NV30-Flop trug NVIDIA eigene Zeit auf dem Buckel und er laesst immer noch stellenweise einen bitteren Geschmack auf der Zunge auch heute. Weder der Markt noch die Verbraucher aendern solche Einstellungen von einen Tag auf den anderen selbst wenn die folgende Generation um einiges besser ist. G70 ist momentan dabei die NV4x Reihe weiterhin zu etablieren und ja die fruehere Vorstellung/Verfuegbarkeit hilft hier Eindruecke zu gewinnen.

ATI hatte eine andere Verantwortung seit 2002 und zwar die Eindruecke so hoch wie moeglich zu halten seit dem R300-Erfolg. Was die Leistung betrifft schaffte man dieses schon mit R420, aber es war auch ein schneller Schwischenschieber weil man den originalen R400/SM3.0 fuer spaeter und andere Maerkte aufgeteilt hat. R400 war einfach zu langsam fuer PC desktop und es war tatsaechlich eine vereinte Shader-Architektur + SM3.0 + Tesselations-Einheit. Intern wird Xenos nicht mal gerne "R500" genannt weil man die Vergleiche zu R520/PC nicht unterstuetzen will; dazu sind die Unterschiede zwischen den beiden viel zu gross.

R520 ist tatsaechlich was den Aufbau der Shader-Einheiten betrifft verwandt mit R3xx/4xx nur wurde eben das Ganze erweitert um SM3.0 Komplianz zu erreichen. Ich will bezweifeln dass der R520 erstmal >4k PS30 instruction slots wie R500 hat, eher verdammt nahe an den minimalen Vorraussetzungen. Da man den Pegel aber mit der Leistung beim R420/480 verdammt hoch gesetzt hat, ist es praktisch unmoeglich zur gleichen Zeit die Pipeline fuer SM3.0 zu erweitern UND nochmal eine Verdoppelung der Leistung im Vergleich zu R420 zu erreichen und das egal was jeder Fan sich selber einreden will.

Seit dem R300 sind die Margen bei ATI in einer etwas merkwuerdigen Situation und hier ist IMO die Taktik der konstant hoeheren Taktrate im Vergleich zur Konkurrenz schuld. Die hoechste Taktrate bei NVIDIA fuer die NV4x Linie ist immer noch 430MHz.

Kann mir jemand erklaeren warum ATI nicht einen R520 so wie er aussehen wird gleich von Anfang an fuer PC und Console geplant hat? Wer will mir einreden dass Xenos effizienter sein wird?

Crossfire/SLi: natuerlich war es ein marketing-technischer Schachzug von ATI und eine Idee die erst nachdem man Wind von SLi bekam etabliert wurde. Braucht ATI eigentlich multi-board configs? Sicher wenn sie sich im professionellen Markt im high end segment dieses weiterhin halten wollen. Momentan hat 3DLabs als Loesung fuer ultra high end hier multi-chip Loesungen, waehrend NVIDIA als Gegenreaktion auf board-Level skaliert.

Aber zu wenig Zeit und das ganze Southbridge und Master/Slave Gewarkel fuehrt eben zu weiteren Verspaetungen aber das Konzept wird aus dem obrigen Grund (think sales synergy) wohl auf keinen Fall aufgegeben. Dass R520/Crossfire Unterschiede haben wird hoechstwahrscheinlich hab ich ja schon erwaehnt und ausser den anderen Gruenden der R520 Verspaetung spielt das vorige auch eine Rolle u.a.

Geht ATI unter? Auf keinen Fall. Werden die Marktanteile von dem gesamten Resultat bis Ende 2005 beinflusst werden? Ich verweise auf die eigenen ATI forecasts und wer lesen kann versteht schon was ich meine.

ATI wird in der absehbaren Zukunft wieder rekapitulieren und es kann leicht vorkommen dass sich NVIDIA wieder in einer aehnlichen Situation wie ATI heute befinden koennte. Man kann einfach nicht alles richtig machen und es gibt auch keine Garantie dass alle Design-Entscheidungen zum absoluten Erfolg werden. Eigentlich haette ich solche Strategien von ATI nie erwartet denn der NV30 haette ihnen etwas beibringen muessen. Heutzutage muessen die Grossen IHVs einfach das Risiko minimalisieren und die Margen maximalisieren und in diesem Fall hat heute NVIDIA mit dem G70@110nm und RSX (der auf G70 basiert) aus diesem Aspekt die schnellere und billigste insgesamt Loesung.

Crushinator
2005-07-01, 16:06:12
Irgendwie hat das aber keiner gemacht.....weder nV noch ATI.
Wie jetzt? ATi hat's doch so gemacht. 2 Chips mit praktisch selber DIE-Größe jedoch anderem Interface. Nur bei den kleineren Modellen haben sie's scheinbar nicht für nötig gehalten, zumal sie dachten, daß wenn die auf den Markt kommen, daß dann eh' alle PCI-E haben.
nV hat von Anfang an auf den Bridgechip gesetzt. Wenn deine Vorgehensweise die bessere wäre, warum hat nV das dann nicht genauso gemacht?
Ist NV45 nicht auch ein NV40 mit nativem PCI-E Interface im DIE?

Coda
2005-07-01, 16:08:32
Ist NV45 nicht auch ein NV40 mit nativem PCI-E Interface im DIE?Nein. Die Bridge sitzt aber mit auf dem Package. http://images.google.de/images?q=NV45

Quasar
2005-07-01, 16:10:36
Quasar,

du verzettelst dich in etwwas. Der R520 ist ein NEUES Design und wesentlich effizienter als NV40, G70 oder R420. Ich freue mich schon auf den Launch und die ersten Vergleiche, ATI hat auch noch einen Joker in der Hand, ich sage nur R580!
Jaja, das neue Design habe ich schon beim R420 (RV350 und höher) gehört und bei der XBox360 (R400, der gecancelte). Du wirst also entschuldigen, wenn ich dem "neuen" Design erstmal nicht weiter traue, als ich es werfen kann. ;)
Wie neu es ist, darf es dann gern beim Launch unter Beweis stellen.

Außerdem sagte ich ja auch selbst, daß es weniger pro Pipe als im R4xx wohl eher nicht sein kann.

reunion
2005-07-01, 16:19:45
Kann mir jemand erklaeren warum ATI nicht einen R520 so wie er aussehen wird gleich von Anfang an fuer PC und Console geplant hat?


Weil eine Console einige Jahre länger halten muss als ein Desktopchip, und deshalb einen technologisch möglichst hoch entwickelten Chip benötigt/bevorzugt?

Crushinator
2005-07-01, 16:30:44
Nein. Die Bridge sitzt aber mit auf dem Package. http://images.google.de/images?q=NV45
Also, hat nVIDIA das native Interface auf AGP implementiert. Ich ging genau vom Gegenteil aus. Es war natürlich in sofern schlau, weil der Markt heute immer noch mehr AGP-Karten verlangt, auch wenn es wirtschaftlich (Package ahoi) noch interessanter gewesen wäre, hätten sie von Anfang an DIEs mit unterschiedlichem Interface hergestellt.

Crushinator
2005-07-01, 16:39:49
Weil eine Console einige Jahre länger halten muss als ein Desktopchip, und deshalb einen technologisch möglichst hoch entwickelten Chip benötigt/bevorzugt?
Immer wieder die selben Diskussionen. Mal ist technische Überlegenheit toll, mal die reine Performance, mal die billigste Herstellung. Je nach dem, welchen IHV man bevorzugt, ist das eine toll oder das andere. Ich steige langsam eh' nicht mehr durch, zumal man einerseits AA & AF Performance als unverzichtbar empfindet, aber gleichzeitig einen Chip der 4xAA in der hauptsächlich anzutreffenden Auflösung quasi for Free anbietet als zu langsam bezeichnet, selbstverständlich ohne den Chip jemals im Einsatz gesehen zu haben.

Es lebe das Spekulationsforum. :uup:

Ailuros
2005-07-01, 16:40:22
Weil eine Console einige Jahre länger halten muss als ein Desktopchip, und deshalb einen technologisch möglichst hoch entwickelten Chip benötigt/bevorzugt?

Was spricht gegen die Lebenszeit eines theoretischen R520 oder im Vergleich des RSX in der PS3?

Crushinator
2005-07-01, 16:43:35
Was spricht gegen die Lebenszeit eines theoretischen R520 oder im Vergleich des RSX in der PS3?
Meiner Meinung nach ihre Untauglichkeit, längerfristig (WGF 2.0 ahoi) Spiele unkompliziert sowohl für Windows als auch für die Konsole entwickeln zu können.

Ailuros
2005-07-01, 16:46:31
Immer wieder die selben Diskussionen. Mal ist technische Überlegenheit toll, mal die reine Performance, mal die billigste Herstellung. Je nach dem, welchen IHV man bevorzugt, ist das eine toll oder das andere. Ich steige langsam eh' nicht mehr durch, zumal man einerseits AA & AF Performance als unverzichtbar empfindet, aber gleichzeitig einen Chip der 4xAA in der hauptsächlich anzutreffenden Auflösung quasi for Free anbietet als zu langsam bezeichnet, selbstverständlich ohne den Chip jemals im Einsatz gesehen zu haben.

Es lebe das Spekulationsforum. :uup:

Wenn es zu Themen kommt die die Resourcen eines IHV betrifft fuer eine gesamte Aera wie DX9.0, ist das ganze eben nicht irrelevant.

Geschichtlich gesehen ist der Mega-hype ueber die Consolen konstant immer so gross dass wenn die Veroeffentlichung endlich kommt, sich das Ganze wieder auf normale Nivaeus wieder zuruecksetzt. Noch schlimmer wenn die Spiele der Zukunft dann parallel fuer PC und Console veroeffentlicht werden und das Endresultat doch nicht besonders besser auf der letzteren aussieht, eher das Gegenteil.

Ailuros
2005-07-01, 16:48:40
Meiner Meinung nach ihre Untauglichkeit, längerfristig (WGF 2.0 ahoi) Spiele unkompliziert sowohl für Windows als auch für die Konsole entwickeln zu können.

Wer sagt Dir eigentlich dass vereinigte Shaders auf HW level eine Vorraussetzung bei WGF2.0 sein wird? Dem API wird es schnuppe sein wie die HW ausgelegt ist, so lange jeglicher chip mit dem code umgehen kann.

Welche WGF2.0 Spiele ueberhaupt fuer Xenos? Xenos ist nach wie vor NUR ein SM3.0 Design.

***edit: uebrigens von dem Zeug abgesehen, Entwickler wuerden so oder so die Spiele beiden Consolen anpassen muessen. Selbst wenn es einen theoretischen Vorteil fuer vereinte Shader Architekturen geben wuerde momentan, wuerde dieser wohl gar nichts bringen wenn ein ISV fuer beide grosse Consolen entwickeln wird.

Crushinator
2005-07-01, 17:05:11
Wer sagt Dir eigentlich dass vereinigte Shaders auf HW level eine Vorraussetzung bei WGF2.0 sein wird? Dem API wird es schnuppe sein wie die HW ausgelegt ist, so lange jeglicher chip mit dem code umgehen kann.
Es geht doch nicht darum, ob es eine Voraussetzung ist, sondern darum, daß man später eine neue Karte in den PC stopft und man hat's, während man bei 'ner Konsole in die Röhre gucken muß. Fallen wir jetzt wieder zurück in die alten Diskussionen, wo man SM2.a und SM3 für fast sinnfrei erklärt, nur weil es ATi eben nicht hatte?
Welche WGF2.0 Spiele ueberhaupt fuer Xenos? Xenos ist nach wie vor NUR ein SM3.0 Design.
Was ist denn WGF 2.0? Etwa SM4?
***edit: uebrigens von dem Zeug abgesehen, Entwickler wuerden so oder so die Spiele beiden Consolen anpassen muessen. Selbst wenn es einen theoretischen Vorteil fuer vereinte Shader Architekturen geben wuerde momentan, wuerde dieser wohl gar nichts bringen wenn ein ISV fuer beide grosse Consolen entwickeln wird.
Klar, aber dann wenn er nur für eine der Konsolen plus für Windows entwickelt, und das wahre Ziel von Microsoft dürfte kaum etwas anderes sein.

Gast
2005-07-01, 17:08:15
Was ist denn WGF 2.0? Etwa SM4?.

Ja, nur eben müssen bis dahin Pixel und Vertex Shader das gleiche können.

mapel110
2005-07-01, 17:10:26
Es geht doch nicht darum, ob es eine Voraussetzung ist, sondern darum, daß man später eine neue Karte in den PC stopft und man hat's, während man bei 'ner Konsole in die Röhre gucken muß. Fallen wir jetzt wieder zurück in die alten Diskussionen, wo man SM2.a und SM3 für fast sinnfrei erklärt, nur weil es ATi eben nicht hatte?

Inwiefern sind denn Unified Shaders eine "neue Funktion"? Inwiefern bringen sie Features? IMO in erster Linie gar keine.
Was ist denn WGF 2.0? Etwa SM4?

http://www.extremetech.com/article2/0,1558,1791685,00.asp
Ja, nur eben müssen bis dahin Pixel und Vertex Shader das gleiche können.
Ist keine Bedingung mehr für WGF2.0.

Gast
2005-07-01, 17:14:22
spoiler mode on


There are some rumors around AIB .

(1) 700Mhz 32 shaders can reach 14000(3D05)
(2) TSMC's refined process only can offer 500MHz for R520.

So, Do some math,Even the 32 shaders R520 with 500MHz Core you can
reach less than 10000(3D05)

but most interesting part is there will be only a few fully 32 shaders core.

hmmmm, you know what i mean.

Gast
2005-07-01, 17:19:26
Above all is directly from AIB.

Coda
2005-07-01, 17:20:45
Ja, nur eben müssen bis dahin Pixel und Vertex Shader das gleiche können.Das ist auch bei SM 3.0 schon weitgehend so.

Bei WGF 2.0 kommt noch eine zusätzliche Pipelinestufe hinzu, die das ganze Polygon sieht, außerdem wird wohl an den Inputstreams geschraubt werden (Demirug sagte mal was von Konstantenbuffern).

Crushinator
2005-07-01, 17:21:52
(...) Ist keine Bedingung mehr für WGF2.0.
Nicht in Hardware, klar aber durch die API. Wenn wir schon so anfangen, könnte man auch NV3x ohne weiteres SM3 beibringen, natürlich durch die CPU. Das wird vermutlich ungefähr die selbe Performance bieten, wie eine GPU die mit beispielsweise 6 Vertexshadern an Geometrie arbeitet, die von der Komplexität eigentlich für 24 dieser Einheiten gedacht war, um jetzt bewußt weit herzuholen. :D

Gast
2005-07-01, 17:28:13
*snip*
hatten wir hier schon
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3209753#post3209753

Ailuros
2005-07-01, 17:41:32
Es geht doch nicht darum, ob es eine Voraussetzung ist, sondern darum, daß man später eine neue Karte in den PC stopft und man hat's, während man bei 'ner Konsole in die Röhre gucken muß. Fallen wir jetzt wieder zurück in die alten Diskussionen, wo man SM2.a und SM3 für fast sinnfrei erklärt, nur weil es ATi eben nicht hatte?

Und um wieviel hat ATI wirklich in die Roehre geglotzt am Ende? Nein SM3.0 vs. SM2.0 hat gar nichts damit zu tun.

Was ist denn WGF 2.0? Etwa SM4?

Es gibt kein Shader Model 4.0 momentan nur Shaders. WGF2.0 hat auch einen Geometrie Shader neben den anderen Shadern und somit ist Xenos=SM3.0.

Klar, aber dann wenn er nur für eine der Konsolen plus für Windows entwickelt, und das wahre Ziel von Microsoft dürfte kaum etwas anderes sein.

Stellt immer noch keinen selbst theoretischen Vorteil dar, da es *nochmal* dem zukuenftigen API egal ist wie die Einheiten auf der Hardware organisiert sind. Einzige wahre Vorraussetzung fuer WGF2.0 ist das die HW vereinten shader core bearbeiten kann.

Ailuros
2005-07-01, 17:47:08
Nicht in Hardware, klar aber durch die API. Wenn wir schon so anfangen, könnte man auch NV3x ohne weiteres SM3 beibringen, natürlich durch die CPU. Das wird vermutlich ungefähr die selbe Performance bieten, wie eine GPU die mit beispielsweise 6 Vertexshadern an Geometrie arbeitet, die von der Komplexität eigentlich für 24 dieser Einheiten gedacht war, um jetzt bewußt weit herzuholen. :D

Consolen haben ihr eigenes API.

Die letztere Uebertreibung uebergehe ich eigentlich da so eine Debatte keinen Sinn macht. Die CPUs/GPUs aller Consolen der Vergangenheit sind bekannt; ebenso wie schnell der PC die GPU und CPU Leistung (**edit: jeglicher Console) in minimaler Zeit ueberrennt hat.

Crushinator
2005-07-01, 18:02:04
Und um wieviel hat ATI wirklich in die Roehre geglotzt am Ende? Nein SM3.0 vs. SM2.0 hat gar nichts damit zu tun.
Natürlich hat es mit SM3 vs SM2 wenig direkt zu tun, die Parallelen zwischen dieser Diskussionen sind aber deutlich sichtbar, und wenn man sich den Markt anschaut, verkaufen sich ATis aktuelle Highend Chips besser als man durch die technologische Unterlegenheit annehmen müßte. Daher kann die Strategie des hohen Taktes gar nicht so schlecht gewesen sein. Sie haben sich nur ins Bein geschossen, in dem sie Midrange dank lange fehlendem und preislich immer noch wenig attraktiven AGP-Chips vernachläßigt haben. Welcher teufel sie auch da immer geritten haben mag.
Es gibt kein Shader Model 4.0 momentan nur Shaders. WGF2.0 hat auch einen Geometrie Shader neben den anderen Shadern und somit ist Xenos=SM3.0.
Die Frage war mehr ironisch gemeint, was soviel heißen sollte wie, daß dem Xenon nicht viel fehlt um WGF 2.0 in Hardware wiederzuspiegeln, und trotzdem wird das Ding praktisch als Unsinn dargestellt. Warum können wir nicht einfach abwarten und diese Implementierung von Unified Shaders im reelen Einsatz sehen?
Stellt immer noch keinen selbst theoretischen Vorteil dar, da es *nochmal* dem zukuenftigen API egal ist wie die Einheiten auf der Hardware organisiert sind. Einzige wahre Vorraussetzung fuer WGF2.0 ist das die HW vereinten shader core bearbeiten kann.
Ist es denn gar kein Vorteil, den Chip je nach Bedarf in HW optimal auszulasten? Meiner Meinung nach schon.

mapel110
2005-07-01, 18:04:27
Ist es denn gar kein Vorteil, den Chip je nach Bedarf in HW optimal auszulasten? Meiner Meinung nach schon.
Ist schon ein Vorteil, aber auch ein Nachteil. Man braucht mehr Transistoren, was sich wieder negativ auf den Takt auswirkt.

Gast
2005-07-01, 18:07:03
hab seid heute den r520 hier, ist ca. 2 mal so schnell wie eine 7800 GTX und hat 32 Pipes :)

Crushinator
2005-07-01, 18:15:00
(...) Die letztere Uebertreibung uebergehe ich eigentlich da so eine Debatte keinen Sinn macht. Die CPUs/GPUs aller Consolen der Vergangenheit sind bekannt; ebenso wie schnell der PC die GPU und CPU Leistung (**edit: jeglicher Console) in minimaler Zeit ueberrennt hat.
Dir steht es natürlich frei dies zu glauben. Die PS2 ist nach immerhin 5 Jahren immer noch äußerst beliebt, und Microsoft hat ihre Ziele bisher über kurz oder lang faktisch fast immer durchgesetzt. Abgesehen davon, warum sollte es ATi nicht gelingen Xenon noch weiter zu verfeinern und in relativ kurzer Zeit auch PC-tauglich machen? Wenn die Zukunft so aussieht, daß es optimal wäre die Unified API in HW umzusetzen, dann haben sie doch jetzt schon genügend Erfahrung darin gesammelt. Ähnlich wie nVIDIA mit NV3X.

Jetzt mal ehrlich. ATi würde es auch nicht wirklich schaden, mal einen Dämpfer zu kassieren. Konkurrenz belebt halt das Geschäft, und ich denke wir sind uns im Grundsatz einig, daß sie sich einfach zu viele Projekte vorgenommen haben, bei denen sie sich in der Tat zu weit aus dem Fenster gelehnt haben, sei's mit ihrer Markteinschätzung (AGP/PCI-E) oder auch mit ihrer Annahme, daß die Konkurrenz wohl nicht allzu schnell aufholen oder gar überholen würde.

Gast
2005-07-01, 18:16:17
hab seid heute den r520 hier, ist ca. 2 mal so schnell wie eine 7800 GTX und hat 32 Pipes :)

...

marlurau
2005-07-01, 18:18:14
zweimal so schnell in Welcher Auflösung und Filtereinstellung ?
Sollen wir dir dies überhaupt glauben ?

Ailuros
2005-07-01, 18:18:51
Natürlich hat es mit SM3 vs SM2 wenig direkt zu tun, die Parallelen zwischen dieser Diskussionen sind aber deutlich sichtbar, und wenn man sich den Markt anschaut, verkaufen sich ATis aktuelle Highend Chips besser als man durch die technologische Unterlegenheit annehmen müßte. Daher kann die Strategie des hohen Taktes gar nicht so schlecht gewesen sein. Sie haben sich nur ins Bein geschossen, in dem sie Midrange dank lange fehlendem und preislich immer noch wenig attraktiven AGP-Chips vernachläßigt haben. Welcher teufel sie auch da immer geritten haben mag.

Mainstream ebenso wie AGP ebenso wie die Taktraten gehoeren eigentlich in den gleichen Topf. X800XT PE das einzige Modell dass mit Sicherheit um Marge X den NV40 geschlagen hat, war ueberselten damals.

ATI hat sich durch die Leistung der high end chips ueber Wasser halten koennen, aber im high end Bereich wurde aus der 80:20 Relation bei der NV30 Vorstellung eigentlich 60:40 bei der NV40 Vorstellung und die letztere Relation hat sich weiterhin in NVIDIA's Richtung gedreht.

Ich hab mich uebrigens nicht nur auf Taktraten in meinem langen Post bezogen; nochmal durchlesen falls es noetig sein sollen. Die negativen finanzielle Resultate bei ATI zeitlich sind nicht nur durch Verkaufszahlen entstanden (egal wie gut diese waren) sondern eher durch die vergleichsmaessig hohe R&D Ausgaben in letzter Zeit. Haette ich kein vergleichbares Beispiel wuerde ich leicht sagen koennen dass es nicht besser ginge. Da sich aber das NVIDIA-Modell bis jetzt auf mehr als nur einer Front als besser bewiesen hat, hab ich auch guten Grund zu einem langwierigen Versuche einer laienhaften Analyse.

Wo steht dass es ATI formidabel geht und dass sie nur den einen chip nach dem anderen auf den Markt werfen? Es hapert irgendwo und bei mir ist der ATI vs. NVIDIA Wettstreit sowieso irrelevant.

Die Frage war mehr ironisch gemeint, was soviel heißen sollte wie, daß dem Xenon nicht viel fehlt um WGF 2.0 in Hardware wiederzuspiegeln, und trotzdem wird das Ding praktisch als Unsinn dargestellt. Warum können wir nicht einfach abwarten und diese Implementierung von Unified Shaders im reelen Einsatz sehen?

Unsinn nicht, aber es haette billigere Loesungen gegeben. Was soll ich gross abwarten? Das 8.Wunder der GPUs oder den Holy Grail?

Ist es denn gar kein Vorteil, den Chip je nach Bedarf in HW optimal auszulasten? Meiner Meinung nach schon.

Welcher Vorteil genau?

Ailuros
2005-07-01, 18:20:30
hab seid heute den r520 hier, ist ca. 2 mal so schnell wie eine 7800 GTX und hat 32 Pipes :)

Sandkasten rechts um die Ecke; Schaufel bitte mitbringen.

Gast
2005-07-01, 18:23:45
Das war aber kein spezielles AGP Problem, PCI-E Karten waren genauso minimal am Markt.
Zum Umsatz, der Umsatz von ATI ist nicht geringer geworden, lediglich der Gewinn ist weg, bzw. wurden 9Mio. $ Miese gemacht. Das hat sehr wohl was mit hohen Entwicklungskosten zu tun. Wenn ich nämlich gleichen Umsatz habe wie im Vorquartal, wo es ca. 50Mio Gewinn gab, dann müssen irgendwelche Kosten den Gewinn aufgefressen haben.


Du liegst hier total falsch.
Wenn ihr schon über die Quartalszahlen redet, dann gebt diese auch richtig wieder.
Der Umsatz ist sehr wohl gefallen und zwar deutlich. Du beziehst dich auf den Vergleich zum Quartal des Vorjahres. So und nun rate mal wieso Unternehmen manchmal das Vergleichsquartal vom Vorjahr zum Vergleich heranziehen und manchmal direkt das zuvor abgelaufene Quartal. Na klingelts?
weil man sich die Zahlen so zurecht legen will, dass es hübscher aussieht.

Den Vergleich zum Vorjahresquartal kannst getrost vergessen.
ATI hat im 3. Quartal 2 mal die Prognosen nach unten revidiert. Es waren Ende des 2. Quartals um die 600 Mio Umsatz und ein ordentlicher Gewinn für das 3. Quartal vorausgesagt worden. Diese Prognosen hat ATI ganz krass verfehlt. Hinzu kommt, dass sie noch nichtmal ihre zum 2. Mal reduzierten Prognosen getroffen haben und auch die noch verfehlt wurden.
Und jetzt mal zu den Zahlen und zwar im direkten Vergleich zum 2. Quartal

Zahlen:

Umsatz - 78 Mio $ bei nun 530 Mio $
Gewinn - nicht vorhanden und in einen Verlust von 9 Mio ausgeartet
Bruttomargen auf Desktop GPUs -7% von 35 auf 28 %.
Gleichzeitig wurden die Prognosen für die nächsten 2 Quartale nach unten revidiert.

Nvidia hatte 4 Wochen zuvor seine Q2 Zahlen bekanntgegeben. Umsatz 593 Mio und ein saftiger Gewinn. Bruttomargen auf Desktop GPUs 37% tendenz Richtung 40% im jetzt laufenden Quartal.

So und nun erklär mir mal, was ein Investment in zukünftige Produkte mit gesunkenen Umsätzen zu tun hat in einem krassen Außmas wie oben?
Richtig gar nichts.

Die o.g. Zahlen inklusive die Marktanteilsanalyse von Mercury Research zeigen ganz klar folgende Dinge:

1) ATI hat den Kampf zwischen X8xx/X7xx gegen GF6xxx eindeutig am Markt verloren ohne wenn und aber.
Sie verlieren Umsatz und sie verlieren Kunden in hohem Außmaß - vor allem in den Preissegmenten oberhalb des value segments (also GF6200 und X300/600).
Der komplette Mainstreambereich wird von Nvidia dominiert - vor allem durch die 6600GT. AGP sah bei ATI und sieht auch noch jetzt zum Teil schlecht aus vor allem in volumenstärkeren Bereichen im Preissegment zwischen 100 und 200$.

2) ATIs X8xx/x7xx Produkte weisen eine schlechte Herstellungskosteneffizienz auf. Soll heissen, dass der Yield nicht gut ist und die Boards inklusive Kühlung zu teuer. Zusätzlich lässt die Nachfrage nach Mainstream und HIgh End Produkten nach, so dass die Margen sich insgesamt auf einem radikalen Sinkflug befinden.
ATI ist bei den Bruttomargen nun nur noch 1% über dem Tiefstwert den Nvidia mit der GF FX erreicht hat. Das ist schon ziemlich aussagekräftig, was die Kosteneffizienz der aktuellen Produktreihe angeht.
Dagegen fliegt Nvidia von einem Hoch zum nächsten.
Und damit das Bild noch nicht trübe genug ist, sollte sich jeder mal vor Augen halten, dass die X800 und X800XL die die Wende bringen sollten in diesen Zahlen voll mit drinne sind.
Es ist so krass aussagekräftig, dass ATI einen MArgensinkflug mit einer X800XL auf 0.11 bekommt, die im 2 stelligen Millionenbereich weniger Transistorten als eine GF6800GT aufweist (160bis 180 vs 220Mio ) und die noch über einen Fertigungsvorteil (0.11 vs 0.13) verfügt, dass es nicht mehr lustig ist. Die DIE Fläche ist so viel kleiner als bei der 6800GT. Da müsste ATI doch eigentlich super Gewinne einfahren.
Tun sie aber nicht. Das sagt uns, dass der yield beschissen ist für die jetzige Produktlaufzeit (er wird ja normalerweise mit steigender Laufzeit immer besser) und das die Platinen zu teuer sind. Die Rialto Bridge, zu der ATI gezwungen wurde wird ein übriges tun. Diese Kosten hatte ATI sicher zu Anfang nicht geplant. Sie sind mit ihrer PCI-E Strategie voll auf die Fresse gefallen. Nvidia kann jetzt sagen "wer zuletzt lacht, lacht am besten" wo ATI sich über den HSI noch lustig gemacht hatte. Voll Daneben!

So und nun noch die ganz schlechte Nachricht für Euch meine lieben Freunde.
Der R520 und seine Verspätungen sind in diesen miesen Zahlen von ATI noch gar nicht enthalten. Das geht alles noch wunderbar aufs Konto der aktuellen Reihe. Es soll also bloß keiner mehr ankommen und hier behaupten, wie toll ATI mit der X8xx und X7xx Reihe gelegen hat. Von wegen SM3 braucht keiner und Performance ist alles etc..

Nvidia war agressiv, ist hohes Risiko gegangen und hat gewonnen. Das Design des NV4xx muss so verdammt gut und modular sein, anders kann ich mir nicht erklären, wie Nvidia mit so viel größeren DIEs als ATI solche Rekordmargen einfährt, während ATI bei GeForce FX Tiefstwerten herumdümpelt.

ATI lernt aktuell und in den kommenden Monaten eine richtig ordentliche Lektion. Es braucht keiner glauben, dass wenn der R520 kommt gleich alles besser wird. Da muss erstmal Ersatz für die aktuelle Produktreihe her. Mit der ist nichts mehr zu holen, weil der Kunde sie nicht mehr will. Vor allem verschärft ATI das Problem auch noch selber. Sie setzen mit dem R520 auf SM3. Wie will man da dem Kunden noch klar machen, er soll eine X8xx oder X7xx SM2 Karte kaufen, wenn er fürs gleiche Geld oder oft sogar für weniger Geld bei der Konkurenz SM3 Hardware bekommt. Das wird noch ein lustiges Jahr 2005 bei ATI. Die haben in nächster Zeit wirklich wenig zu lachen und das wissen sie auch.
Es wird an der Zeit, dass die ganzen chronischen Nichteinseher hier im Forum mal zu den Realitäten kommen und sich nicht in Ausreden flüchten. Bei ATI gibts momentan nichts schönzureden.
- die Technologie ist für den Markt zu alt
- es folgt ein schlecht organisierter Paperlaunch nach dem anderen
- die Kunden laufen zur Konkurenz und
- die betriebswirtschaftlichen Ergebnisse sind auf Talfahrt.

Ailuros
2005-07-01, 18:25:03
Dir steht es natürlich frei dies zu glauben. Die PS2 ist nach immerhin 5 Jahren immer noch äußerst beliebt, und Microsoft hat ihre Ziele bisher über kurz oder lang faktisch fast immer durchgesetzt. Abgesehen davon, warum sollte es ATi nicht gelingen Xenon noch weiter zu verfeinern und in relativ kurzer Zeit auch PC-tauglich machen? Wenn die Zukunft so aussieht, daß es optimal wäre die Unified API in HW umzusetzen, dann haben sie doch jetzt schon genügend Erfahrung darin gesammelt. Ähnlich wie nVIDIA mit NV3X.

Xenos und R600 haben nur die vereinten Einheiten gemeinsam. Sonst gibt es fundamentale Aenderungen in mehr als nur einem Bereich.

Was war so besonders an PS2 oder der originalen XBox? Fuer Consolen-fans war das ausgewaschene low-resolution Zeug gut genug oder sogar ausgezeichnet aber was man bezahlt bekommt man auch.

Nochmal Consolen haben ihre eigene APIs und NV2A ist auch nicht = NV20/5.

Was hat NV3x hiermit zu tun?

Jetzt mal ehrlich. ATi würde es auch nicht wirklich schaden, mal einen Dämpfer zu kassieren. Konkurrenz belebt halt das Geschäft, und ich denke wir sind uns im Grundsatz einig, daß sie sich einfach zu viele Projekte vorgenommen haben, bei denen sie sich in der Tat zu weit aus dem Fenster gelehnt haben, sei's mit ihrer Markteinschätzung (AGP/PCI-E) oder auch mit ihrer Annahme, daß die Konkurrenz wohl nicht allzu schnell aufholen oder gar überholen würde.

Genau das sagte ich ja in dem langen Post. Wo genau stimmen wir am Ende nicht ueberein dass ich verpasst habe?

Ailuros
2005-07-01, 18:30:04
Gast,

Den Rest koennte ich eventuell noch verdauen aber das hier:

Nvidia war agressiv, ist hohes Risiko gegangen und hat gewonnen. Das Design des NV4xx muss so verdammt gut und modular sein, anders kann ich mir nicht erklären, wie Nvidia mit so viel größeren DIEs als ATI solche Rekordmargen einfährt, während ATI bei GeForce FX Tiefstwerten herumdümpelt.

Wo genau ist das Risiko diesmal wenn man fuer high end PC immer noch auf 110nm bleibt?

Erstmal ist es billiger und zweitens sind die libraries mit 130nm ziemlich verwandt. Fuer 90nm waere nicht nur das Risiko groesser gewesen, sondern es haette auch viel mehr Zeit und Resourcen gekostet.

Mehr Einheiten + moderate Taktrate war die Erfolgsmasche der R3xx-Linie.

Mr. Lolman
2005-07-01, 18:30:39
hab seid heute den r520 hier, ist ca. 2 mal so schnell wie eine 7800 GTX und hat 32 Pipes :)

Genau das erwart ich auch...

Crushinator
2005-07-01, 18:32:53
Ist schon ein Vorteil, aber auch ein Nachteil. Man braucht mehr Transistoren, was sich wieder negativ auf den Takt auswirkt.
Xenos hat rein von Logic-Transistoren weniger als 260M und läuft bereits mit 500 MHz mit 128 bit Anbindung. Das hat IMHO sehr viel Steigerungspotenzial.

Ailuros
2005-07-01, 18:32:59
Genau das erwart ich auch...

Lass Dich bloss nicht zu stark enttaeuschen... :|

Gast
2005-07-01, 18:34:20
Genau das erwart ich auch...
Wo ist der smiley?

Crushinator
2005-07-01, 18:34:53
Genau das sagte ich ja in dem langen Post. Wo genau stimmen wir am Ende nicht ueberein dass ich verpasst habe?
Das Du ATi meiner Meinung nach zu früh abschreibst, nur das. :)

Crushinator
2005-07-01, 18:37:05
Lieber gesperrter User,

daß Dein Post immer noch hier steht, hat nur einen einzigen Grund, nämlich daß bereits darauf eingegangen wurde. Zukünftige werden ohne zu zögern getrasht.

Ailuros
2005-07-01, 18:40:59
Das Du ATi meiner Meinung nach zu früh abschreibst, nur das. :)

Abschreiben? Genau das gleiche hoerte ich ueber meine Kommentare Mitte 2002 ueber NV3x. Ich schreibe gar nichts und niemanden ab. Man kann einfach nie stets gewinnen und es gibt fuer alle Firmen Hoehen und Tiefen.

ATI's "Tief" wird zwar diesmal nicht so radikal sein wie bei NV30, aber von besonderen Margen oder sogar Gewinn dieses Jahr zumindest kann ich schwer was momentan sehen.

***edit: es gibt uebrigens einen newsblurb von digitimes der davon spricht dass ATI vielleicht mainstream/low end R5xx zuerst vorstellen koennte (alles auf 90nm?). Kein schlechter Schachzug wenn wahr (digitimes ist keine trash tabloid Seite in meinem Buch), aber es ist nur eine weitere Bestaetigung dass doch nicht alles nach Plan laeuft und bestaetigt auch die Taktraten Theorie, da die Anzahl der Einheiten und Taktraten um einiges kleiner sind in diesen Markt-segmenten.

Crushinator
2005-07-01, 18:46:40
Abschreiben? Genau das gleiche hoerte ich ueber meine Kommentare Mitte 2002 ueber NV3x. Ich schreibe gar nichts und niemanden ab. Man kann einfach nie stets gewinnen und es gibt fuer alle Firmen Hoehen und Tiefen.
Ich gewann mit der Zeit den Eindruck, daß Du gezielt rein die negativen Aspekte der Strategie in den Vordergrund stelltest und versuchte halt mit den Positiven dagegen zu halten. Mehr solltest Du da nicht hineininterpretieren. Ich bin ansonsten eigentlich sehr lieb. ;)
ATI's "Tief" wird zwar diesmal nicht so radikal sein wie bei NV30, aber von besonderen Margen oder sogar Gewinn dieses Jahr zumindest kann ich schwer was momentan sehen.
Jepp, und nur sie selbst sind daran schuld. Dafür könnte es nächstes Jahr besser werden, vorausgesetzt die Yields stimmen.

StefanV
2005-07-01, 18:46:46
Wenn du schon ein anderes Treiberpaket nutzen musst, bedeutet das aber eine größere Differenz. Das hat Demirug auch schon gesagt.
Quatsch, das ist nur das, was du sehen willst.

Andersrum kanns aber auch sein, das man es nicht MÖCHTE, unter anderem weil man ein paar Käfer ausgemerzt hat und man somit ein paar Dinge nicht mehr braucht.

Andersrum kanns auch sein, das die Treiberarchitektur von ATI wesentlich intelligenter ist.

Eine 3. Möglichkeit wäre, das ATI erstmal alles in 2 Kategorien einteilt:
nach R300 und vor R300 und danach die 'Feinheiten' der Chips.

Meinereiner hält die 3. Möglichkeit für am wahrscheinlichsten...

Ailuros
2005-07-01, 18:48:56
Jepp, und nur sie selbst sind daran schuld. Dafür könnte es nächstes Jahr besser werden, vorausgesetzt die Yields stimmen.

IHVs lernen von ihren Fehlern, deshalb erwartete ich auch von ATI dass sie NVIDIA's Fehler der Vergangenheit nicht wiederholt haetten (im relativen Sinn).

***edit: kleine Nebennotiz....als ich den R420 bei der Vorstellung sah dachte ich Orton ist ein Genie. Ich hatte aber leider nur die Haelfte des ganzen Bildes vor mir und so genial war das Ganze am Ende doch nicht.

Ailuros
2005-07-01, 18:51:02
Quatsch, das ist nur das, was du sehen willst.

Andersrum kanns aber auch sein, das man es nicht MÖCHTE, unter anderem weil man ein paar Käfer ausgemerzt hat und man somit ein paar Dinge nicht mehr braucht.

Andersrum kanns auch sein, das die Treiberarchitektur von ATI wesentlich intelligenter ist.

Eine 3. Möglichkeit wäre, das ATI erstmal alles in 2 Kategorien einteilt:
nach R300 und vor R300 und danach die 'Feinheiten' der Chips.

Meinereiner hält die 3. Möglichkeit für am wahrscheinlichsten...


Falls es darum gehen sollte ob R520 vereinte oder nicht vereinte Einheiten hat, ist es mit absoluter Sicherheit der zweite Fall. In diesem Sinn ist R520 tatsaechlich mit R3xx/4xx verwandt, obwohl ein reiner SM3.0 Design.

Weder Demirug noch robbitop wiedersprechen (soweit ich sehen konnte) dem obrigen.

StefanV
2005-07-01, 19:00:22
Falls es darum gehen sollte ob R520 vereinte oder nicht vereinte Einheiten hat, ist es mit absoluter Sicherheit der zweite Fall. In diesem Sinn ist R520 tatsaechlich mit R3xx/4xx verwandt, obwohl ein reiner SM3.0 Design.

Weder Demirug noch robbitop wiedersprechen (soweit ich sehen konnte) dem obrigen.
Richtig, nur erfordert das sicher nicht gerad geringe Änderungen.
Ich wollt auch nicht sagen, das sich R5xx und R3xx nicht mehr ähneln, ich wollt nur sagen, das ATi anscheinend zwischen vor R300 (R200, RV250 and so on) und R300 und später (oder auch zwsichen "DX9" und "nicht DX9") unterscheidet...

Oder anders:
Was im Treiber steht muss nicht unbedingt was zu bedeuten hat, denn dazu müssten wir erstmal wissen, wie der Hersteller seine Chips katalogisiert und wie das Treibermodell aufgebaut ist, was wir aber nunmal nicht wissen...

seahawk
2005-07-01, 19:01:12
Gruene Paranoia der Inquirer?

http://www.theinquirer.net/?article=24306

Eher das Gegenteil, obwohl sie trotz allem immer noch nicht durchblicken....

Ach doch "R520 wondher-chip", "we still believe it is faster" ......

Bin mal gespannt ob die auch mals was Nettes über NV schreiben.

reunion
2005-07-01, 19:06:58
Was spricht gegen die Lebenszeit eines theoretischen R520 oder im Vergleich des RSX in der PS3?

R520 dürfte technologisch nicht so weit sein wie Xenos IMO.
Im übrigen hatte man ja ohnehin das R400-Design "herumliegen", also warum nicht auch verwenden?

Außerdem lernen dadurch die Entwickler ATis neue Architektur kennen - die ja höchstwarscheindlich mit R600 im Desktopsegment angewendet wird - Sicherlich auch kein Nachteil.

Oder vielleicht wollte M$ unbedingt die "Unified-Shader-Trumpfkarte", und hat sich nur deshalb mit ATi eingelassen, wer weiß? Es könnte tausende Gründe geben.

reunion
2005-07-01, 19:11:10
Inwiefern sind denn Unified Shaders eine "neue Funktion"? Inwiefern bringen sie Features? IMO in erster Linie gar keine.



Es ist gerade bei einer Konsole ein immenser Vorteil IMHO, da man je nach Bedarf individuell regel kann, wieviel Pixel- bzw. Vertexpower man benötigt.

Coda
2005-07-01, 19:12:44
"Unified-Shader-Trumpfkarte"Was hinten rauskommt ist eigentlich entscheidend, nicht der innere Aufbau.

Crushinator
2005-07-01, 19:14:32
Es ist gerade bei einer Konsole ein immenser Vorteil IMHO, da man je nach Bedarf individuell regel kann, wieviel Pixel- bzw. Vertexpower man benötigt.
Ja, allerdings verpufft sich der Vorteil, wenn eine andere Konsole im Direktvergleich ohne Unified Shader mehr Rechenleistung freisetzen kann als Xenon im optimalen Fall. Das ist eigentlich das Hauptgegenargument. ;(

reunion
2005-07-01, 19:15:12
Ist schon ein Vorteil, aber auch ein Nachteil. Man braucht mehr Transistoren, was sich wieder negativ auf den Takt auswirkt.


Anders verbaut man z.B. jedemenge VS-Einheiten, welche die meiste Zeit Däumchen drehen - benötigt genauso Transistoren, und wirkt sich genauso negativ auf den Takt aus.

Quasar
2005-07-01, 19:16:13
Lieber gesperrter User,

daß Dein Post immer noch hier steht, hat nur einen einzigen Grund, nämlich daß bereits darauf eingegangen wurde. Zukünftige werden ohne zu zögern getrasht.
Apropos:
Kann es sein, daß hier ein Posting von mir fehlt, welches ich heute vormittag von der Arbeit aus unter Gast "q@w" geschrieben habe?

Darin ging es darum, daß ich laut daran dachte, daß derselbe Treiberpfad auch bedeuten könnte, daß ATi unter OpenGL noch keine Extension für die weitergehenden Fähigkeiten des R520 vorgesehen hat.

seahawk
2005-07-01, 19:20:43
Mal einige Bemerkungen.

Es ist interessant zu sehen wie beide IHVs mit dem 0,11 Prozess umgehen konnten. Der X700XT konnte nicht in ausreichend Margen gefertigt werden, der X800 mit 16 Pipes ist niedriger getaktet als ein G70 und schlechter zu übertakten.

Imho hat zum Zeitpunkt der Entscheidungsfindung niemand bei ATI erwartet, dass NV einen G70 @ 0,11 mit 430mhz Takt auf den Markt bringen kann und dazu anscheinend noch gute Yields und gute Verfügbarkeiten erreicht. Die eigenen Erfahrungen mit dem Prozess waren zu schlecht. Jetzt sieht es so aus, dass NV doch praktisch eine 500MHZ Ultra Variante auf den Markt bringen könnte, wenn sie selektierte Chips und eine stärkere Kühlung verwenden.

Als beide IHVs ihre Entscheidung trafen ist niemand davon ausgegangen, dass der G70 wesentlich über den Taktraten der 6800GT liegen kann. Also 24x350 mhz.

Dagegen sollte ATI eine 32Pipekarte mit >600mhz entwickeln ?? Ziemlich unsinnig oder ?

Crushinator
2005-07-01, 19:20:47
Apropos:
Kann es sein, daß hier ein Posting von mir fehlt, welches ich heute vormittag von der Arbeit aus unter Gast "q@w" geschrieben habe?

Darin ging es darum, daß ich laut daran dachte, daß derselbe Treiberpfad auch bedeuten könnte, daß ATi unter OpenGL noch keine Extension für die weitergehenden Fähigkeiten des R520 vorgesehen hat.
Nein, Quasar, sie fehlt nicht, sie ist nur verrutscht, weil ein anderer Kollege ein Post von unweit davor getrasht hat. :)

Quasar
2005-07-01, 19:25:03
Nein, Quasar, sie fehlt nicht, sie ist nur verrutscht, weil ein anderer Kollege ein Post von unweit davor getrasht hat. :)
Thx, ich hatte die trotz mehrfachen durchschauens irgendwie nicht wiedergefunden.


Mir erschließt es sich nicht, wie man auf diesen Gedanken kommt, wenn auch R300 unter der gleichen Kategorie gelistet wird. Demnach dürften ja auch die Erweiterungen eines R420 gegenüber des Vorgängers nicht benutzt werden können, was in der Praxis jedoch nicht der Fall ist.
In Sachen ARB_Fragment_Shader dürfte sich da IMO auch nicht allzuviel getan haben.

Crushinator
2005-07-01, 19:25:41
(...) Dagegen sollte ATI eine 32Pipekarte mit >600mhz entwickeln ?? Ziemlich unsinnig oder ?
Das eine schließt das andere nicht zwingend aus, wenn auch die Chancen sowas in breiter Maße zu sehen zugegeben verschwindend gering sind.

Crushinator
2005-07-01, 19:26:19
(...) In Sachen ARB_Fragment_Shader dürfte sich da IMO auch nicht allzuviel getan haben.
Doch, die Länge bzw. Anzahl von Slots usw. Du weißt schon was ich meine. :)

[Edit]
Für jeden Piep eine eigene und zwar andere Extension als die vorige zu machen, klingt für mich zumindest auch nicht besonders sinnvoll.

reunion
2005-07-01, 19:28:11
Imho hat zum Zeitpunkt der Entscheidungsfindung niemand bei ATI erwartet, dass NV einen G70 @ 0,11 mit 430mhz Takt auf den Markt bringen kann und dazu anscheinend noch gute Yields und gute Verfügbarkeiten erreicht. Die eigenen Erfahrungen mit dem Prozess waren zu schlecht. Jetzt sieht es so aus, dass NV doch praktisch eine 500MHZ Ultra Variante auf den Markt bringen könnte, wenn sie selektierte Chips und eine stärkere Kühlung verwenden.


nV hat in den 110nm Prozess vermutlich wesentlich mehr investiert als ATi.
ATi wusste aber IMHO sehrwohl, was mit 110nm möglich war/ist.


Dagegen sollte ATI eine 32Pipekarte mit >600mhz entwickeln ?? Ziemlich unsinnig oder ?

In 90nm nicht unbedingt ein Ding der Unmöglichkeit IMO.
Wenn auch nicht realistisch.

Quasar
2005-07-01, 19:30:26
Doch, die Länge bzw. Anzahl von Slots usw. Du weißt schon was ich meine. :)
Ja, aber ich bin aktuell gar nicht sicher, ob das unter OpenGL überhaupt umgesetzt wurde...

seahawk
2005-07-01, 19:33:37
Das eine schließt das andere nicht zwingend aus, wenn auch die Chancen sowas in breiter Maße zu sehen zugegeben verschwindend gering sind.

Wo soll der finanzielle Sinn sein ?

Verdoppelung der Struktur + SM3.0 + mehr Takt um eine Karte zu besiegen die man wahrscheinlich bestenfalls bei 400mhz * 24 Pipes gesehen hat ?

Warum soll man mehr liefern, als der Markt (Mitbewerber) verlangt ?

Ich persönlich glaube schon lange nicht mehr an die Theorie, dass ein IHV eines Tages den schnellsten Wunderchip bringen wird, der die Konkurrenz um 100% übertrifft *. Man nimmt sich doch selber den Merkt für entsprechende Speedbumps.

* wenn der andere IHV nicht total versagt (aka R300/NV30)

Crushinator
2005-07-01, 19:54:10
(...) Ich persönlich glaube schon lange nicht mehr an die Theorie, dass ein IHV eines Tages den schnellsten Wunderchip bringen wird, der die Konkurrenz um 100% übertrifft *. Man nimmt sich doch selber den Merkt für entsprechende Speedbumps. (...)
Es müssen ja auch weder 100% mehr sein, noch muß man sowas jetzt schon in vollem Glanz veröffentlichen. Andererseits, wenn man sowas veröffentlichen könnte (jetzt mal höchstspekulativ gemeint) würde es kein späteres Refresh mit noch mehr Speed überflüssig machen, denn die Konkurrenz muß ja bekanntlich nicht immer nur schlafen.

seahawk
2005-07-01, 20:10:15
Es müssen ja auch weder 100% mehr sein, noch muß man sowas jetzt schon in vollem Glanz veröffentlichen. Andererseits, wenn man sowas veröffentlichen könnte (jetzt mal höchstspekulativ gemeint) würde es kein späteres Refresh mit noch mehr Speed überflüssig machen, denn die Konkurrenz muß ja bekanntlich nicht immer nur schlafen.

Nein, dazu muss die Konkurrenz erstmal aufholen. Es reicht völlig, wenn man maximal 20-25% schneller ist.

mapel110
2005-07-01, 20:14:10
Nein, dazu muss die Konkurrenz erstmal aufholen. Es reicht völlig, wenn man maximal 20-25% schneller ist.
Wenn man die Möglichkeit hat, 100 % schneller zu sein, dann setzt man das auch um und speckt nicht ab, damit man auf 20-25% kommt.

Crushinator
2005-07-01, 20:14:26
Nein, dazu muss die Konkurrenz erstmal aufholen. Es reicht völlig, wenn man maximal 20-25% schneller ist.
Im aktuellen Fall braucht die Konkurrenz aber gar nicht erst aufzuholen, sondern die guten gesammelten Chips aus dem Lager nur an den AIB zu liefern. :D

BlackArchon
2005-07-01, 20:47:36
Da es hier schon vermehrt um die Wirtschaftlichkeit von NV40/R420 ging: wie kommt es, dass es viel mehr Angebote an 6800LE-Karten (halb kaputter NV40) gibt als an X800SE-Karten (halb kaputter R420)? Kann man daraus schließen, dass der Yield beim NV40 niedriger als beim R420 ist?

deekey777
2005-07-01, 20:57:20
Da es hier schon vermehrt um die Wirtschaftlichkeit von NV40/R420 ging: wie kommt es, dass es viel mehr Angebote an 6800LE-Karten (halb kaputter NV40) gibt als an X800SE-Karten (halb kaputter R420)? Kann man daraus schließen, dass der Yield beim NV40 niedriger als beim R420 ist?

Vielleicht hat nVidia versucht, die NV40 Chips mit aller Macht auf den Markt zu drücken, denn so viele richtig kaputte 6800LE scheit es nicht zu geben, oder wie liegt die Erfolgsquote? Andererseits wurden die X800SE viel brutaler Kastriert als nur ein anderes BIOS.
Es kann auch sein, daß nVidia den NV40 auslaufen läßt.

Quasar
2005-07-01, 21:40:39
Irgendwer hat man gesagt, bei der X800 könnte man die VS nicht einzeln deaktivieren. D.h. jeder Chip, der in diesem Bereich Fehler aufweist, müsste schonmal weggeworfen werden.

Zudem ist die Die-Fläche beim R420 geringer, da dürften eigentlich ja auch weniger Fehler pro Die anfallen.

BlackArchon
2005-07-01, 23:36:42
...
Andererseits wurden die X800SE viel brutaler Kastriert als nur ein anderes BIOS.
...Ach ja? Wie denn noch?

deekey777
2005-07-01, 23:45:53
Ach ja? Wie denn noch?

Lasercut? Nur sehr wenige liessen sich auf zB X800Pro flashen, wenn überhaupt.

BlackArchon
2005-07-02, 00:04:02
Oho, wusste ich nicht. Wieso betreibt denn da Ati im niedrigen High-End-Segment so einen Aufwand? Beim X800 Pro VIVO => X800 XT-Mod haben die sowas doch auch nicht gemacht?

Gast
2005-07-02, 01:04:05
Oho, wusste ich nicht. Wieso betreibt denn da Ati im niedrigen High-End-Segment so einen Aufwand? Beim X800 Pro VIVO => X800 XT-Mod haben die sowas doch auch nicht gemacht?

Das waren aber auch eher die frühen Modelle wo die Chips eher aufgeteilt werden mussten.

Ailuros
2005-07-02, 01:34:29
R520 dürfte technologisch nicht so weit sein wie Xenos IMO.

Inwiefern technologisch?

Im übrigen hatte man ja ohnehin das R400-Design "herumliegen", also warum nicht auch verwenden?

NVIDIA hat auch in diesem Sinn einen "NV50" herumliegen na und?

Außerdem lernen dadurch die Entwickler ATis neue Architektur kennen - die ja höchstwarscheindlich mit R600 im Desktopsegment angewendet wird - Sicherlich auch kein Nachteil.

Aber auch kein garantierter Vorteil. R600 ist schon ein gutes Stueck weiter.

Oder vielleicht wollte M$ unbedingt die "Unified-Shader-Trumpfkarte", und hat sich nur deshalb mit ATi eingelassen, wer weiß? Es könnte tausende Gründe geben.

IMHLO wollte Microsoft Technologie von einem erfahrenen grossen IHV haben; von NVIDIA wollten sie nicht mehr viel wissen (oder noch genauer keiner der beiden war daran interessiert) und viele andere IHVs die garantiert zeitig liefern koennen gab es ja nicht unbedingt. Tolle Konspirations-theorien braucht man hier eigentlich nicht. Microsoft hat NICHT nur mit ATI verhandelt bevor sie ihre Entscheidung traf; dass aber ein grosser IHV am schnellsten zu einem Resultat kommen wird, ist schon quasi garantiert.

Ailuros
2005-07-02, 01:42:12
Warum soll man mehr liefern, als der Markt (Mitbewerber) verlangt ?

Ist es wirklich moeglich oder gibt es eine gesunde Anzahl von Faktoren von denen die IHVs jeweils aufgehalten werden?

Ganz ganz einfach: was will man mit unendlich grosser Fuellrate, wenn selbst 700MHz GDDR3 immer noch schwer zu finden ist? Und das ist nur ein Beispiel.

Ich persönlich glaube schon lange nicht mehr an die Theorie, dass ein IHV eines Tages den schnellsten Wunderchip bringen wird, der die Konkurrenz um 100% übertrifft *. Man nimmt sich doch selber den Merkt für entsprechende Speedbumps.

* wenn der andere IHV nicht total versagt (aka R300/NV30)

Gut dass Du die Versagung (oder nennen wir es lieber falsche Design-entscheidung) erwaehnst am Ende. Nein solche Wunder gibt es nicht und solche Thesen gehoeren auch tatsaechlich in den Bereich der feuchten Traueme.

Gast
2005-07-02, 13:07:36
Ganz ganz einfach: was will man mit unendlich grosser Fuellrate, wenn selbst 700MHz GDDR3 immer noch schwer zu finden ist? Und das ist nur ein Beispiel.





128AF ohne jegliche optimierungen for free ;)

aths
2005-07-02, 13:36:49
Ist es wirklich moeglich oder gibt es eine gesunde Anzahl von Faktoren von denen die IHVs jeweils aufgehalten werden?

Ganz ganz einfach: was will man mit unendlich grosser Fuellrate, wenn selbst 700MHz GDDR3 immer noch schwer zu finden ist?In Dingen Texturkomprimierung weiterforschen.

mapel110
2005-07-02, 13:42:20
In Dingen Texturkomprimierung weiterforschen.
Und dadurch die Bildqualität also weiter absenken...

Ailuros
2005-07-02, 13:52:00
In Dingen Texturkomprimierung weiterforschen.

Simon hat PVR-TC zur Standardisierung angeboten aber Microsoft hat verweigert, weil sie angeblich eine um einiges hoehere Kompressionsrate wollen.

Das Zeug mag zwar nicht die grosse Erfindung sein in diesem Bereich, aber es ist afaik sehr leicht HW-maessig zu implementieren. Wenn man sich so stur zeigt dann haben wohl sowieso die Entwickler keine besondere Lust mehr weitere Forschung in solche Dinge zu werfen und ich bezweifle dass es bei den anderen IHVs anders ist.

Texturkomprimierung ist nicht die einzige Komprimierung die helfen koennte IMHO.

Und dadurch die Bildqualität also weiter absenken...

Gibt es in heutigen Spielen eine Wahl TC abzuschalten und wieviel laufen ohne TC ueberhaupt?

Coda
2005-07-02, 13:55:51
Und dadurch die Bildqualität also weiter absenken...Bessere Kompression ermöglicht gleiche Qualität bei weniger Daten. Allerdings sehe ich da z.Z. nicht viel Verbesserungsmöglichkeiten ohne Indirektionen, die die Latenz nach oben Treiben.

Ailuros
2005-07-02, 14:00:27
128AF ohne jegliche optimierungen for free ;)

Bei 32 bilinearen TMUs?

Verkorkste Rechenuebung:

32*500 = 16.0 GTexels/s bilinear = 8.0 GTexels/s trilinear

+ quad texturing = 2.0 GTexels/s trilinear maximal

Wenn man jetzt AF und den Gewinn der Optimierungen beim trilinearen quad texturing mitberechnet, ist das obrige alles andere als "for free".

Ailuros
2005-07-02, 14:07:24
Bessere Kompression ermöglicht gleiche Qualität bei weniger Daten. Allerdings sehe ich da z.Z. nicht viel Verbesserungsmöglichkeiten ohne Indirektionen, die die Latenz nach oben Treiben.

Auch bei einer Kombination von zwei Methoden? Ich frag nur weil ich mal was aehnliches in einem whitepaper von Intel gelesen habe.

zeckensack
2005-07-02, 15:26:32
(R420 vs R300)
In Sachen ARB_Fragment_Shader dürfte sich da IMO auch nicht allzuviel getan haben.Doch, die Länge bzw. Anzahl von Slots usw. Du weißt schon was ich meine. :)Ja, aber ich bin aktuell gar nicht sicher, ob das unter OpenGL überhaupt umgesetzt wurde...Zu ARB_fragment_shader kann man nicht viel sagen, da dort keine abfragbaren Ressourcen-Limits existieren.
Allerdings kann man bei ARB_fragment_program (dem "Assembler"-Pendant) schon eine Steigerung verbuchen.
R420, Cat 5.6 (http://www.delphi3d.net/hardware/viewreport.php?report=1501)
R300, Cat 5.6 (http://www.delphi3d.net/hardware/viewreport.php?report=1496)
Zusammengefaßt:
R300 R420
Max. native ALU instructions 64 512
Max. native attribs 10 10
Max. native instructions 96 1024
Max. native parameters 32 64
Max. native temporaries 32 64
Max. native texture indirections 4 4
Max. native texture instructions 32 512

Sunrise
2005-07-02, 15:34:11
Kann mir jemand erklaeren warum ATI nicht einen R520 so wie er aussehen wird gleich von Anfang an fuer PC und Console geplant hat? Wer will mir einreden dass Xenos effizienter sein wird?
R300 - R420 - R520 -> Team 1
R400 - R500 -> Team 2

Team 1 startet das Spiel auf Spielfeld 1, Team 2 sitzt auf der Ersatzbank und entwickelt sich fleißig weiter. Nachdem sich Team 1 sehr gut geschlagen hat, ist Team 2 natürlich einen entscheidenen Schritt voran gekommen, technologisch bereits deutlich weiter als Team 1 und in Wartestellung, für einen eventuellen Einsatz.

Ein 2. Spielfeld wird entworfen und gebaut, es fehlen allerdings die Spieler. Da Team 1 ihrerseits zu stark beschäftigt sind, wird das "frische" Team 2 unter Vertrag genommen und auf das Feld geschickt um ihre Fähigkeiten und Fertigkeiten auszuspielen.

Währenddessen wird Team 1 natürlich weiterspielen, ihre Spielweise wird jedoch beibehalten und der Vertrag aller Spieler auf weitere 3 Jahre verlängert.

Will sagen:

ATI hatte die Roadmap geändert, als sie merkten, dass sich Team 2 nicht für Spielfeld 1 eignen würde und somit auf den Einsatz von Team 2 gewartet. Als dann schlussendlich klar wurde, dass Team 2 eingesetzt werden kann, war Team 1 bereits ein eingespieltes und bewährtes Team und ihnen wurde eine weitere Vertragsverlängerung gewährt.

ATI setzt unterschiedliche Teams ein, um die Integrität dieser zu wahren. Eines der wichtigsten Dinge bei einem Team sind Verantwortung und Vertrauen. Dies kann sich nur dann bewähren, wenn beide Teams unabhängig voneinander agieren und eingesetzt werden. Interne Absprachen und Entwicklungen finden bei ATI völlig unabhängig voneinander statt. Dies geht soweit, dass Team 2 mit Team 1 aus Gründen von vertraglichen Verpflichtungen keinen Kontakt haben, auch wenn sie zur gleichen Mannschaft gehören.

Der große Nachteil dieser Art der Trennung der Teams untereinander, besteht in einer gewissen Überschneidung der Fähigkeiten und Fertigkeiten. Dieser Nachteil wird wieder zu einem Vorteil, wenn sich der jeweilige Vertragspartner darauf konzentrieren kann, ein Team ganz alleine für sich zu haben, keine Ausfälle befürchten zu müssen und zusammenfassend sicher zu sein, dass eine völlige Konzentration auf die jeweiligen vertraglichen Vereinbarungen gegeben ist.

Ailuros
2005-07-02, 16:06:28
Uhmmm wer genau sagt Dir eigentlich dass nur ATI getrennte Design-teams hat?

Es gibt bei beiden grossen IHV verschiedene Design-teams die fuer verschiedene Maerkte und fuer verschiedene Generationen von GPUs parallel arbeiten.

Und das was Du nicht verstanden hast war:

(vor Longhorn Verschiebung war geplant):

R300 ----> R400 (PC + console)

Fuer die Console hatte man so oder so ein getrenntes Design-team, selbst in diesem Fall.

Alternative zum obrigen und der heutigen Situation:

R300 ----> R420 ---->R520 (PC)

R520A (Console).

Quasar
2005-07-02, 16:08:35
(R420 vs R300)
Zu ARB_fragment_shader kann man nicht viel sagen, da dort keine abfragbaren Ressourcen-Limits existieren.
Allerdings kann man bei ARB_fragment_program (dem "Assembler"-Pendant) schon eine Steigerung verbuchen.
R420, Cat 5.6 (http://www.delphi3d.net/hardware/viewreport.php?report=1501)
R300, Cat 5.6 (http://www.delphi3d.net/hardware/viewreport.php?report=1496)
Zusammengefaßt:
R300 R420
Max. native ALU instructions 64 512
Max. native attribs 10 10
Max. native instructions 96 1024
Max. native parameters 32 64
Max. native temporaries 32 64
Max. native texture indirections 4 4
Max. native texture instructions 32 512

Danke, demnach stellt sich meine Vermutung also als nicht zutreffend dar.

Sunrise
2005-07-02, 16:57:11
Uhmmm wer genau sagt Dir eigentlich dass nur ATI getrennte Design-teams hat?

Es gibt bei beiden grossen IHV verschiedene Design-teams die fuer verschiedene Maerkte und fuer verschiedene Generationen von GPUs parallel arbeiten.

Und das was Du nicht verstanden hast war:

(vor Longhorn Verschiebung war geplant):

R300 ----> R400 (PC + console)

Fuer die Console hatte man so oder so ein getrenntes Design-team, selbst in diesem Fall.

Alternative zum obrigen und der heutigen Situation:

R300 ----> R420 ---->R520 (PC)

R520A (Console).
Da wir hier nur von ATI reden (und du diesen Punkt auch vorgebracht hast), schreibe ich natürlich auch nur über ATI. Willst du andere Dinge wissen, erzähle ich dir andere Dinge. Formal wollen wir aber doch nicht den Faden verlieren und bei ATI bleiben.

Du musst dich etwas lösen, von Vermutungen und klaren Fakten, die Dave Orton und ATIs Ingenieure über die Jahre nach außen gegeben haben.

Wenn wir bei den Fakten bleiben wollen:

ATI entwickelt völlig unabhängig voneinander, 3 differierende Architekturen, die hinsichtlich ihrer Leistungsfähigkeit starkes Potential haben. Zugleich (auch wenn sich dies zunehmend immer mehr ändert) sind diese Profile zugeschnitten auf Anforderungen, die der Vertragspartner direkt an ATI stellt und diese entsprechend eine Architektur "anbieten", die den Wünschen des potentiellen Vertragspartners entsprechen. Die Designteams sind völlig unabhängig voneinander und unter recht starker Geheimhaltung arbeitende Teams, die untereinander kaum Kontakt haben, da dies vom Vertragspartner (in diesem Falle z.B. MS / Nintendo) gefordert wird/wurde. Du hast - laut deiner eigenen Aussage - auch ein Designteam, dass sich rein mit der Entwicklung von Konsolen beschäftigt. Dazu später mehr.

Fakten + Spekulation:

R400 war ATIs 2. größere Projekt (bzw. das erste, wenn man ArtX mal ausnimmt) und war ursprünglich geplant als PC-Ableger, wurde jedoch aus bekannten Gründen nicht eingesetzt, da dieser dem Anforderungsprofil nicht entsprochen hätte und "wahrscheinlich" nicht leistungsfähig genug war um im PC-Bereich konkurrieren zu können. R400 war jedoch keine Fehlentwicklung, sondern eine technologisch sehr stark weiterentwickelte Architektur, in die man hinsichtlich Forschung und Entwicklung sehr viel investiert hatte.

Die Änderung der Roadmap ist schließlich keine Sache, die man ohne Gründe trifft, und diese Änderung fand noch vor der Entwicklung des R520 statt. Dieser ist eine Notlösung und keine neue Architektur, dies würde nicht nur mich, sondern auch diverse andere Personen auf das Äußerste überraschen ;)

Daher macht für mich R520A auch keinen Sinn, denn schon R520 war so nie geplant, R520A wäre dann nochmal eine "Verwässerung" und unnötige Entwicklung gewesen, warum auch, wenn man bereits in R400 mit ein paar Anpassungen beträchtlich investiert hatte ?

Zusätzlich hast du oben eingeworfen, dass es ein Designteam "gäbe", das nur für eine Konsole zuständig ist. Laut dieser Annahme würde ein R520 / R520A überhaupt keinen Sinn machen. Denn dann wäre es eben kein solches Team. Was im Umkehrschluss nicht heißen soll, dass es keines gibt, es passt jedoch nicht in deine Theorie, wenn du die interne Struktur von ATI in Betracht ziehst.

Gast
2005-07-02, 17:41:56
R300 - R420 - R520 -> Team 1
R400 - R500 -> Team 2

Team 1 startet das Spiel auf Spielfeld 1, Team 2 sitzt auf der Ersatzbank und entwickelt sich fleißig weiter. Nachdem sich Team 1 sehr gut geschlagen hat, ist Team 2 natürlich einen entscheidenen Schritt voran gekommen, technologisch bereits deutlich weiter als Team 1 und in Wartestellung, für einen eventuellen Einsatz.

Ein 2. Spielfeld wird entworfen und gebaut, es fehlen allerdings die Spieler. Da Team 1 ihrerseits zu stark beschäftigt sind, wird das "frische" Team 2 unter Vertrag genommen und auf das Feld geschickt um ihre Fähigkeiten und Fertigkeiten auszuspielen.

Währenddessen wird Team 1 natürlich weiterspielen, ihre Spielweise wird jedoch beibehalten und der Vertrag aller Spieler auf weitere 3 Jahre verlängert.

Will sagen:

ATI hatte die Roadmap geändert, als sie merkten, dass sich Team 2 nicht für Spielfeld 1 eignen würde und somit auf den Einsatz von Team 2 gewartet. Als dann schlussendlich klar wurde, dass Team 2 eingesetzt werden kann, war Team 1 bereits ein eingespieltes und bewährtes Team und ihnen wurde eine weitere Vertragsverlängerung gewährt.

ATI setzt unterschiedliche Teams ein, um die Integrität dieser zu wahren. Eines der wichtigsten Dinge bei einem Team sind Verantwortung und Vertrauen. Dies kann sich nur dann bewähren, wenn beide Teams unabhängig voneinander agieren und eingesetzt werden. Interne Absprachen und Entwicklungen finden bei ATI völlig unabhängig voneinander statt. Dies geht soweit, dass Team 2 mit Team 1 aus Gründen von vertraglichen Verpflichtungen keinen Kontakt haben, auch wenn sie zur gleichen Mannschaft gehören.

Der große Nachteil dieser Art der Trennung der Teams untereinander, besteht in einer gewissen Überschneidung der Fähigkeiten und Fertigkeiten. Dieser Nachteil wird wieder zu einem Vorteil, wenn sich der jeweilige Vertragspartner darauf konzentrieren kann, ein Team ganz alleine für sich zu haben, keine Ausfälle befürchten zu müssen und zusammenfassend sicher zu sein, dass eine völlige Konzentration auf die jeweiligen vertraglichen Vereinbarungen gegeben ist.

Das stimmt so nicht! In Toronto gibt es 8 Design-Teams:
- HDTV Setup Box
- Cellphone
- Notebook
- IGP
- Desktop
- Game-Konsole
- All in Wonder
- TV-Tuner

1. In jedem Team sind bis zu 50 Designer tätig
2. Jedes Team tauscht sich mit den anderen aus
Beleg: Theater550 TV Chip
Ursprünglich entwickelt für HDTV Setup BOXEN, hreute als Mainstream -Lösung zu kaufen.
3. Alle Teams können aufeinander zugreifen und Ressorcen austauschen.
Beleg: Neues Samsung Handy mit DX8 Grafik Chip und Video-MPEG HW

ATI macht Ihre Sache perfekt und in der Summe der Standbeine hat nv keine Antworten!
TV, Setup Boxen nur als Bsp. In spät. 2 Jahren ist der heutige PC im TV bzw. in kleiner schwarzen Box. Schon heute hat ATI dort einen Marktanteil von 40% und dort exestieren andere Mitbewerber.

Anderes Bsp.: IGP und MCE2005, keiner ausser ATI hat eine Lösung die MS Zertifiziert ist.

XBOX: Dort hat ATI nv rausgekickt, MS hatte beide zur Auswahl und sich für ATI entschieden! Die PS3 ist noch nicht einmal als EARLY sample zu sehen!

Sicherlich hatte sich Sony mit gerenderten Videos auf der Computex besser dargestellt und MS hat wie üblich langweiliges über XBOX Live erzaehlt, aber Fakt ist das die NEUE XBOX 360 die übernächste Grafikgeneration bereits heute integriert hat. Interne Speicher ähnlich wie bei der CPU (L2 Cache) ist die Zukunft.

Ich freue mich schon auf eure Antworten!

Diskutator

reunion
2005-07-02, 17:44:03
Inwiefern technologisch?


Die Pixelshader sollten höher entwickelt sein.
Natürlich weiß man das noch nicht sicher, da R520 noch nicht vorgestellt wurde, IMHO sollte sich dieser aber eher an den Minimalforderungen orientieren.

Bei einem Desktopchip ist das relativ egal, bei einer Konsole, welche mehrere Jahre halten muss, könnte R520 allerdings zu wenig gewesen sein.


NVIDIA hat auch in diesem Sinn einen "NV50" herumliegen na und?


R400 war vermutlich schon verdammt weit fortgeschritten, als man feststellen musste, dass er aus welchen Gründen auch immer nicht geeigent ist für das Desktopsegment.

Ob NV50 wirklich schon so weit ist/war?


Aber auch kein garantierter Vorteil. R600 ist schon ein gutes Stueck weiter.


Trotzdem sollte die Architektur sehr ähnlich sein.
Wenn R600 dann erscheint, haben die Entwickler immerhin schon jedenmenge Erfahrung, wie man eine solche Architektur optimal auslastet. Außerdem gibt es dann bereits jedemenge Spiele, welche solche optimierten Shader auch verwenden.

robbitop
2005-07-02, 18:03:29
Das stimmt so nicht! In Toronto gibt es 8 Design-Teams:
- HDTV Setup Box
- Cellphone
- Notebook
- IGP
- Desktop
- Game-Konsole
- All in Wonder
- TV-Tuner



Es ging um große Designteams. Um eine GPU Architektur zu designen braucht es maßgeblich mehr Ressourcen als irgendwelcher HDTV Kram.
Zumal die IGPs und Notebookchips aus den 2 parallelen Designs entnommen worden sind.

reunion
2005-07-02, 18:09:10
Interne Speicher ähnlich wie bei der CPU (L2 Cache) ist die Zukunft.



Sehe ich nicht so. eDRAM wird sich vermutlich nie richtig durchsetzten, der Transistorenaufwand ist einfach zu groß.

Gast
2005-07-02, 18:12:37
Keine Ahnung ob gespostet, da ich mich nur durch die letzten Seiten gekämpft habe, aber schaut euch mal das hier an:

Wie unsere Kollegen von DigiTimes berichten, könnte der R520 an dem gleichen Leiden "erkrankt" sein, wie ehemals der Prozessor-Kollege Prescott aus dem Hause Intel. Der Anfängliche 90 Nanometer Kern "Prescott" litt lange an Leckströmen, AMD entging den Leckströmen durch die Technik SIO. Dieses Problem der Leckströme soll momentan auch der R520 erleiden, der R520 wird auch als erster Chip, in diesem Fall erster Grafikchip, im 90 Nanometer Prozess gefertigt.

Ein ähnliches Schicksal ereilte nVidia mit ihrer GeForce FX Reihe, die damals auch als erste Reihe einen niedrigen Fertigungsprozess benutzte, in diesem Fall der 130 Nanometer Prozess. ATi war dem aus dem weggegangen, dass man erst die Mainstream-Grafikkarten mit dem neuen Fertigungsprozess erprobte, da man dadurch Erfahrung sammeln konnte und die Mainstream-Chips nicht so Komplex sind wie die HighEnd-Chips.

Der R520 ist nach den heutigen Informationen mit Abstand der komplexeste Grafikchip, mit 350 Millionen Transistoren und 32 Pixel-Pipelines, wurde beides zum Vorgänger mehr als verdoppelt, 16 Pixel-Pipelines und 160 Millionen Transistoren. Ob die Mittelklasse- und Einsteiger-Chips davon ebenfalls betroffen ist unklar.

Demirug
2005-07-02, 18:13:42
R400 war vermutlich schon verdammt weit fortgeschritten, als man feststellen musste, dass er aus welchen Gründen auch immer nicht geeigent ist für das Desktopsegment.

Performance und bevor jemand fragt ich habe keinen öffentlichen Link dafür.

Trotzdem sollte die Architektur sehr ähnlich sein.
Wenn R600 dann erscheint, haben die Entwickler immerhin schon jedenmenge Erfahrung, wie man eine solche Architektur optimal auslastet. Außerdem gibt es dann bereits jedemenge Spiele, welche solche optimierten Shader auch verwenden.

Konsolenentwickler schreiben keine PC Spiele.

Demirug
2005-07-02, 18:17:53
Sehe ich nicht so. eDRAM wird sich vermutlich nie richtig durchsetzten, der Transistorenaufwand ist einfach zu groß.

normaler Cachespeicher braucht viel mehr Transitoren.

Das Problem ist es die beiden Anforderungen an den Herstellungsprozess unter einen Hut zu bekommen.

Das Bandbreitenproblem dürfte sich aber mittelfristig gerade bei den GPUs lösen: Fiber2Chip.

reunion
2005-07-02, 18:19:33
Konsolenentwickler schreiben keine PC Spiele.

Trotzdem wird man die Shader nicht nochmal neu schreiben?

Coda
2005-07-02, 18:19:36
Das Bandbreitenproblem dürfte sich aber mittelfristig gerade bei den GPUs lösen: Fiber2Chip.Hehe, die Karten sehen bestimmt krass aus :)

reunion
2005-07-02, 18:21:51
Das Bandbreitenproblem dürfte sich aber mittelfristig gerade bei den GPUs lösen: Fiber2Chip.


Also das darfst du jetzt mal bitte genauer erklären. :D
Fiber2Chip?

Demirug
2005-07-02, 18:22:11
Trotzdem wird man die Shader nicht nochmal neu schreiben?

Meinst du jetzt bei Portierungen?

Coda
2005-07-02, 18:23:37
Also das darfst du jetzt mal bitte genauer erklären. :D
Fiber2Chip?Glasfaseranbindung direkt für Chips.

reunion
2005-07-02, 18:27:46
Meinst du jetzt bei Portierungen?

Ja, da sich die verfügbaren Features im Vergleich zu den Desktopchips nicht groß Unterscheiden, sollte man diese direkt übernehmen können?

Demirug
2005-07-02, 18:33:47
Ja, da sich die verfügbaren Features im Vergleich zu den Desktopchips nicht groß Unterscheiden, sollte man diese direkt übernehmen können?

Ja, aber das Betrifft ja dann mehr die Treiberentwickler. Bei SC3 haben wir ja schon gesehen das es geht.

reunion
2005-07-02, 18:37:38
Glasfaseranbindung direkt für Chips.


Und inwiefern ist das ein Vorteil?
Ich meine, deshalb kann man den Speicher ja auch nicht höher takten?
Sorry, aber stehe gerade total auf der Leitung.

Coda
2005-07-02, 18:59:34
Und inwiefern ist das ein Vorteil?
Ich meine, deshalb kann man den Speicher ja auch nicht höher takten?
Sorry, aber stehe gerade total auf der Leitung.Bei Speicher ist die Taktung bisher nur ein Problem weil man nicht breit genug anbinden kann. Bei Glasfaser kannst du locker 256bit*700Mhz durch eine Leitung jagen.

reunion
2005-07-02, 19:23:53
Bei Speicher ist die Taktung bisher nur ein Problem weil man nicht breit genug anbinden kann. Bei Glasfaser kannst du locker 256bit*700Mhz durch eine Leitung jagen.


Achso, danke. :)

Botcruscher
2005-07-03, 00:17:08
Bei Speicher ist die Taktung bisher nur ein Problem weil man nicht breit genug anbinden kann. Bei Glasfaser kannst du locker 256bit*700Mhz durch eine Leitung jagen.

Giebts dafür verständliche Dokus? Am besten noch in deutsch. :) Höhr ich echt zum ersten mal das man so Speicher anbinden will.

EDIT: Nicht mal Google kennt das... :confused:

Ailuros
2005-07-03, 00:30:32
Beleg: Neues Samsung Handy mit DX8 Grafik Chip und Video-MPEG HW

Welcher dx8 mobile Grafik-chip genau?

Ailuros
2005-07-03, 00:33:38
Sunrise,

Was im Umkehrschluss nicht heißen soll, dass es keines gibt, es passt jedoch nicht in deine Theorie, wenn du die interne Struktur von ATI in Betracht ziehst.

Man passt die Resourcen den jeweiligen roadmaps an. Es geht mir eigentlich nur darum wie man die heutige Situation haette vermeiden koennen.

Ailuros
2005-07-03, 00:48:56
ATI macht Ihre Sache perfekt und in der Summe der Standbeine hat nv keine Antworten!
TV, Setup Boxen nur als Bsp. In spät. 2 Jahren ist der heutige PC im TV bzw. in kleiner schwarzen Box. Schon heute hat ATI dort einen Marktanteil von 40% und dort exestieren andere Mitbewerber.

Beide IHVs haben Vorspruenge in jeweils anderen Maerkten.

Anderes Bsp.: IGP und MCE2005, keiner ausser ATI hat eine Lösung die MS Zertifiziert ist.

XBOX: Dort hat ATI nv rausgekickt, MS hatte beide zur Auswahl und sich für ATI entschieden! Die PS3 ist noch nicht einmal als EARLY sample zu sehen!

Ja und? Es ist SONY's Entscheidung und SONY stellt auch die Hardware her.

Sicherlich hatte sich Sony mit gerenderten Videos auf der Computex besser dargestellt und MS hat wie üblich langweiliges über XBOX Live erzaehlt, aber Fakt ist das die NEUE XBOX 360 die übernächste Grafikgeneration bereits heute integriert hat. Interne Speicher ähnlich wie bei der CPU (L2 Cache) ist die Zukunft.

Das mit dem internen Speicher ist doch die absoluteste Albernheit; es ist nicht das erste Mal dass es eingebetteten Speicher in Consolen gibt, nur ermoeglichte die Technologie diesmal eine groessere Menge.

Paperlapapp mit der naechsten Grafikgeneration; ja natuerlich wird R600 mit einer unified shader Architektur kommen, aber es wird auch ein ziemlich komplizierterer und groesserer WGF2.0 Design sein. Xenos liegt immer noch auf SM3.0 Niveau.

Ailuros
2005-07-03, 00:54:20
Die Pixelshader sollten höher entwickelt sein.
Natürlich weiß man das noch nicht sicher, da R520 noch nicht vorgestellt wurde, IMHO sollte sich dieser aber eher an den Minimalforderungen orientieren.

Bei einem Desktopchip ist das relativ egal, bei einer Konsole, welche mehrere Jahre halten muss, könnte R520 allerdings zu wenig gewesen sein.

Xenos hat etwa genauso viel PS30 instruction slots wie NV40.



R400 war vermutlich schon verdammt weit fortgeschritten, als man feststellen musste, dass er aus welchen Gründen auch immer nicht geeigent ist für das Desktopsegment.

Solche Kleinigkeiten wurden 2002 klar; 3 Jahre waeren nicht genug gewesen einen neuen Design zu entwickeln den man mit Modifikationen genauso im PC als auch in einer Console einsetzen kann?

Ob NV50 wirklich schon so weit ist/war?

Darf ich nicht beantworten :P

Trotzdem sollte die Architektur sehr ähnlich sein.
Wenn R600 dann erscheint, haben die Entwickler immerhin schon jedenmenge Erfahrung, wie man eine solche Architektur optimal auslastet. Außerdem gibt es dann bereits jedemenge Spiele, welche solche optimierten Shader auch verwenden.

Welche Spiele genau?

dildo4u
2005-07-03, 01:16:29
"Die Digitimes aus Taiwan hat nach eigenen Angaben aus erster Hand von taiwanesischen Mainboardherstellern den Grund für die offiziell bestätigte Verspätung erfahren: Offenbar hat ATi bei seinem ersten im 90 nm-Prozess hergestellten High-End-Grafikchip mit Leckströmen zu kämpfen."


http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/juli/hat_atis_r520_leckstroemen/

Botcruscher
2005-07-03, 01:21:48
Kennt man ja vom PressKopf.

So berichten unter anderem die Kollegen von X-bit labs und Beyond3D, dass Dave Orton, der CEO von ATi, durchaus einige Probleme und Verspätungen beim R520 einräumt, die durch die neue Architektur in Verbindung mit dem bis jetzt noch unerprobten 90-nm-Prozess von TSMC hervorgerufen worden sind. ... jedoch habe man den Chip nun unter Kontrolle und er nähere sich dem Endstadium.

mapel110
2005-07-03, 01:29:41
"Die Digitimes aus Taiwan hat nach eigenen Angaben aus erster Hand von taiwanesischen Mainboardherstellern den Grund für die offiziell bestätigte Verspätung erfahren: Offenbar hat ATi bei seinem ersten im 90 nm-Prozess hergestellten High-End-Grafikchip mit Leckströmen zu kämpfen."


http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/juli/hat_atis_r520_leckstroemen/
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3208356&postcount=4715
nicht wirklich neu. ;(

Gast
2005-07-03, 13:06:28
AFAIK,

R520 32 shaders (1 ALU per shader)
G70 24 shaders (2 ALU per shader)

Ailuros
2005-07-03, 15:06:09
AFAIK,

R520 32 shaders (1 ALU per shader)
G70 24 shaders (2 ALU per shader)

Es ist noch zu frueh fuer MADD Rechnereien, aber erstens stimmt das obrige nicht und zweitens ist der Gewinner schon erhaeltlich was diesen Bereich betrifft.

pF3NG
2005-07-03, 18:50:04
Ich glaube du verzettelst dich etwas! Eine Pipeline des NV40 ist schon effizienter als eine des R420, die eines G70 ist ca. doppelt so effizient wie die eines R420. Da frage ich dich, wie du darauf kommst, dass ne pipe des R520 wesentlich effizienter sein soll wie die eines G70. ATI muss schon froh sein, wenn die pipes so effizient wie die des G70 werden, aber noch effizienter, das ist nur schwer zu glauben.
LOL, das glaube ich nicht... ;D

Mumins
2005-07-03, 19:02:05
LOL, das glaube ich nicht... ;D

Das brauchst du auch nicht glauben. Es ist eine Tatsache.

Gast
2005-07-03, 19:03:15
LOL, das glaube ich nicht... ;D

zitat aus dem 3dcenter-artikel:

Insgesamt hat eine G70-Pixelpipeline etwa doppelt so viel Rechenkraft wie eine R420-Pixelpipeline. Der R420 wird vom G70 nicht nur was Features angeht, sondern auch vom Leistungsaspekt her deklassiert. Dabei sollte nicht unterschlagen werden, dass der G70 (wie NV40 und GeForceFX größtenteils auch) in FP32-Genauigkeit rechnen, während R420 im Pixelshader nur 24-Bit-Genauigkeit bietet. In Dingen Rechenleistung hat Nvidia sich einen großen Vorsprung erarbeiten können.

http://www.3dcenter.org/artikel/2005/06-26_a.php

deLuxX`
2005-07-03, 19:41:46
LOL, das glaube ich nicht... ;D

Was spricht den dagegen? Warum glaubst du das nicht?

-deLuxX`

Gast
2005-07-03, 19:44:10
zitat aus dem 3dcenter-artikel:



http://www.3dcenter.org/artikel/2005/06-26_a.php
Ja und vom stammt das Zitat? Ja, von jemandem, der ATI immer wieder runtermacht und nVidia immer schön redet.

Quasar
2005-07-03, 19:50:21
Ja und vom stammt das Zitat? Ja, von jemandem, der ATI immer wieder runtermacht und nVidia immer schön redet.

Dann rechne doch mal vor, wieso das deiner Meinung nach nicht stimmen sollte. :)

Gast
2005-07-03, 19:53:32
Dann rechne doch mal vor, wieso das deiner Meinung nach nicht stimmen sollte. :)
Autsch. Darum gehts doch garnicht. Einfach so ein Zitat zu bringen


Insgesamt hat eine G70-Pixelpipeline etwa doppelt so viel Rechenkraft wie eine R420-Pixelpipeline. Der R420 wird vom G70 nicht nur was Features angeht, sondern auch vom Leistungsaspekt her deklassiert. Dabei sollte nicht unterschlagen werden, dass der G70 (wie NV40 und GeForceFX größtenteils auch) in FP32-Genauigkeit rechnen, während R420 im Pixelshader nur 24-Bit-Genauigkeit bietet. In Dingen Rechenleistung hat Nvidia sich einen großen Vorsprung erarbeiten können.

sagt nichts über die Richtigkeit aus.

Gast
2005-07-03, 19:53:57
sry, das untere Zitat war natürlich nicht von dir.

Quasar
2005-07-03, 20:01:53
Autsch. Darum gehts doch garnicht. Einfach so ein Zitat zu bringen sagt nichts über die Richtigkeit aus.
Das Zitat war ursprünglich nur "Eine Pipeline des NV40 ist schon effizienter als eine des R420, die eines G70 ist ca. doppelt so effizient wie die eines R420."
Danach kam nur eine Herkunftsangabe zum Zitat.

Nur, weil es aus einem 3DCenter Artikel stammt, muss es nicht stimmen, sicher, aber nur weil es eben von dort kommt, heisst es auch noch lange nicht, daß es per se schlechtgerechnet für ATi ist.

Und da würde ich gern mal eine Alternativrechnung von Mr. "von jemandem, der ATI immer wieder runtermacht und nVidia immer schön redet." sehen. =)

Xmas
2005-07-03, 20:51:14
Das Zitat sagt doppelte Rechenkraft, nicht doppelte Effizienz.

Mumins
2005-07-03, 20:53:03
Das Zitat sagt doppelte Rechenkraft, nicht doppelte Effizienz.

Is das nicht das gleiche? Ich meine man kann auch Haare spalten!

Quasar
2005-07-03, 20:56:28
Das Zitat sagt doppelte Rechenkraft, nicht doppelte Effizienz.
Umso einfacher - über die effizienz kann man IMO trefflicher streiten, als über die Rechenkraft, die so schön abstrakt ist.

r3ptil3
2005-07-03, 20:56:50
Is das nicht das gleiche? Ich meine man kann auch Haare spalten!

Effizient würde man eher gebrauchen wie z.B. ein Pipeline ist doppelt so effizient wie das alte (1:1). Doppelte Rechenkraft würde eher darauf hinweisen wie z.B. Dual-Core da hat man eben 2 Cores und somit pro core gleich effizient wie das alte mit nur einem, weil ja ein Core des Dual-Cores immernoch das gleiche leistet wie das alte Core.

Xmas
2005-07-03, 21:06:56
Is das nicht das gleiche? Ich meine man kann auch Haare spalten!
Effizienz ist das Verhältnis von Ergebnis zu Aufwand. Das ist beim G70 wohl eher schlechter als beim R420, aber das kommt natürlich auf die Betrachtungsweise an. Rechenkraft ist eher ein theoretisch zu betrachtendes Maximum. Die Effektivität, die hier wohl eher gemeint ist, zeigt sich erst im Praxiseinsatz.

robbitop
2005-07-04, 00:25:57
Es ist noch zu frueh fuer MADD Rechnereien, aber erstens stimmt das obrige nicht und zweitens ist der Gewinner schon erhaeltlich was diesen Bereich betrifft.
MAD4 und Dot3. Erst bei SFU kann es schwierig werden, da diese verteilt sind. Kombinationen von MAD und SFU oder andere schafft die G70 Pipe noch immer 2 Vec4 Ops pro Takt. Eben recht robust das ganze.

Zur PS Leistung: noch sieht man in Spielen keinen brachialen Vorteil beim G70/NV40. Das liegt einfach daran, dass derzeit bei 16x12 4xAA/8xAF diese nicht limitiert. Aber das kann sich schnell ändern.

IVN
2005-07-04, 00:36:28
Effizienz ist das Verhältnis von Ergebnis zu Aufwand. Das ist beim G70 wohl eher schlechter als beim R420, aber das kommt natürlich auf die Betrachtungsweise an. Rechenkraft ist eher ein theoretisch zu betrachtendes Maximum. Die Effektivität, die hier wohl eher gemeint ist, zeigt sich erst im Praxiseinsatz.

Ja,und wie soll das sein?? 1 quad des g70 ist mit Sichercheit schnaeler als einer des r420 beim gleichen Takt,und das ist fuer mich die hoechere Effizienz.




p.s. vieleich haben die Jungs bei Nv das Problem mit den temp. registern endlich in den Griff bekommen?Mehr als 4 *32bit floats oder 8*16 bit floats.Das wurde die Geschwindigkeitssteigerung erklaeren.

mapel110
2005-07-04, 00:38:49
Ja,und wie soll das sein?? 1 quad des g70 ist mit Sichercheit schnaeler als einer des r420 beim gleichen Takt,und das ist fuer mich die hoechere Effizienz.

Das R420-Quad hat aber sicher viel weniger Transistoren als das G70-Quad. Das muss man berücksichtigen, wenn man über Effizienz reden will.

Ailuros
2005-07-04, 00:45:02
MAD4 und Dot3. Erst bei SFU kann es schwierig werden, da diese verteilt sind. Kombinationen von MAD und SFU oder andere schafft die G70 Pipe noch immer 2 Vec4 Ops pro Takt. Eben recht robust das ganze.

Zur PS Leistung: noch sieht man in Spielen keinen brachialen Vorteil beim G70/NV40. Das liegt einfach daran, dass derzeit bei 16x12 4xAA/8xAF diese nicht limitiert. Aber das kann sich schnell ändern.

Angenommen 1:1 gleiche Einheiten (gleiche Rechenkraft) ist das Verhaeltnis immer noch 1.5:1 AFAIK.

IVN
2005-07-04, 00:57:07
Das R420-Quad hat aber sicher viel weniger Transistoren als das G70-Quad. Das muss man berücksichtigen, wenn man über Effizienz reden will.
Und wenn wir die quads mit default clock testen(430vs540)? Wen der g70 quad auch hier schnaeler ist,ist er auch effizienter. ;)

Xmas
2005-07-04, 01:19:24
Ja,und wie soll das sein?? 1 quad des g70 ist mit Sichercheit schnaeler als einer des r420 beim gleichen Takt,und das ist fuer mich die hoechere Effizienz.
Effizienz ≠ Effektivität. Effizienz ist das Verhältnis von Ergebnis zu Aufwand. Aber ich schrieb ja, dass es auf die Betrachtungsweise ankommt.

p.s. vieleich haben die Jungs bei Nv das Problem mit den temp. registern endlich in den Griff bekommen?Mehr als 4 *32bit floats oder 8*16 bit floats.Das wurde die Geschwindigkeitssteigerung erklaeren.
Nein.

IVN
2005-07-04, 02:05:57
Effizienz ≠ Effektivität. Effizienz ist das Verhältnis von Ergebnis zu Aufwand. Aber ich schrieb ja, dass es auf die Betrachtungsweise ankommt.


Nein.
1. In meiner Sprache ist genau das Effizienz.Hocherer transistor count (g70) und der hocherer Takt (r420) sind beide = Aufwand.
2.Erklaerung?

Xmas
2005-07-04, 02:18:16
1. In meiner Sprache ist genau das Effizienz.Hocherer transistor count (g70) und der hocherer Takt (r420) sind beide = Aufwand.
Es gibt auch X8xx-Karten mit weniger Takt.
Und ich schreibe jetzt schon zum dritten Mal dass es auf die Betrachtungsweise ankommt. Ist das so schwer zu verstehen?

2.Erklaerung?
"NV40 bietet nun Platz für vier Temps - beim G70 bleibt dieser Wert." (http://www.3dcenter.org/artikel/2005/06-26_a.php[/url)
Diese Angabe stammt direkt von NVidia.

Labberlippe
2005-07-04, 05:58:02
Es gibt auch X8xx-Karten mit weniger Takt.
Und ich schreibe jetzt schon zum dritten Mal dass es auf die Betrachtungsweise ankommt. Ist das so schwer zu verstehen?


"NV40 bietet nun Platz für vier Temps - beim G70 bleibt dieser Wert." (http://www.3dcenter.org/artikel/2005/06-26_a.php[/url)
Diese Angabe stammt direkt von NVidia.

Hi

Schon, aber dann sollte man auch die Betrachtungsweise erläutern bevor man einen Einwand bringt.....

Nichts für ungut X-Mas.

Ich persönlich Frage mich aber die ganze Zeit ob der G70 wirklich so stark ist.

16vs 24 Pipes also vom Blatt Papier her sollte es sowieso keine Frage sein was stärker ist.

Was mich beim G70 positiv überrascht hat, ist das neue FSAA Verfahren, das zeigt mir das nVIDIA sich mal gedanken gemacht hat.

Wenn der Rest auch noch passt, dann kann ich nVIDIA wieder ernst nehmen.

Gruss Labberlippe

robbitop
2005-07-04, 07:04:33
Angenommen 1:1 gleiche Einheiten (gleiche Rechenkraft) ist das Verhaeltnis immer noch 1.5:1 AFAIK.
In der Praxis als Durchschnittswert oder wo?
Ich kann mir durchaus Situationen denken, wo G70 noch deutlich schneller ist. (SFUs, die beim R420 nur als Makro existieren oder nebenher noch NRM_PP Nutzung)ö

Ailuros
2005-07-04, 07:57:48
In der Praxis als Durchschnittswert oder wo?
Ich kann mir durchaus Situationen denken, wo G70 noch deutlich schneller ist. (SFUs, die beim R420 nur als Makro existieren oder nebenher noch NRM_PP Nutzung)ö

Falls Du Deine neue PM gelesen hast, muesstest Du eigentlich wissen auf was ich mich beziehe.

Ailuros
2005-07-04, 08:00:12
LOL, was für ein Märchen, Sandkasten dritte Ausfahrt links!

Zwar war sein Post viel zu uebertrieben fuer meinen Geschmack, aber es sieht tatsaechlich nicht sehr gut momentan bei ATI aus.

Die Konkurrenz ist gerade dabei eine weitere G7x Variante zu veroeffentlichen mit der gleichen Verfuegbarkeits-Masche wie bei G70.

Diskutator
2005-07-04, 08:15:20
Zwar war sein Post viel zu uebertrieben fuer meinen Geschmack, aber es sieht tatsaechlich nicht sehr gut momentan bei ATI aus.

Die Konkurrenz ist gerade dabei eine weitere G7x Variante zu veroeffentlichen mit der gleichen Verfuegbarkeits-Masche wie bei G70.

Hi,

bitte mal die Kirche im Dorf lassen! PC Grafik ist nicht alles! Es gibt ja auch noch z.B. Notebooks. Schaue in die aktuelle Chip und sage mit wieviel Notebooks mit nv-Grafik in der Besten-Liste sind, gerade einmal 2 Stück alles andere kommt ATI. 70% Gesamtmarkt / Share ATI!!!

Das Thema G70 versus R520 ist das einzige Thema wo nv gegen derzeit noch ATI stechen kann, aber auch nur als Sommerloch, Im September werden die Karten NEU gemischt und dann schaun wir mal weiter......

ATi steht bestens da; Vergleiche die Umsätze von 2004 zu 2003 und erinnere dich wo ATI vor 5 Jahren stand! Ich finde das sehr beeindruckend wie sich ATI vom FAST-AUS zum klaren Marktführer in 2004 gemausert hatte. 2005 sind sie in der Summe immer noch auf Platz 1 vor nv, wenn man Intel wegläßt.

Wir beide wissen doch das sich rote und grüne Jungs hier Ihre Zeit vertreiben!

Winter[Raven]
2005-07-04, 08:31:36
Hi,

bitte mal die Kirche im Dorf lassen! PC Grafik ist nicht alles! Es gibt ja auch noch z.B. Notebooks. Schaue in die aktuelle Chip und sage mit wieviel Notebooks mit nv-Gfrafik in der Besten-Liste sind, gerade einmal 2 Stück alles andere kommt ATI. 70% Share ATI!!!

Das Thema G70 versus R520 ist das einzige Thema wo nv gegen ATI stechen kann, aber auch nur als Sommerloch, Im September werden die Karten NEU gemischt und dann schaun wir mal weiter......

ATi steht bestens da; Vergleiche die Umsätze von 2004 zu 2003 und erinnere dich wo ATI vor 5 Jahren stand! Ich finde das sehr beeindruckend wie sich ATI vom FAST-AUS zum klaren Marktführer in 2004 gemausert hatte. 2005 sind sie in der Summe immer noch auf Platz 1 vor nv, wenn man Intel wegläßt.

Wir beide wissen doch das sich rote und grüne Jungs hier Ihre Zeit vertreiben!

Hahhahaha. I like you. You're trouble...

Anscheind hast du andere Informationensquellen als unsere Gurus, leider trau ich den mehr zu als dir, sorry.

Aber wenn wir jetzt mal realitisch sind, ATI hat mit dem R3xx was gutes vorgelegt, der Chip war einfach grandiös, nur was haben wir in den nächsten 3 Jahren bekommen? Speedupdates und Technik die gerade mal so mit dem NV3x gleichzieht.

Es ist anzunehmen das die Marktanteile die ATI so hart erkämpft hat, zum Q1-Q2 wieder an Nvidia gehen werden.

@ Ailuros

:D

Diskutator
2005-07-04, 08:35:44
']Hahhahaha. I like you. You're trouble...

Anscheind hast du andere Informationensquellen als unsere Gurus, leider trau ich den mehr zu als dir, sorry.

Aber wenn wir jetzt mal realitisch sind, ATI hat mit dem R3xx was gutes vorgelegt, der Chip war einfach grandiös, nur was haben wir in den nächsten 3 Jahren bekommen? Speedupdates und Technik die gerade mal so mit dem NV3x gleichzieht.

Es ist anzunehmen das die Marktanteile die ATI so hart erkämpft hat, zum Q1-Q2 wieder an Nvidia gehen werden.

@ Ailuros

:D

Lol, nicht böse sein, aber meine Info's sind aus 1. Hand! Ich weiss nicht woher du deine Info's beziehst, von den Gurus kann es ja nicht sein, denn was du hier erzählst habe ich bei denen noch nicht gelesen....

Tomcat70
2005-07-04, 08:37:52
Aber wenn wir jetzt mal realitisch sind, ATI hat mit dem R3xx was gutes vorgelegt, der Chip war einfach grandiös, nur was haben wir in den nächsten 3 Jahren bekommen? Speedupdates und Technik die gerade mal so mit dem NV3x gleichzieht.


dein permabashing gegen ATI wird auch nicht wahrer, auch wenn du es nicht aufgibst.....

also eine X8xx würd ich jederzeit einem NV3x vorziehen......

Winter[Raven]
2005-07-04, 08:42:58
Lol, nicht böse sein, aber meine Info's sind aus 1. Hand! Ich weiss nicht woher du deine Info's beziehst, von den Gurus kann es ja nicht sein, denn was du hier erzählst habe ich bei denen noch nicht gelesen....

What do you mean? Was tuh ich den erzählen? Die Realität das R3-4xx Reihe von den HW-features ~NV3x Reihe ist?

@ Tomcat

Why? weil es mehr Speed bittet? Keine Frage, im dem Gesichtspunk FULLACK, will man aber etwas experementieren da nimmt man sich den GF5900, da hat man wenigstens das FULL-AF :)

Kann man nichts mehr sagen ohne das es gleich als Bashen von dir abgestemmpelt wird? Hab ich was böses gesagt? Kannst du näher erläutern wieso meine Aussage im bezug auf HW-features falsch sein soll. Vergiss nicht, ich spreche nicht von der Speed :smile:

Tomcat70
2005-07-04, 08:43:22
Lol, nicht böse sein, aber meine Info's sind aus 1. Hand! Ich weiss nicht woher du deine Info's beziehst, von den Gurus kann es ja nicht sein, denn was du hier erzählst habe ich bei denen noch nicht gelesen....


naja, er verweist oft gern auf "gurus" um ohne eigene argumente besser zu wirken, leider geht es meist nur um heisse luft oder wunschdenken.

auch wenn ich persönlich nicht allzuviel auf dein insiderwissen gebe, da steht wahrscheinlich noch allemal mehr dahinter als bei ihm :D

Winter[Raven]
2005-07-04, 09:00:05
@ tomcat

I'm still waiting... :(, und bin sehr gesapannt auf deine Argumentation.

robbitop
2005-07-04, 09:04:29
Falls Du Deine neue PM gelesen hast, muesstest Du eigentlich wissen auf was ich mich beziehe.
Deine PM ging nicht über die PS Leistung des R420 IIRC.

robbitop
2005-07-04, 09:15:47
dein permabashing gegen ATI wird auch nicht wahrer, auch wenn du es nicht aufgibst.....

also eine X8xx würd ich jederzeit einem NV3x vorziehen......
Es ging um den Technologischen Vorsprung. Und was das angeht, ist das nunmal die traurige Wahrheit. Jeder NV3x in diesem Gesichtspunkt dem R420 voraus. Und ich bin wirklich mal gespannt, ob R520 dies ändern kann.

@Disktutator
Die gleiche Quelle ("1. Hand"), die dir das mit den 32 Pipes im R520 gesteckt hat? :|

Exxtreme
2005-07-04, 09:20:40
Es ging um den Technologischen Vorsprung. Und was das angeht, ist das nunmal die traurige Wahrheit. Jeder NV3x in diesem Gesichtspunkt dem R420 voraus. Und ich bin wirklich mal gespannt, ob R520 dies ändern kann.

Der NV3x ist nur bei den Shadern fortschrittlicher ggü. dem R42x.

Gast
2005-07-04, 09:26:58
@Disktutator
Die gleiche Quelle ("1. Hand"), die dir das mit den 32 Pipes im R520 gesteckt hat? :|

Warum sollten das keine 32 pipes sein? Meinst du Ati könnte das nicht auf die Reihe bekommen? Oder meinst du 16 pipes werden das?

Demirug
2005-07-04, 09:30:43
Der NV3x ist nur bei den Shadern fortschrittlicher ggü. dem R42x.

Das sind ja auch zwei unterschiedliche Generationen. Wenn schon dann müsste man bei einem solchen Vergleich einen theoretischen NV3X Chip mit doppelter Pipelineanzahl verwenden.

robbitop
2005-07-04, 09:35:10
Der NV3x ist nur bei den Shadern fortschrittlicher ggü. dem R42x.
Der 3D Teil besteht doch fast ausschließlich aus den Vertex und Pixelpipes und beide sind technisch einfach eine Generation weiter.

robbitop
2005-07-04, 09:35:50
Das sind ja auch zwei unterschiedliche Generationen. Wenn schon dann müsste man bei einem solchen Vergleich einen theoretischen NV3X Chip mit doppelter Pipelineanzahl verwenden.
Es geht doch nur um das Techlevel. Dazu würde auch NV34 reichen.

Exxtreme
2005-07-04, 09:44:58
Der 3D Teil besteht doch fast ausschließlich aus den Vertex und Pixelpipes und beide sind technisch einfach eine Generation weiter.
Naja, ich betrachte nicht unbedingt das, was am meisten an Die-Fläche ausmacht sondern das, was auch genutzt wird. ;)

Daß der NV3x insgesamt etwas fortschrittlicher ist, das bezweifle ich nicht. Nur hat der Nutzer fast nichts von dem Fortschritt. MSAA ist schlechter, SSAA nur in Uraltspielen nutzbar, AF je nach Treiberversion und Spiel mal besser mal schlechter. Da wo der NV3x fortschrittlicher ist, ist er zu langsam etc. Insgesamt gesehen wie ein Porsche mit Trabbi-Motor.

Da sieht der NV40 und insbesondere der G70 viel besser aus da viel ausgewogener.

robbitop
2005-07-04, 09:48:48
Naja, ich betrachte nicht unbedingt das, was am meisten an Die-Fläche ausmacht sondern das, was auch genutzt wird. ;)

Daß der NV3x insgesamt etwas fortschrittlicher ist, das bezweifle ich nicht. Nur hat der Nutzer fast nichts von dem Fortschritt. MSAA ist schlechter, SSAA nur in Uraltspielen nutzbar, AF je nach Treiberversion und Spiel mal besser mal schlechter. Da wo der NV3x fortschrittlicher ist, ist er zu langsam etc. Insgesamt gesehen wie ein Porsche mit Trabbi-Motor.

Da sieht der NV40 und insbesondere der G70 viel besser aus da viel ausgewogener.
Du redest leider am Thema vorbei. Das zweifelte niemand an. Es ging ausschließlich um das Techlevel. Ich weiß nicht, warum dann immer abgeschweift werden muss.

Exxtreme
2005-07-04, 09:52:44
Du redest leider am Thema vorbei. Das zweifelte niemand an. Es ging ausschließlich um das Techlevel. Ich weiß nicht, warum dann immer abgeschweift werden muss.
Tja, ich ziehe nicht nur die Shadereinheiten ins Techlevel mitein, das ist alles.

robbitop
2005-07-04, 10:18:29
Tja, ich ziehe nicht nur die Shadereinheiten ins Techlevel mitein, das ist alles.
Dann wäre VSA100 oder G70 ja das Ultimum aufgrund der tollen AA Modi. :rolleyes:

Exxtreme
2005-07-04, 10:50:10
Dann wäre VSA100 oder G70 ja das Ultimum aufgrund der tollen AA Modi. :rolleyes:
Wo schreibe ich das?

Aber ich würde AA-Modi auch miteinbeziehen genauso wie Fertigungsprozess etc.

robbitop
2005-07-04, 11:36:36
Wo schreibe ich das?

Aber ich würde AA-Modi auch miteinbeziehen genauso wie Fertigungsprozess etc.

Wo hat denn bitte der Fertigungsprozess etwas mit dem Techlevel zu tun? Naja anscheinend haben wir eine grundlegend verschiedene Ansicht von diesem Begriff.

Winter[Raven]
2005-07-04, 11:44:22
@ Exxtreme

Kannst du das näher erleutern?

Ich für mich jetzt persönlich weiß nicht wie ich vom Fertigungsprozess auf den Techlevel schließen soll.

Ist es eigentlich nicht egal in welchem Fertigungsprozess ein Chip hergestellt wird, solange er alles an board hat und dazu leise kühlbar ist, und nicht ein mini-atomkraftwerk voraussetzt?

seahawk
2005-07-04, 12:18:16
Wo schreibe ich das?

Aber ich würde AA-Modi auch miteinbeziehen genauso wie Fertigungsprozess etc.

Fertigungsprozess ?

Da kann ich keinen Zusammenhang zu einem für den Anwender spürbaren Techlevel sehen.

Exxtreme
2005-07-04, 13:46:55
Fertigungsprozess ?

Da kann ich keinen Zusammenhang zu einem für den Anwender spürbaren Techlevel sehen.
Wo ist denn für den Anwender ein Techlevel spürbar wenn die Software ihn gar nicht benutzt?

Und mit einem besseren Fertigungsprozess gibt es Vorteile für den Endanwender wie weniger Stromverheizen, weniger Kühlaufwand etc.

deekey777
2005-07-04, 13:47:30
... Naja anscheinend haben wir eine grundlegend verschiedene Ansicht von diesem Begriff.

Sieht so aus. :)
Das klingt zwar abwegig, vielleicht sollte man beim Techlevel nicht nur die Fähigkeiten der Hardware miteinbeziehen, sondern alles inkl. Fertigungsprozeß und sich daraus resultierenden Folgen für den Verbraucher: Stellt euch vor, die 7800GTX als fortschrittlichste Grafikkarte immer noch im 150nm Verfahren gefertigt worden wäre, was für den Verbraucher enorme Probleme mit sich bringen würde.

BlackBirdSR
2005-07-04, 13:54:20
Sieht so aus. :)
Das klingt zwar abwegig, vielleicht sollte man beim Techlevel nicht nur die Fähigkeiten der Hardware miteinbeziehen, sondern alles inkl. Fertigungsprozeß und sich daraus resultierenden Folgen für den Verbraucher: Stellt euch vor, die 7800GTX als fortschrittlichste Grafikkarte immer noch im 150µm Verfahren gefertigt worden wäre, was für den Verbraucher enorme Probleme mit sich bringen würde.

150µm sind doch arg unrealistisch ;)
nehmen wir mal 180nm an. Selbst dann wäre es kaum möglich den Chip gewinnbringend zu fertigen. Wenn überhaupt solche Taktraten möglich wären.

Ich persönliche sehe die Fertigung als elementaren Teil des Chips selbst, die sich zwangsläufig ergibt, und damit eigentlich nicht mehr extra betrachtet werden muss.
Soll heissen: Ob jetzt 110nm oder 150nm hängt direkt vom Chip ab selbst ab, und ist damit quasi eine Muss.

Diskutator
2005-07-04, 17:05:17
@Disktutator
Die gleiche Quelle ("1. Hand"), die dir das mit den 32 Pipes im R520 gesteckt hat? :|

Wer hat mir hier wo was gesteckt??? Ich kann und darf selber SPEKULIEREN bis ich GRÜN werde, na hoffentlich nicht, GRÜN sind ja schon mehr oder weniger einige hier. Du solltest aber selber wissen, dass zum heutigen Zeitpunkt NIEMAND d. def. sagen kann, ob der R520 nicht doch 32Pipes hat!

Diskutator
2005-07-04, 17:08:13
Du redest leider am Thema vorbei. Das zweifelte niemand an. Es ging ausschließlich um das Techlevel. Ich weiß nicht, warum dann immer abgeschweift werden muss.

"Techlevel" solltest du mal in einem gesonderten Thread erklären. Extreme hat das schon RICHTIG erklärt!

Deshalb:Pfui NV3x & Hui NV40 bis R520 kommt!

BlackArchon
2005-07-04, 17:16:38
Wer hat mir hier wo was gesteckt??? Ich kann und darf selber SPEKULIEREN bis ich GRÜN werde, na hoffentlich nicht, GRÜN sind ja schon mehr oder weniger einige hier. Du solltest aber selber wissen, dass zum heutigen Zeitpunkt NIEMAND d. def. sagen kann, ob der R520 nicht doch 32Pipes hat!
Du müsstest doch am besten wissen, dass hier ausnahmslos alle grasgrün sind. Außer du natürlich.

Gast
2005-07-04, 17:58:42
Hi,
bitte mal die Kirche im Dorf lassen! PC Grafik ist nicht alles! Es gibt ja auch noch z.B. Notebooks. Schaue in die aktuelle Chip und sage mit wieviel Notebooks mit nv-Grafik in der Besten-Liste sind, gerade einmal 2 Stück alles andere kommt ATI. 70% Gesamtmarkt / Share ATI!!!

Das Thema G70 versus R520 ist das einzige Thema wo nv gegen derzeit noch ATI stechen kann, aber auch nur als Sommerloch, Im September werden die Karten NEU gemischt und dann schaun wir mal weiter......

ATi steht bestens da; Vergleiche die Umsätze von 2004 zu 2003 und erinnere dich wo ATI vor 5 Jahren stand! Ich finde das sehr beeindruckend wie sich ATI vom FAST-AUS zum klaren Marktführer in 2004 gemausert hatte. 2005 sind sie in der Summe immer noch auf Platz 1 vor nv, wenn man Intel wegläßt.

Wir beide wissen doch das sich rote und grüne Jungs hier Ihre Zeit vertreiben!

Du liegst mit deiner Argumentation völlig neben den Tatsachen.
Wenn du glaubst, dass Nvidia's Pluspunkt der frühere G70 Launch ist hast du dich geschnitten. Der größte Pluspunkt für Nvidia ist, dass deutlich mehr Kunden sich ein NV4x Produkt als ein ATI Produkt der X800 bzw. X700 Reihe kaufen. Das Verhältnis liegt derzeit bei knapp über 2:1 für Nvidia. G70 und R520 lass ich dabei mal bewusst weg. Dort muss ATI ohnehin erstmal nachlegen um ein besseres Gesamtbild zu bekommen. Trozdem sollte wohl klar sein, dass die Verspätungen bei ATI sicherlich keinen positiven Effekt erzeugen.
Da frag ich mich ehrlich von was für einer tollen Situation für ATI du hier redest.

Und da du ja so schön mit den vielen Geschäftsbereichen bei ATI argumentierst, dürfte Dir ja sicherlich nicht entgangen sein, dass ATI fast 80 Mio Dollar Umsatz in gerade einmal 3 Monaten eingebüst hat und keinen Gewinn mehr vorweisen kann.
Ich wage mal eine kleine Gegenüberstellung von ATI und Nvidia von den letzten herausgegebenen Zahlen.

Letztes Quartal:
Nvidia: Umsatz = 584Mio$ Gewinn = 64Mio$
ATI: Umsatz = 530Mio$ Gewinn = -400.000$

jeweilige Vorquartal:
Nvidia: Umsatz = 566Mio$ Gewinn = 48Mio$
ATI: Umsatz = 608Mio$ Gewinn = 57,2 Mio$

Hinzu kommt, dass ATIs Margen von 36% zu R300 Zeiten nun nur noch auf 29% liegen. Nvidia dagegen stieg von 27% mit der FX auf nun 37% und projeziert 40% fürs kommende Quartal.

Diese Zahlen gehen voll auf das Konto der seit einem Jahr bei beiden IHVs vorhandenen Produktreihen. Irgendwelche G70 oder R520 Zahlen gibts es ja noch gar nicht.
Und nun erklär mir mal, wo hier momentan ATI sonnige Zeiten hat?
Sie sind von Nvidia überholt worden und nun ganz klar nur noch 2. im Spiel.
Das muss kein Ewigkeitszustand sein und wird es auch nicht. Aber für den Augenblick mal bzw. die letzten 12 Monate sind sie eindeutig die Geschlagenen.

Da nützt es auch nichts auf irgendwelche anderen Geschäftsbereiche zu verweisen. Sie gibt es bei Nvidia auch. Hier haben wir die Zahlen für alle Geschäftsbereiche beider IHVs und die zeigen für Nvidia nach oben und für ATI nach unten.

Gast
2005-07-04, 18:36:48
Ach bla, wenn das Xbox 360 Geschäft erstma rennt, klingelts bei ATI (m$ zahlt die Zeche)

Diskutator
2005-07-04, 19:09:15
Du liegst mit deiner Argumentation völlig neben den Tatsachen.
Wenn du glaubst, dass Nvidia's Pluspunkt der frühere G70 Launch ist hast du dich geschnitten. Der größte Pluspunkt für Nvidia ist, dass deutlich mehr Kunden sich ein NV4x Produkt als ein ATI Produkt der X800 bzw. X700 Reihe kaufen. Das Verhältnis liegt derzeit bei knapp über 2:1 für Nvidia. G70 und R520 lass ich dabei mal bewusst weg. Dort muss ATI ohnehin erstmal nachlegen um ein besseres Gesamtbild zu bekommen. Trozdem sollte wohl klar sein, dass die Verspätungen bei ATI sicherlich keinen positiven Effekt erzeugen.
Da frag ich mich ehrlich von was für einer tollen Situation für ATI du hier redest.

Und da du ja so schön mit den vielen Geschäftsbereichen bei ATI argumentierst, dürfte Dir ja sicherlich nicht entgangen sein, dass ATI fast 80 Mio Dollar Umsatz in gerade einmal 3 Monaten eingebüst hat und keinen Gewinn mehr vorweisen kann.
Ich wage mal eine kleine Gegenüberstellung von ATI und Nvidia von den letzten herausgegebenen Zahlen.

Letztes Quartal:
Nvidia: Umsatz = 584Mio$ Gewinn = 64Mio$
ATI: Umsatz = 530Mio$ Gewinn = -400.000$

jeweilige Vorquartal:
Nvidia: Umsatz = 566Mio$ Gewinn = 48Mio$
ATI: Umsatz = 608Mio$ Gewinn = 57,2 Mio$

Hinzu kommt, dass ATIs Margen von 36% zu R300 Zeiten nun nur noch auf 29% liegen. Nvidia dagegen stieg von 27% mit der FX auf nun 37% und projeziert 40% fürs kommende Quartal.

Diese Zahlen gehen voll auf das Konto der seit einem Jahr bei beiden IHVs vorhandenen Produktreihen. Irgendwelche G70 oder R520 Zahlen gibts es ja noch gar nicht.
Und nun erklär mir mal, wo hier momentan ATI sonnige Zeiten hat?
Sie sind von Nvidia überholt worden und nun ganz klar nur noch 2. im Spiel.
Das muss kein Ewigkeitszustand sein und wird es auch nicht. Aber für den Augenblick mal bzw. die letzten 12 Monate sind sie eindeutig die Geschlagenen.

Da nützt es auch nichts auf irgendwelche anderen Geschäftsbereiche zu verweisen. Sie gibt es bei Nvidia auch. Hier haben wir die Zahlen für alle Geschäftsbereiche beider IHVs und die zeigen für Nvidia nach oben und für ATI nach unten.

Junge junge,

das du nicht im Detail steckst ist mir klar!
1. Die Boardpartner bei nvidia sind die Verlierer!
Die Preisspirale gerade bei den 6800GT zeigt ganz klar auf Verlust.
Zu deiner 2:1 These 6600GT und 6800GT passen aber nicht die 10.000 Gamer in der Befragung, die erst kürzlich eine andere Meinung hatten!

Dann zeige mir mal andere Geschäftsbereiche in denen NV vor ATI ist!
Notebook??? Ich lach mich schlapp
Handy??? Nochmal laut lachen
IGP mit MCE2005 ?? Träume
HDTV im TV ??? Kennen se nicht!
XBOX 360??? Leider rausgekickt von ATI/MS
Fragen??

Im Entry-Level, also dort wo das Volumen gemacht wird, macht ATI das 3-FACHE von NV in der Distribution!

Sicherlich ohne Frage, führt nv im 6600GT bzw Highend, aber dann davon auszugehen nv liege vor ATI ist ein bissel EINFACH gedacht!
Der Midrange / Highend - Markt ist von 5 MIO PCs im Jahr gerade einmal 10%!

Gast
2005-07-04, 19:14:53
Wenn ATI so dick im Geschäft ist, warum machen sie dann Verlust und geben einen nicht gerade freundlichen Ausblick von sich aus auf die kommenden Monate?

Mr. Lolman
2005-07-04, 19:25:53
Damit die Leute ihre Aktien verkaufen...

Diskutator
2005-07-04, 19:37:21
Wenn ATI so dick im Geschäft ist, warum machen sie dann Verlust und geben einen nicht gerade freundlichen Ausblick von sich aus auf die kommenden Monate?

Warte ab wie Zahlen von nv ausfallen! Verluste sind normal derzeit!

PS: Ich vergaß zu erwähnen das nv mit OPENGL im Workstation derzeit vor ATI liegt, obwohl einige Tester die Fire GL besser benotet haben, Preis/Leistung

Gast
2005-07-04, 19:46:56
Damit die Leute ihre Aktien verkaufen...

ganz bestimmt....lol.
Und 80 Mio weniger Umsatz macht man auch mal eben so. Das übersetzt sich in deutlich geringeren Verkäufen. Du wärst ein Prima Geschäftsmann Lolman.
Die Firma wär unter Deiner Führung nach wenigen Monaten pleite.

Der eigentliche Grund ist, dass die aktuelle Reihe beim Kunden nicht ankommt. Technisch veraltet und kein Vorsprung mehr wie noch zu R300 Zeiten. Dazu kommt ein Argumentationsproblem in den nächsten Monaten, da ATI nun SM3 an den Kunden bringen möchte. Wer solln da noch deren SM2 Ware kaufen. Die Konkurenz bietet in allen Preisbereichen SM3 und das fast seit 1 Jahr.


Junge junge,

das du nicht im Detail steckst ist mir klar!
1. Die Boardpartner bei nvidia sind die Verlierer!
Die Preisspirale gerade bei den 6800GT zeigt ganz klar auf Verlust.

Ja klar - jetzt sind es die Nvidia Boardpartner die die Verlierer sind. Warum erwähnst du eigentlich nicht, dass die Preisspirale bei ATI genauso nach unten geht :). ATIs Problem ist nur, sie haben momentan keinen Ersatz. Nvidia schon. Im übrigen haben Nvidia und die Boardpartner mit der 6600er Reihe gut verdient im Gegensatz zu ATI, die bei der X700 Reihe mit YIELD Problemen zu kämpfen hatten oder wo ist die X700XT nun geblieben.

Ich möchte von Dir Bewerise sehen und nicht so ein dummes dahergelalle. Ich habe zahlen geliefert. Von Dir ist bis jetzt nichts gekommen außer Mutmaßungen, Spekulationen und Träumen.


Zu deiner 2:1 These 6600GT und 6800GT passen aber nicht die 10.000 Gamer in der Befragung, die erst kürzlich eine andere Meinung hatten!

Auch hier kommt wiederum nur Gelaber und keine Belege.
Ich hab aber was nettes für Dich.
http://www.xbitlabs.com/news/video/display/20030731084600.html
BTW macht Mercury Research diese Erhebungen in jedem Quartal. Und wenn man alle Zahlen der letzten 3 Quartale sich anschaut, so ist es für Nvidia stark aufwärts und für ATI stark abwärts gegangen.
Das deckt sich doch irgendwie dann auch mit deren Quartalszahlen. Die Beweislast ist so erdrückend, dass es keine Möglichkeit gibt daran vorbeizureden. Dass die Gesamtmarktanteile "noch" nicht im großem Außmas gefallen sind, verdankt ATI seinen IGP sales. Doch wie allgemein bekannt, wird dort kaum ein Cent verdient. Intel verschenkt seine IGPs zum gleichen Preis wie die normalen Chipsätze. Dass dann ATI dort nicht mehr verlangen kann ist dann ja wohl auch klar - sonst kaufts ja keiner. Und auch hier wiederum deckungsgleich mit den Quartalszahlen.
Ihnen ist das wichtigste Geschäft weggebrochen und das lautet Deskop GPUs beginnend ab Mainstream also oberhalb der X300 und X600 bis zu den Top Produkten.

Gast
2005-07-04, 19:50:34
Warte ab wie Zahlen von nv ausfallen! Verluste sind normal derzeit!

PS: Ich vergaß zu erwähnen das nv mit OPENGL im Workstation derzeit vor ATI liegt, obwohl einige Tester die Fire GL besser benotet haben, Preis/Leistung

Die Zahlen hab ich dir geliefert. Die kamen zwar 1 Monat vor ATI, da die Geschäftsquartale leicht versetzt sind aber der 1 Monat hat ATI sicherlich nicht diesen herben EInbruch beschert.
Nvidia lieferte 583 Mio Umsatz und 64 Mio Gewinn ab. ATI 1 Monat später 530 Mio Umsatz und 400.000 Verlust.
Die Schere ist für einen Monat dann doch ein bisschen zu gross :)

Coda
2005-07-04, 19:56:51
Warte ab wie Zahlen von nv ausfallen! Verluste sind normal derzeit!

PS: Ich vergaß zu erwähnen das nv mit OPENGL im Workstation derzeit vor ATI liegt, obwohl einige Tester die Fire GL besser benotet haben, Preis/LeistungIm Workstation-Markt zählt außer Leistung eigentlich fast nichts. Da interessiert auch der Preis normal nicht.

Gast
2005-07-04, 20:00:55
Im Workstation-Markt zählt außer Leistung eigentlich fast nichts. Da interessiert auch der Preis normal nicht.

Ist halt wie bei Servern. Zeit ist Geld und wenn eine Karte 300$ mehr kostet, dafür aber schneller rendert oder was auch immer und das so einige Minuten/Stunden/Tage im Jahr einspart, dann ist der Anschaffunspreis lächerlich dagegen.

Diskutator
2005-07-04, 20:10:52
Ist halt wie bei Servern. Zeit ist Geld und wenn eine Karte 300$ mehr kostet, dafür aber schneller rendert oder was auch immer und das so einige Minuten/Stunden/Tage im Jahr einspart, dann ist der Anschaffunspreis lächerlich dagegen.

LOL - Träumereien!

Warum hat dann aktuell NV den grossen Auftrag bei einem Automobilhersteller verloren??? Lachhaft! Ein CAD Unternehmen schaut ganz genau auf den Systempreis und 10FPS mehr oder weniger jucken keinen!

reunion
2005-07-04, 20:22:12
Warte ab wie Zahlen von nv ausfallen! Verluste sind normal derzeit!


Da wirst du dein blaues Wunder erleben - nV wird mit an Sicherheit grenzenden warscheindlichkeit ein Rekordquartal vermelden.

Gast
2005-07-04, 20:36:23
Atis R520 mit Überraschung?

Ein Sprecher von ATI-Deutschland gab gegenüber Golem.de allerdings an, dass man sich - vermutlich in Bezug auf den R520 - auf eine Überraschung gefasst machen solle. Auch wenn ATI sich mit offiziellen Aussagen zum R520 bisher zurückhielt, könnte damit die zu erwartende vereinheitlichte ("unified") Shader-Struktur gemeint sein. Bereits ATIs Xbox-360-Grafikchip hebt die Trennung in Pixel- und Vertex-Shader auf und soll Entwicklern mehr Kontrolle und mehr Freiraum für grafische Effekte geben.
http://www.golem.de/0507/39022.html

Was hat das zu bedeuten?

mapel110
2005-07-04, 20:51:58
Dessen ist man sich auch bei ATI bewusst, man warte mit dem R520 auf das Ende der Ferienzeit.
Ja, alles schon fertig. Man wartet ja nur. Auf was denn? Auf das Ende der Ferienzeit. Ist doch klar. :uup:

Demirug
2005-07-04, 20:55:16
Atis R520 mit Überraschung?

Ein Sprecher von ATI-Deutschland gab gegenüber Golem.de allerdings an, dass man sich - vermutlich in Bezug auf den R520 - auf eine Überraschung gefasst machen solle. Auch wenn ATI sich mit offiziellen Aussagen zum R520 bisher zurückhielt, könnte damit die zu erwartende vereinheitlichte ("unified") Shader-Struktur gemeint sein. Bereits ATIs Xbox-360-Grafikchip hebt die Trennung in Pixel- und Vertex-Shader auf und soll Entwicklern mehr Kontrolle und mehr Freiraum für grafische Effekte geben.
http://www.golem.de/0507/39022.html

Was hat das zu bedeuten?

Könnte der Anfang einer FUD Kampange sein. Nach dem PR Stunt von nVidia bleibt ATI nichts mehr anderes übrig.

EL_Mariachi
2005-07-04, 20:57:01
ich hab jetzt keine Lust mich durch den ganzen Fred zu quälen ;)

wann kommt der neue ATI Chip denn jetzt? zeitgleich mit der XboX360?

früher, später ... oder als Bundle mit Duke Nukem Forever? ;D ;)


*hust*

Gast
2005-07-04, 21:41:04
Da wirst du dein blaues Wunder erleben - nV wird mit an Sicherheit grenzenden warscheindlichkeit ein Rekordquartal vermelden.
zumindest ein besseres als ATI soviel ist mal sicher.
Nur ist von Diskutator dazu noch nix sinnvolles gekommen ausser Polemik.


LOL - Träumereien!

Warum hat dann aktuell NV den grossen Auftrag bei einem Automobilhersteller verloren??? Lachhaft! Ein CAD Unternehmen schaut ganz genau auf den Systempreis und 10FPS mehr oder weniger jucken keinen!


Ich diskutier mit Dir auf dem Niveau nicht mehr herum. Ich habe die Fakten geliefert und Du hast bis jetzt gar nichts abgegeben ausser Geflame.
Du machst dich lächerlich. Die Leute im Forum können lesen und das was es zu ATI und Nvidia derzeit zu sagen gibt, kann man wundervoll in offiziellen Quellen nachvollziehen, die du nicht wegdiskutieren kannst.

Gast
2005-07-04, 21:46:26
Könnte der Anfang einer FUD Kampange sein. Nach dem PR Stunt von nVidia bleibt ATI nichts mehr anderes übrig.
Kennen wir ja vom NV30. Da wurde auch vieles im Vorfeld breit getreten und am Ende isses nix geworden.

Ich glaube nicht, dass der R520 ein Reinfall wird aber ich würde die Erwartungen nicht zu hoch stecken.
Wenn ihr mich fragt ob er besser als die 7800GTX sein wird, dann würde ich das bejahen. Ob es reicht gegen das was Nvidia dann in welcher Form auch immer nachlegen wird, steht in den Sternen, wobei ich dazu tendieren würde, dass es nicht reicht. Und mit reichen meine ich nicht solche Tröpfchen Launches wie mit der X800XT-PE, die man dann nicht kaufen kann sondern mit breit verfügbaren Produkten vorne liegen.
Man muss das beobachten. Aber je mehr von der PR Front kommt, desto höher sind die Chancen, dass ATI zurückstecken muss in dieser Runde.

Xmas
2005-07-04, 21:57:33
Zu deiner 2:1 These 6600GT und 6800GT passen aber nicht die 10.000 Gamer in der Befragung, die erst kürzlich eine andere Meinung hatten!
Meinst du diese Umfrage (http://www.3dcenter.org/artikel/hw-umfrage_2005/index3.php)? Stimmt, das Verhältnis GeForce 6 zu Radeon X ist hier sogar 2,5:1...


Aber je mehr von der PR Front kommt, desto höher sind die Chancen, dass ATI zurückstecken muss in dieser Runde.
Das würde ich weder als Indikator in die eine noch in die andere Richtung sehen. ATI muss so oder so versuchen im Gespräch zu bleiben und die Kunden möglichst von GeForce 7 abzuhalten. Ganz unabhängig davon was der R520 letztlich bringt.

Gast
2005-07-04, 22:01:05
Das würde ich weder als Indikator in die eine noch in die andere Richtung sehen. ATI muss so oder so versuchen im Gespräch zu bleiben und die Kunden möglichst von GeForce 7 abzuhalten. Ganz unabhängig davon was der R520 letztlich bringt.

Naja ich weiss nicht aber so viele GF7800GTX werden doch nun auch nicht verkauft. Also die paar Hanseln machen den Brei nun nicht wirklich fett.
Die 7800GT könnte da schon eher gefährlich werden.
Insgesamt würde ich aber das Hauptproblem ein paar Klassen tiefer sehen also 6800GT, 6600GT und 6200. Dort dürften ATI die meissten Kunden davon rennen, da durch die GF7 die Preise jetzt natürlich erheblich fallen.
I

Botcruscher
2005-07-04, 22:23:44
Könnte der Anfang einer FUD Kampange sein. Nach dem PR Stunt von nVidia bleibt ATI nichts mehr anderes übrig.

Die Überaschung ist dan sicher der Lunch von Cross Fire. :rolleyes:

Gast
2005-07-04, 22:27:14
Die Überaschung ist dan sicher der Lunch von Cross Fire. :rolleyes:

Der Lunch? Sind Hardware nun hungrig und essen Lunchs?

Johnny Rico
2005-07-04, 22:27:30
schade, erst herbst nun t_T

Gast
2005-07-04, 23:24:56
LOL - Träumereien!

Warum hat dann aktuell NV den grossen Auftrag bei einem Automobilhersteller verloren??? Lachhaft! Ein CAD Unternehmen schaut ganz genau auf den Systempreis und 10FPS mehr oder weniger jucken keinen!

Wenn die 10fps den Unterschied zwischen ruckeln und flüssig ausmachen juckt das sehr wohl. Es ist wesentlich einfacher sich auf etwas flüssig laufendes als etwas ruckelndes zu konzentrieren. Magst du es wenn dein Lieblingsspiel ruckelt oder flüssig läuft?

Tomcat70
2005-07-04, 23:31:49
auf welchen chip sich das nun tatsächlich bezieht?:

ATI, Cadence and TSMC Produce Industry's First Fabless X Architecture Chip

http://www.cadence-europe.com/corporate/press_box/index.cfm?DisplayItem=704&Lang

mapel110
2005-07-04, 23:36:01
auf welchen chip sich das wohl bezieht?:

ATI, Cadence and TSMC Produce Industry's First Fabless X Architecture Chip

http://www.cadence-europe.com/corporate/press_box/index.cfm?DisplayItem=704&Lang
Hatten wir schon. Das nächste Midrange Produkt wird wohl damit hergestellt.

Tomcat70
2005-07-04, 23:51:15
Hatten wir schon. Das nächste Midrange Produkt wird wohl damit hergestellt.

also kommt der r520 ableger vor dem r520? oder wie hab ich das zu verstehen?
in der aussendung steht ja auch was von fertiger 90nm x-technik und vorbereitung von 65nm fertigung.

dildo4u
2005-07-04, 23:52:50
also kommt der r520 ableger vor dem r520? oder wie hab ich das zu verstehen?
nein nur braucht man für midrange viel höhere Stückzahlen.

TheCounter
2005-07-04, 23:58:56
LOL - Träumereien!

Warum hat dann aktuell NV den grossen Auftrag bei einem Automobilhersteller verloren??? Lachhaft! Ein CAD Unternehmen schaut ganz genau auf den Systempreis und 10FPS mehr oder weniger jucken keinen!

Wenn durch die 10FPS mehr im Jahr mehrere (hundert-)Tausend Euro eingespart werden können oder eben dazugewonnen werden können, interessiert das mit absoluter Sicherheit. Auch wenn ich nicht viel Ahnung davon habe, erscheint mir das ganze ziemlich logisch.

Lieber geb ich ein paar Hundert Euro mehr für die Anschaffung aus und hab dadurch im Jahr vielleicht 50.000EUR mehr Gewinn, als das es andersrum ist.

Hätte ich genug Geld würde ich mir mit sicherheit jetzt eine GF7800GTX holen. Aber da ich zum Glück nicht soviel Geld habe muss ich automatisch auch auf den R520 warten, was vlt. garnicht so dumm ist. Wir werden sehen was kommt.

Gast
2005-07-04, 23:59:13
Man muss das beobachten. Aber je mehr von der PR Front kommt, desto höher sind die Chancen, dass ATI zurückstecken muss in dieser Runde.

pr macht ati garnicht,das spielt sich nur in euren köpfen ab,die karte wurde nichtmal vorgestellt.

Ailuros
2005-07-05, 03:13:51
Atis R520 mit Überraschung?

Ein Sprecher von ATI-Deutschland gab gegenüber Golem.de allerdings an, dass man sich - vermutlich in Bezug auf den R520 - auf eine Überraschung gefasst machen solle. Auch wenn ATI sich mit offiziellen Aussagen zum R520 bisher zurückhielt, könnte damit die zu erwartende vereinheitlichte ("unified") Shader-Struktur gemeint sein. Bereits ATIs Xbox-360-Grafikchip hebt die Trennung in Pixel- und Vertex-Shader auf und soll Entwicklern mehr Kontrolle und mehr Freiraum für grafische Effekte geben.
http://www.golem.de/0507/39022.html

Was hat das zu bedeuten?


Das jemand mal wieder mit Absicht Mist blubbert, genauso wie mit den angeblichen 6 oder 8 quads.

Ailuros
2005-07-05, 03:19:48
Wer hat mir hier wo was gesteckt??? Ich kann und darf selber SPEKULIEREN bis ich GRÜN werde, na hoffentlich nicht, GRÜN sind ja schon mehr oder weniger einige hier. Du solltest aber selber wissen, dass zum heutigen Zeitpunkt NIEMAND d. def. sagen kann, ob der R520 nicht doch 32Pipes hat!

Ich und ich trage auch die volle Verantwortung fuer meine Aussage. Wenn Du wirklich ein ATI Fan bist, wuerdest Du Dich hinsetzen und das Ganze mal ein bisschen schaerfer ueberdenken.

Weisst Du was die Konkurrenz nach der Veroeffentlichung sagen koennte? Dass der chip so verklempelt ist und nur 4 quads am Ende operativ zustande kamen. Falls Ihr es immer noch nicht mitbekommen habt, ihr werdet indirekt als Fahrzeug fuer eine moegliche kommende Schlammschlacht benutzt.

Ailuros
2005-07-05, 03:28:57
Hi,

bitte mal die Kirche im Dorf lassen! PC Grafik ist nicht alles! Es gibt ja auch noch z.B. Notebooks. Schaue in die aktuelle Chip und sage mit wieviel Notebooks mit nv-Grafik in der Besten-Liste sind, gerade einmal 2 Stück alles andere kommt ATI. 70% Gesamtmarkt / Share ATI!!!

Es gibt Maerkte wo der eine IHV Vorsprung hat und andere wo der andere seinen Vorsprung hat. Was sollen diese albernen Messereien? Es gibt einen offizielle Ankuendigung von ATI fuer ihre Investoren und die spricht alleine von sich und ja die Firma wird in absehbarer Zeit ueber die zeitigen Probleme kommen, aber es geht ihnen momentan nicht besonders gut. Viel zu verdrehen gibt es da nicht.

Das Thema G70 versus R520 ist das einzige Thema wo nv gegen derzeit noch ATI stechen kann, aber auch nur als Sommerloch, Im September werden die Karten NEU gemischt und dann schaun wir mal weiter......

Wenn ich das jetzt beantworte, werden die NV-fans schon jetzt trommeln.

ATi steht bestens da; Vergleiche die Umsätze von 2004 zu 2003 und erinnere dich wo ATI vor 5 Jahren stand! Ich finde das sehr beeindruckend wie sich ATI vom FAST-AUS zum klaren Marktführer in 2004 gemausert hatte. 2005 sind sie in der Summe immer noch auf Platz 1 vor nv, wenn man Intel wegläßt.

Es hat wohl keinen Zweck....

Wir beide wissen doch das sich rote und grüne Jungs hier Ihre Zeit vertreiben!

Meine Farbe ist eigentlich ein schoen neutrales weiss; wer jetzt rot vor Wut in den kommenden Monaten sein wird will ich lieber nicht wissen.

seahawk
2005-07-05, 07:40:05
Wo ist denn für den Anwender ein Techlevel spürbar wenn die Software ihn gar nicht benutzt?

Und mit einem besseren Fertigungsprozess gibt es Vorteile für den Endanwender wie weniger Stromverheizen, weniger Kühlaufwand etc.

Echt ? Den Vorteil des moderneren Fertigungsprozesses hat man bein NV30 im Gegensatz zum R300 aber irgendwie nicht gemerkt. ;D

Der sonstige Techlevel und der Nutzen aus daraus hängt natürlich auch von der HAltedauer ab und davon ob die Features mit dem nötigen Speed dargestellt werden können. Daher war der NV3X im auch im praktischen Nutzen dem R300 nicht überlegen.

Ab NV40 oder gar beim G70 sieht das imho anders aus.

seahawk
2005-07-05, 07:50:04
also kommt der r520 ableger vor dem r520? oder wie hab ich das zu verstehen?


Zumindest würde ich mit keinem großen zeitlichen Abstand zwischen RV530 und R520 rechnen.

Diskutator
2005-07-05, 08:20:17
Zumindest würde ich mit keinem großen zeitlichen Abstand zwischen RV530 und R520 rechnen.
Das ist RICHTIG: RV515, RV530 und R520 werden ZEITNAH kommen!
Wobei ich NEUE Infos habe wonach ATI tatsächlich auch einen Produktlaunch in Betracht zieht, d.h. ähnliche Verfügbarkeit wie beim G70 am Launchtag!
Bin mal gespannt, ob das so hinhaut!

q@w
2005-07-05, 08:28:30
Wenn ihr schlau wart und falls ihr wirklich das Xenos-Design benutzt haben solltet, könntet ihr ja quasi jedes DIE irgendwie verhökern, bei dem nicht gerade die Steuerlogik oder der 2D-Teil kaputt ist. Hauptsache die Crossbars zwischen den Shader-ALUs sind flexibel genug.

Godmode
2005-07-05, 08:31:29
Wenn ich das jetzt beantworte, werden die NV-fans schon jetzt trommeln.


Das hast du jetzt aber schon indirekt getan!

Winter[Raven]
2005-07-05, 08:36:26
Wenn ich das jetzt beantworte, werden die NV-fans schon jetzt trommeln.

TROMMEL :ulol5:

Nein Spaß bei Seite ... werden die R5xx Low-Midrage Produkte in 0.9nm hergestellt oder soll da noch was aus der X-Archi werden in 0.11nm?

seahawk
2005-07-05, 09:04:29
Das ist RICHTIG: RV515, RV530 und R520 werden ZEITNAH kommen!
Wobei ich NEUE Infos habe wonach ATI tatsächlich auch einen Produktlaunch in Betracht zieht, d.h. ähnliche Verfügbarkeit wie beim G70 am Launchtag!
Bin mal gespannt, ob das so hinhaut!

Haben Sie ne Wahl, nach dem G70 Launch ? Eher nein.

Crushinator
2005-07-05, 10:59:40
Das jemand mal wieder mit Absicht Mist blubbert, genauso wie mit den angeblichen 6 oder 8 quads.
Er hat eigentlich nur von einer Überraschung gesprochen, und diese wird's wirklich geben, auch wenn sie anders ausfällt wie sie die meisten erwarten.

Botcruscher
2005-07-05, 11:31:03
Er hat eigentlich nur von einer Überraschung gesprochen, und diese wird's wirklich geben, auch wenn sie anders ausfällt wie sie die meisten erwarten.

Ihr meint doch nicht diesen 4quad SM2 +2quad SM3 Mist?

reunion
2005-07-05, 11:51:56
Ihr meint doch nicht diesen 4quad SM2 +2quad SM3 Mist?


Blödsinn.

Botcruscher
2005-07-05, 11:56:01
Blödsinn.

Der meinung bin ich ja auch, aber was sollte uns sonst noch überaschen?

Oder kommt er noch später. :biggrin:

reunion
2005-07-05, 12:00:40
Der meinung bin ich ja auch, aber was sollte uns sonst noch überaschen?

Oder kommt er noch später. :biggrin:

ATi kann praktisch alles als "Überraschung" verkaufen, und wenn es sich hierbei um ein minimalst verbessertes 3dc handelt. Die Aussage ist substanzlos.

q@w
2005-07-05, 12:30:20
Er hat eigentlich nur von einer Überraschung gesprochen, und diese wird's wirklich geben, auch wenn sie anders ausfällt wie sie die meisten erwarten.
Juhu - also doch direkt der R580?

*aufneuearchitekturfreu*

micki
2005-07-05, 12:30:30
Wenn durch die 10FPS mehr im Jahr mehrere (hundert-)Tausend Euro eingespart werden können oder eben dazugewonnen werden können, interessiert das mit absoluter Sicherheit. Auch wenn ich nicht viel Ahnung davon habe, erscheint mir das ganze ziemlich logisch.

Lieber geb ich ein paar Hundert Euro mehr für die Anschaffung aus und hab dadurch im Jahr vielleicht 50.000EUR mehr Gewinn, als das es andersrum ist.

wie wirkt sich ne fps von 60hz statt 50hz so auf's geld aus?

q@w
2005-07-05, 12:31:47
wie wirkt sich ne fps von 60hz statt 50hz so auf's geld aus?
FPS nicht, aber SPF. =)
Ich glaube, er hat's nur etwas überzogen darstellen wollen.

Coda
2005-07-05, 13:01:51
Juhu - also doch direkt der R580?

*aufneuearchitekturfreu*Wieso sollte R580 eine andere Architekur sein? Der Codename deutet doch eher auf einen R520 Refresh hin.

TheCounter
2005-07-05, 13:28:27
FPS nicht, aber SPF. =)
Ich glaube, er hat's nur etwas überzogen darstellen wollen.

Ja. Ich hätte es auch so ausdrücken können:

Wenn ein Filmstudio durch eine entsprechende Grafikkarte 1 oder 2 Filme mehr im Jahr rendern kann, dann dürfte der höhere Anschaffungspreis doch eigentlich eher im Hintergrund stehen. Natürlich gibt es nicht nur Filmstudios die Professionelle Karten verwenden sondern auch andere Firmen. Ich denk mal es kommt immer darauf an was man mit den Karten macht. Darum wird das jede Firma für sich entscheiden ob es ihnen Wert ist den höheren Anschaffungspreis zu zahlen oder nicht.

Aber das ist jetzt auch ziemlich OT, sorry :)

reunion
2005-07-05, 13:45:44
Wieso sollte R580 eine andere Architekur sein? Der Codename deutet doch eher auf einen R520 Refresh hin.

Es wird schon ziemlich lange gemunkelt, dass R580 deutliche verbesserungen bei der Shader-Performance bringen soll.

Coda
2005-07-05, 13:47:35
Sollte er auch. G70 hat ziemlich vorgelegt mit ~2x der Leistung einer R420 Pipeline.

ShadowXX
2005-07-05, 14:04:53
Ich glaube aber trotzdem nicht, das ATI jetzt gleich den r580 anstatt des r520 rausbringt.....vorziehen ja (im sinne das dieser schon Ende diesen/Anfang nächsten Jahres kommt), aber völliges canceln des r520 kann ich mir nicht vorstellen.

reunion
2005-07-05, 14:06:03
Sollte er auch. G70 hat ziemlich vorgelegt mit ~2x der Leistung einer R420 Pipeline.


RV515: 4-1-1-1
R520: 16-1-1-1
RV530: 4-1-3-2
R580: 16-1-3-1

SIMD channel / ROP / ALU / TMU

Davon gehen momentan zumindest die Leute aus, die etwas wissen sollten.

reunion
2005-07-05, 14:08:20
Ich glaube aber trotzdem nicht, das ATI jetzt gleich den r580 anstatt des r520 rausbringt.....vorziehen ja (im sinne das dieser schon Ende diesen/Anfang nächsten Jahres kommt), aber völliges canceln des r520 kann ich mir nicht vorstellen.


Wäre ich mir nichtmal so sicher, R580 hatte AFAIK ebenfalls bereits 2004 sein Tapeout, ATi wollte ihn aus irgendeinem Grund aber erst im Q4/05 bringen. Stichwort GDDR4 - diesen Plan könnte man aber zugunsten einer früheren Verfügbarkeit durchaus abändern.

BlackBirdSR
2005-07-05, 14:09:06
Es wird schon ziemlich lange gemunkelt, dass R580 deutliche verbesserungen bei der Shader-Performance bringen soll.

Wusste ATI nicht im Vorraus bereits, dass Nvidia ordentlich drauflegen wird um sich der X800XT etc zu entledigen?
Da frage ich mich, warum man nicht gleich die R520 so "breit" gebaut hat, sondern das mit einem Refresh erledigen muss?

ShadowXX
2005-07-05, 14:10:35
RV515: 4-1-1-1
R520: 16-1-1-1
RV530: 4-1-3-2
R580: 16-1-3-1

SIMD channel / ROP / ALU / TMU

Davon gehen momentan zumindest die Leute aus, die etwas wissen sollten.

Diese Liste kenne ich zwar auch, aber mir kam der Sprung von einer ALU auf drei ALUs immer etwas merkwürdig vor.....kommt aber vielleicht aich auf die Zählweise drauf an.

Am interessantesten finde ich übrigens die 2 TMUs beim RV530.....wäre ein 8x1 Design nicht sinniger? (speziell, da man dann aus kauptten r580igern noch RV530-Chips basteln könnte?)

Coda
2005-07-05, 14:11:59
Unterschiede der TMU Zahl in einer Serie sind eh sehr unwahrscheinlich, das macht ja ein ganz anderes Design nötig.

reunion
2005-07-05, 14:19:58
Wusste ATI nicht im Vorraus bereits, dass Nvidia ordentlich drauflegen wird um sich der X800XT etc zu entledigen?
Da frage ich mich, warum man nicht gleich die R520 so "breit" gebaut hat, sondern das mit einem Refresh erledigen muss?

Offensichtlich hat man G70 unterschätzt.
So ein Design wird ja nicht von heute auf morgen gemacht, als man von G70 erfuhr, war es vermutlich schon zu spät.

Winter[Raven]
2005-07-05, 14:25:17
RV515: 4-1-1-1
R520: 16-1-1-1
RV530: 4-1-3-2
R580: 16-1-3-1


Was haben wir beim G70?
24-1-2-1?

Hab mir echt die Archi noch nicht angeschaut, ausser den Benches...

Exxtreme
2005-07-05, 14:25:56
Unterschiede der TMU Zahl in einer Serie sind eh sehr unwahrscheinlich, das macht ja ein ganz anderes Design nötig.
Hat Nvidia bei der GF1 -> GF2 auch gemacht.

reunion
2005-07-05, 14:26:00
Diese Liste kenne ich zwar auch, aber mir kam der Sprung von einer ALU auf drei ALUs immer etwas merkwürdig vor.....kommt aber vielleicht aich auf die Zählweise drauf an.


R580 muss ja nicht gegen G70, sondern gegen diesen in 90nm bestehen. Deshalb erscheinen vorallem die 16 Pipes mit jeweils einer TMU etwas unterdimensioniert - besonders, da GDDR4 ja auch deutlich mehr Bandbreite freigeben wird.


Am interessantesten finde ich übrigens die 2 TMUs beim RV530.....wäre ein 8x1 Design nicht sinniger? (speziell, da man dann aus kauptten r580igern noch RV530-Chips basteln könnte?)

Ja, ziemlich unlogisch.

reunion
2005-07-05, 14:30:17
']Was haben wir beim G70?
24-1-2-1?



24-~0.7-2-1 ;)

Wobei eine "ATI-ALU" etwas effizienter ist IMHO.
Allerdings weiß man natürlich nicht, ob ATI wirklich drei vollwertige ALUs verbaut, bzw. ob diese Spekulationen überhaupt der Realität entsprechen.

Demirug
2005-07-05, 14:35:22
24-~0.7-2-1 ;)

Wobei eine "ATI-ALU" etwas effizienter ist IMHO.
Allerdings weiß man natürlich nicht, ob ATI wirklich drei vollwertige ALUs verbaut, bzw. ob diese Spekulationen überhaupt der Realität entsprechen.

Was kann den eine ATI ALU mehr als eine nVidia ALU wenn es um die Effizienz geht?

BTW: ATI verkauft den R420 schon als 4 ALU pro Pipe Chip.

reunion
2005-07-05, 14:42:37
Was kann den eine ATI ALU mehr als eine nVidia ALU wenn es um die Effizienz geht?



Keine Ahnung.
Wenn man sich allerdings ansieht, was ATi aus einer ALU pro Pipeline herrausholt und nV aus zwei, erscheint eine ATI-ALU effizienter.

Coda
2005-07-05, 14:43:18
Hat Nvidia bei der GF1 -> GF2 auch gemacht.Das war eher ein Bugfix.

Es hat noch nie eine Generation gegeben wo die "kleinen" Karten andere Pixelprozessoren hatten.