PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD gibt Rücktritt von Ex-Ati-Chef Orton bekannt


AnarchX
2007-07-10, 16:00:36
Wie AMD soeben in einer Mitteilung an die US-Börse bekanntgab, tritt Dave Orton als Vice Executive President des Chipriesen zurück. Orton kam am 25. Oktober 2006 im Zuge der Übernahme von Ati, dessen CEO er zu dem Zeitpunkt war, zu AMD. Davor war er Chef der Chip-Designer von Art-X, die von Ati übernommen wurden.
http://www.pcgameshardware.de/?article_id=605981

War ja abzusehen.

Gmax
2007-07-10, 16:52:26
Tjo, der ehemalige Ati Boss verdrückt sich... warum wohl? :rolleyes:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=1869&Itemid=1

AnarchX
2007-07-10, 16:58:59
Mal 3 Threads nach unten geschaut:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=371264
:wink:

mrt
2007-07-10, 16:59:19
Naja der druck auf ihn dürfte in letzter Zeit ziemlich groß geworden sein. Ich sehe das eher positiv für AMD. ;)
Zumal sein Posten seit der Übernamh eh umsonst ist ;)

Rogue
2007-07-10, 17:00:37
Seine Position ist wohl nach der Fusion (bzw. dem Schlucken von ATI) überflüssig geworden.

Im Prinzip ist er doch nur Hector Ruiz Laufbursche der die Zügel natürlich selbst in der Hand behält.
Ein dasein als "Marionetten-Boss" ist bestimmt nicht sonderlich angenehm.

Davon abgesehen möchte ich nicht wissen wieviel Kohle der im Monat kostet ;)

Avaox/Gast
2007-07-10, 17:04:53
Ein dasein als "Marionetten-Boss" ist bestimmt nicht sonderlich angenehm.

Ich denke jeder Boss ist eine Marionette, nur dem einen macht es Spass, dem anderen nicht.
Mal sehen, was er so machen wird. Vermutlich, bei einem schönen frischen Konsortium Starthilfe geben.

Gmax
2007-07-10, 17:07:18
Mal 3 Threads nach unten geschaut:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=371264
:wink:


Oh sh.., bitte schließen, sorry!

Gouvernator
2007-07-10, 17:08:51
Naja, die Ratten verlassen als erste das sinkende Schiff... Ist nicht die Ratte aber wenigstens ein Anzeichen dafür das das Schiff - AMD sinkt...

Interessant wohin der geht... INTEL, NVidia oder komplett was anderes...


Schließt den anderen thread.

Schroeder
2007-07-10, 17:11:21
merged :)

Hauwech
2007-07-10, 17:14:09
Imho ziemlich unwahrscheinlich das er zu Nvidia geht. Welche Funktion sollte er dort erfüllen? Als ATI noch selbstständig war hat er sich bestimmt an das Ich-Chef-du-nix gewöhnt und als "Arbeiter"? Neeee :D

Simon Moon
2007-07-10, 17:19:02
Imho ziemlich unwahrscheinlich das er zu Nvidia geht. Welche Funktion sollte er dort erfüllen? Als ATI noch selbstständig war hat er sich bestimmt an das Ich-Chef-du-nix gewöhnt und als "Arbeiter"? Neeee :D

Imo auch ziemlich unwahrscheinlich, dass er überhaupt zu nV gehen darf. Bei all den ATi Geheimnissen die der Mann mit sich trägt, wäre es blanker Wahnsinn, wenn sowas im Vertrag nicht geregelt worden wär.

Gouvernator
2007-07-10, 17:21:57
Imho ziemlich unwahrscheinlich das er zu Nvidia geht. Welche Funktion sollte er dort erfüllen? Als ATI noch selbstständig war hat er sich bestimmt an das Ich-Chef-du-nix gewöhnt und als "Arbeiter"? Neeee :D

Man muss sich zum Chef erstmal hocharbeiten. :biggrin: Dann macht die Einstellung "Ich Chef du Nix" Sinn.

Ich glaube auch nicht das er aus diesem Grund bei AMD abspringt. Vielmehr denke ich gingen ihm die ganzen (fehl)- Entscheidungen von seinem Oberboss "auf den Sack".

Spasstiger
2007-07-10, 17:22:32
Naja, die Ratten verlassen als erste das sinkende Schiff... Ist nicht die Ratte aber wenigstens ein Anzeichen dafür das das Schiff - AMD sinkt...
Ach, Blödsinn, der war einfach nur überflüssig bzw. sah für sich selbst keine Zukunft bei AMD mehr. Dass er auf einmal CEO von AMD werden könnte, ist ja sehr unwahrscheinlich.

Gouvernator
2007-07-10, 17:27:01
Ach, Blödsinn, der war einfach nur überflüssig bzw. sah für sich selbst keine Zukunft bei AMD mehr. Dass er auf einmal CEO von AMD werden könnte, ist ja sehr unwahrscheinlich.

Ja seine und ihre Philosophie waren inkompatibel... Man muss sich bloss den Schwachsinn ansehen was AMD sich erlaubt in Prozessorensparte mit dem Barcelona. Bis die erstmal soweit sind... kommt Intel schon mit der dritten Generation. ATI wäre als kleines privates Unternehmen sehr viel mutiger gewesen, das passt einfach nicht zum "seriösem" AMD Bild.

Gast
2007-07-10, 20:26:19
Ja seine und ihre Philosophie waren inkompatibel... Man muss sich bloss den Schwachsinn ansehen was AMD sich erlaubt in Prozessorensparte mit dem Barcelona. Bis die erstmal soweit sind... kommt Intel schon mit der dritten Generation. ATI wäre als kleines privates Unternehmen sehr viel mutiger gewesen, das passt einfach nicht zum "seriösem" AMD Bild.


Wenn du da mal nicht auf dem Holzweg bist. Ich glaube eher, dass der gedrängt wurde. AMD hat sich das Ganze nach der Übernahme von ATI sicher anders vorgestellt. Wetten dass die glaubten mit dem R600 Nvidia Paroli bieten zu können.
Der wusste um die Probleme mit R600, wird vor der Übernahme aber die Fresse gehalten und alles im besten Licht dargestellt haben. So hat er einen viel zu hohen Preis für sein marodes Unternehmen einfordern können.
ATI war und ist keine 5 Mrd. Dollar Wert. Das Unternehmen ist dafür nicht profitabel genug und die Probleme mit dem R600 kosten das vereinte Unternehmen jetzt noch zusätzlich Geld. So war das von AMD sicher nicht geplant. Wenn die vorher gewusst hätten was für eine Gurke das R6xx Design im Vergleich zur Konkurenz ist, hätten die höchstens die Hälfte für ATI gezahlt.

Das riecht jetzt eher nach Reinemachen und da wird noch der ein oder andere Kopf bei ATI rollen - jede Wette.

Gast
2007-07-10, 20:43:30
It is with mixed feelings that I am leaving AMD. I am very optimistic about AMD’s future. I believe strongly in the strategies that brought AMD and ATI together and the talented employees of the ‘new AMD’ who are committed to winning in the market by delivering the best possible solutions for customers.

StefanV
2007-07-10, 20:45:43
1. Link.
2. Welcher Dave?
Orton?

Gast
2007-07-10, 20:46:51
Dave Orton ist ehemaliger CEO und Präsident von ATI

Gast
2007-07-10, 20:47:49
1. Link.
2. Welcher Dave?
Orton?

http://www.computerbase.de/news/wirtschaft/unternehmen/amd/2007/juli/ehemaliger_ati-chef_dave_orton_amd/

NoWay
2007-07-10, 21:18:22
Das sind doch alles reine Spekulationen.

Warum glaubt ihr genau zu wissen warum er Schluss macht vielleicht will er auch Bäcker werden und hat keine Lust mehr auf seinen Beruf.
Also ich würde nicht zu voreilig Gerüchte in die Welt setzen.

Seid mir nicht böse aber ich verstehe nicht wie man immer so viel dazu dichten kann.

Mfg
NoWay

Spasstiger
2007-07-10, 21:25:48
Warum glaubt ihr genau zu wissen warum er Schluss macht vielleicht will er auch Bäcker werden und hat keine Lust mehr auf seinen Beruf.
Seine Position war doch nach der Übernahme durch AMD gar nicht mehr existent. Ist doch klar, dass man sich dann nach was Neuem umschaut.

NoWay
2007-07-10, 21:36:47
Du musst mich aber auch verstehen , dass es nicht fair ist einfach wilde Gerüchte in die Welt zu setzen und gleich vom Untergang von Amd zu sprechen.

Sterem
2007-07-10, 21:38:56
Ortorn hat doch damals alles kaputt gemacht seitdemm er bei ATIChef war.Dann gings nur Bergab mit ATI.Es ist sehr gut das er endlich weg ist.Vorher mit denn Asiaten als Chef war alles Besser.

StefanV
2007-07-10, 21:44:18
Asiaten denken idR langfristiger als 'westliche' Chefs.

Sieht man z.B. gut an Toyota, Honda und anderen, da wird heute was gemacht, was morgen oder übermorgen positive Auswirkungen haben.

'Westliche' denken nur von 12 bis Mittag und an die Rendite - stichwort künstliches Wachstum (wer sowas betreibt gehört wirklich bestraft!)...

Gast
2007-07-11, 00:03:50
Ortorn hat doch damals alles kaputt gemacht seitdemm er bei ATIChef war.Dann gings nur Bergab mit ATI.Es ist sehr gut das er endlich weg ist.Vorher mit denn Asiaten als Chef war alles Besser.
Naja also ganz so würde ich es nicht formulieren. Soweit ich weiss kam Orten von Artx. Ist ja wohl keine Frage, wie ATI die letzten Jahre dagestanden hätte ohne die ARTX Aquise. Sicherlich deutlich schlechter. Insofern ist Orten sicherlich auch daran beteiligt, dass ATI ab der R300 Serie bis Anfang R5xx Serie einen Auftrieb hatte.
Danach ging es allerdings nur noch bergab und R6xx setzt dem die Krone auf.

Insofern ist Orton auch für den Niedergang maßgeblich mitverantwortlich.
Jetzt aber zu sagen unter dem Asiaten war alles besser ist auch Mist. Unter dem spielte ATI in der 3D Ära eine Nebenrolle und war uninteresant.
Und wir wollen auch nicht vergessen dass der liebe Asiate sich nach besten Wissen und Gewissen bereicherte mit seinen Machenschaften.

Also der ist sicherlich kein Verlust für ATI gewesen.

Gast
2007-07-11, 11:10:21
Ortorn hat doch damals alles kaputt gemacht seitdemm er bei ATIChef war.Dann gings nur Bergab mit ATI.
Genau - der Riesenflop mit der Radeon 9700.

Gefundene Ironie darf behalten werden.

deekey777
2007-07-11, 11:16:51
Ortorn hat doch damals alles kaputt gemacht seitdemm er bei ATIChef war.Dann gings nur Bergab mit ATI.Es ist sehr gut das er endlich weg ist.Vorher mit denn Asiaten als Chef war alles Besser.
Na guten Morgen und Prost.

Dave Orton war nicht einfach der Scheffe, sondern er ist ein begnadeter Ingenieur. So einer wie er bleibt nicht lange arbeitslos, vielleicht landet er bei Intels Grafikchips-Sparte.

AnarchX
2007-07-11, 11:19:38
Genau - der Riesenflop mit der Radeon 9700.


Naja, ich glaube nicht dass Orton noch hier viel Einfluss hatte.;)
Aber bei dem was danach kam und hier zeigt sich eine gewisse Tendenz.

PHuV
2007-07-11, 11:32:58
Das war doch klar, ich kenne diese "Rücktritte" auch intern von anderen Firmen, sie sind nie so, wie es öffentlich angegeben wird. Der Schwächere muß seinen Posten räumen, wurde rausgekantet, wie auch immer. In diesen Positionen ist es immer ein Hauen und Stechen, selbst nach angeblichen "gleichberechtigten" Fusionen. Ich glaube es nicht, daß er freiwillig geht, sondern gegangen wurde.

Sterem
2007-07-11, 16:21:19
Genau - der Riesenflop mit der Radeon 9700.

Gefundene Ironie darf behalten werden.

Orton war damals noch garnicht bei ATI.Der Asiate (wie heist der überhaupt)War zur 9700 Zeiten noch Chef.Er hat die 9700/9800 erweckt und nicht Orton.

BlackBirdSR
2007-07-11, 16:49:05
Orton war damals noch garnicht bei ATI.Der Asiate (wie heist der überhaupt)War zur 9700 Zeiten noch Chef.Er hat die 9700/9800 erweckt und nicht Orton.

http://ati.amd.com/designpartners/media/bios/dorton.html

He joined ATI as President and COO a result of ATI’s acquisition of ArtX, Inc. in April 2000, where Mr. Orton had served as President & Chief Executive Officer.

Wann war R300? August 2002?
Genug Zeit um Mitzuwirken, denke ich.

ShadowXX
2007-07-11, 16:58:50
Orton war damals noch garnicht bei ATI.Der Asiate (wie heist der überhaupt)War zur 9700 Zeiten noch Chef.Er hat die 9700/9800 erweckt und nicht Orton.
Ohne Orton hätte es den r300 in der uns bekannten Form wahrscheinlich gar nicht gegeben....er war die Triebfeder hinter dem r300 (...one chip to rule them all.....;) )

Orton hat aus ATI erst das Unternehmen gemacht, welches ihr heute kennt (bzw. bis zum Merge kanntet).

AnarchX
2007-07-11, 17:07:06
Ohne Orton hätte es den r300 in der uns bekannten Form wahrscheinlich gar nicht gegeben....er war die Triebfeder hinter dem r300.


Sicher? AFAIK war doch R300 nur ein weiterentwickelter R200, bei dem alles richtig gemacht wurde und wo Orton vielleicht noch den Feinschliff gemacht hat, aber die Grundlagen wurden schon weit eher gelegt.

Alles wo Orton dann mehr Einfluss drauf hatte, wie R4xx, R5xx, R6xx war dann eher nicht mehr so berauschend und zeigt eine gewisse Abwärtstendenz.

ShadowXX
2007-07-11, 17:12:55
Sicher? AFAIK war doch R300 nur ein weiterentwickelter R200, bei dem alles richtig gemacht wurde und wo Orton vielleicht noch den Feinschliff gemacht hat, aber die Grundlagen wurden schon weit eher gelegt.

Alles wo Orton dann mehr Einfluss drauf hatte, wie R4xx, R5xx, R6xx war dann eher nicht mehr so berauschend und zeigt eine gewisse Abwärtstendenz.
Orten war derjenige der von seinen Ings gefordert hat, das der r300 der "Überchip" wird, als den wir Ihn heute kennen. Er wollte dies unbedingt (s.o. "One chip to rule them all").

Und wie oben BlackBirdSR schon er erwähnte: Orton kam 2000 zu ATI, der r300 kam erst Ende 2002.
Es gibt und gab auch immer noch mehr als genug gerüchte, das auch ArtX-Technologie mit in den r300 eingeflossen ist.
Und ja, es stecken durchaus Teile des r200 im r300....aber vieles ist auch neu.

Ohne Orten hättes es den r300 in der uns bekannten Form wohl nie gegeben.

Guck dir doch mal an, was ATI vor Orton war und was danach aus ATI würde als er das Ruder übernahm.

Coda
2007-07-11, 17:13:32
Orton hat dafür gesorgt, dass man auf Die-Space geschissen hat und das Ding als 8x1 rausgebracht hat in 150nm. Das war seine Anteilnahme an dem Projekt.

up¦²
2007-07-11, 17:15:33
Orton wird maßlos überschätzt - obendrein ist er eigentlich für den jetzigen Schlamassel verantwortlich - aber er wollte wohl nicht weiter zwischen Kalifornien (Job) und Toronto (Familie) pendeln? :wink:

ShadowXX
2007-07-11, 17:16:25
Orton hat dafür gesorgt, dass man auf Die-Space geschissen hat und das Ding als 8x1 rausgebracht hat in 150nm. Das war seine Anteilnahme an dem Projekt.
Ja...aber ohne Ihn wäre man dieses Risiko nie eingegangen und der r300 wäre nicht der Chip geworden den wir heute alle kennen.

Ich bleibe dabei, das ATI nicht das Unternehmen geworden wäre, was wir alle kannten, ohne Dave Orton an Bord.

paul.muad.dib
2007-07-15, 22:31:55
Alles wo Orton dann mehr Einfluss drauf hatte, wie R4xx, R5xx, R6xx war dann eher nicht mehr so berauschend und zeigt eine gewisse Abwärtstendenz.

Die Abwärtstendenz vor dem R600 sehe ich nicht. Gut R400 ist in der Versenkung verschwunden, aber R420 war doch sehr konkurrenzfähig und etwas vor dem NV40, R5xx deutlich besser als G7x. Ich glaube, durch die bescheidene Leistung des R600 verschiebt sich etwas die Wahrnehmung der vorherigen Generationen. Allerdings, hier haben sie wirklich Mist gebaut und Orton als CEO trägt dafür direkt oder indirekt die Verantwortung.

Andererseits, ohne Orton wäre heute keiner enttäuscht vom R600, weil keine von ATI was Besseres erwartet hätte.

Coda
2007-07-15, 22:35:32
Orton wird maßlos überschätzt
Das kannst du nicht beurteilen.

Ja...aber ohne Ihn wäre man dieses Risiko nie eingegangen und der r300 wäre nicht der Chip geworden den wir heute alle kennen.
So war das auch gemeint.

=Floi=
2007-07-15, 22:44:31
es war nicht orton der die erwartungen geschürt hat (seine interviews hat doch nur eine kleine fangemeinde wahrgenommen und geglaubt) sondern der R580
mit dem R600 erwartete man im grunde eine G80 GTX/Ultra ausgelegt für AA (mit AF ;) ) in hohen auflösungen
HD gaming in 1920X1200 also

reunion
2007-07-15, 22:55:46
Ohne Orton hätte es den r300 in der uns bekannten Form wahrscheinlich gar nicht gegeben....er war die Triebfeder hinter dem r300 (...one chip to rule them all.....;) )



Sagt wer? Wie hätte R300 denn sonst aussehen sollen? R300 war die logische Weiterentwicklung nach R200, der bereits ein sehr guter Chip war, allerdings an einigen Bugs krankte.

reunion
2007-07-15, 23:05:01
Es gibt und gab auch immer noch mehr als genug gerüchte, das auch ArtX-Technologie mit in den r300 eingeflossen ist.
Und ja, es stecken durchaus Teile des r200 im r300....aber vieles ist auch neu.


Nenne mir nur ein Beispiel von "ArtX-Technologie" in R300.


Guck dir doch mal an, was ATI vor Orton war und was danach aus ATI würde als er das Ruder übernahm.

Ich sehe hier absolut nicht Revolutionäres. In Wahrheit war ATi bereits seit R100 das, was sich erst ab R300 gezeigt hatte. Orton kam eben zur richtigen Zeit und dürfte so den Erfolg absahnen. Danach wurde er allerdings wohl etwas größenwahnsinnig.

Orton hat dafür gesorgt, dass man auf Die-Space geschissen hat und das Ding als 8x1 rausgebracht hat in 150nm. Das war seine Anteilnahme an dem Projekt.

Wäre R300 sonst 4x1 geworden nach 4x2 bei R200? Wohl kaum. Und wo wurde auf Die-Size geschissen? R300 war im Verhältnis zur Konkurrenz wesentlich wirtschaftlicher als R100 oder R200.

Coda
2007-07-15, 23:08:58
Nenne mir nur ein Beispiel von "ArtX-Technologie" in R300.
Mir liegt der Sourcecode leider nicht vor. Jeder Engineer der zum Team kommt wird auf jeden Fall seine Ideen beigetragen haben.

Sagt wer? Wie hätte R300 denn sonst aussehen sollen? R300 war die logische Weiterentwicklung nach R200, der bereits ein sehr guter Chip war, allerdings an einigen Bugs krankte.
Das ist kein Gerücht. R3xx wäre ohne Orton an der Spitze sicher dünner ausgefallen. Evtl. nur 128-Bit-SI o.ä.

Wäre R300 sonst 4x1 geworden nach 4x2 bei R200? Wohl kaum. Und wo wurde auf Die-Size geschissen? R300 war im Verhältnis zur Konkurrenz wesentlich wirtschaftlicher als R100 oder R200.
R3xx war zu seiner Zeit die größte jemals produzierte GPU, also auch der größte jemals produzierte Consumerchip. Wenn das nicht "auf Die-Size scheißen" ist, dann weiß ich auch nicht mehr.

reunion
2007-07-15, 23:16:55
Das ist kein Gerücht. R3xx wäre ohne Orton an der Spitze sicher dünner ausgefallen. Evtl. nur 128-Bit-SI o.ä.


Ohne Beweis ist es ein Gerücht. Es wurden viele Behauptungen aufgestellt, aber offiziell kam dazu nie was. Man brachte nach dem sensationellen Erfolg (der maßgeblich vom NV30-Desaster abhing) eben eine Galionsfigur, dem man diese Sensation zuschreiben könnte, und da kam Orton gerade recht.


R3xx war zu seiner Zeit die größte jemals produzierte GPU, also auch der größte jemals produzierte Consumerchip. Wenn das nicht "auf Die-Size scheißen" ist, dann weiß ich auch nicht mehr.

Das trifft auf faktisch jede neue Generation an GPUs zu. Bei R100 und R200 war es AFAIK ebenso. Heute sind wir mit G80 schon fast bei 500mm².

Coda
2007-07-15, 23:18:14
Das trifft auf jede neue Generation an GPUs zu. Bei R100 und R200 war es AFAIK ebenso. Heute sind wir mit G80 schon fast bei 500mm².
Och mensch reunion, stell dich doch nich so an. Bei R100 und R200 wurde auf jeden Fall mehr auf die Die-Size geschaut, das hab ich jetzt schon öfters gelesen in Aussagen von ATI selber.

Er hatte es auf jeden Fall zu verantworten einen 100 Mio-Transistor-Chip noch in 150nm zu produzieren. Das ist nicht so unriskant gewesen.

reunion
2007-07-15, 23:29:09
Och mensch reunion, stell dich doch nich so an. Bei R100 und R200 wurde auf jeden Fall mehr auf die Die-Size geschaut, das hab ich jetzt schon öfters gelesen in Aussagen von ATI selber.


Ich stell mich kein bisschen an. Sowohl R100 als auch R200 waren größer als die Konkurrenzprodukte von Nvidia, und das teilweise erheblich. Wo wurde da mehr auf die Die-Size geachtet?


Er hatte es auf jeden Fall zu verantworten einen 100 Mio-Transistor-Chip noch in 150nm zu produzieren. Das ist nicht so unriskant gewesen.

Seit wann ist es riskant einen großen Chip in einem ausgereiften Fertigungsprozess zu bringen? Wesentlich riskanter wäre wohl selbiges in 130nm gewesen, siehe NV30.

robbitop
2007-07-16, 10:17:33
Asiaten denken idR langfristiger als 'westliche' Chefs.

Sieht man z.B. gut an Toyota, Honda und anderen, da wird heute was gemacht, was morgen oder übermorgen positive Auswirkungen haben.

'Westliche' denken nur von 12 bis Mittag und an die Rendite - stichwort künstliches Wachstum (wer sowas betreibt gehört wirklich bestraft!)...
Das ist Rosinenpickerei. Schau dir mal VIA an, wie die abgenibbelt sind. Oder SiS oder XGI.
Ein Dave Kirk hat NVIDIA damals zu dem gemacht was sie heute sind. Das selbe gilt fuer Dave Orton. Die haben die Unternehmensphilosophie jeweils von innen umgekrempelt.

Naja, ich glaube nicht dass Orton noch hier viel Einfluss hatte.;)
Aber bei dem was danach kam und hier zeigt sich eine gewisse Tendenz.

Beim R300 war, wie ich schon oft betonte, nicht so viel zu machen, wie man denkt. Unter der Haube schlummerte ja das R200 Design, das seiner Zeit voraus war.
Orton hat vor allem die Unternehmensphilosophie umgekrempelt. Das betraf sicher auch die Skalierung des R300. Im Sinne von "bringt den Chip als Monster raus und puenktlich...was immer es kostet!"
Seit dem wurde ATI auch merklich aggressiver in allen Bereichen. (und anders gehts in dieser Branche nunmal nicht)

robbitop
2007-07-16, 10:27:48
Ich stell mich kein bisschen an. Sowohl R100 als auch R200 waren größer als die Konkurrenzprodukte von Nvidia, und das teilweise erheblich. Wo wurde da mehr auf die Die-Size geachtet?



Seit wann ist es riskant einen großen Chip in einem ausgereiften Fertigungsprozess zu bringen? Wesentlich riskanter wäre wohl selbiges in 130nm gewesen, siehe NV30.
TSMC hatte damals 96 Mio Transistoren fuer den 150nm HS vorgesehen, um die Yields auf wirtschaftlichem Level zu halten. Die 107 Mio Transistoren bei 150 nm waren schon eine mutige Entscheidung.
Wer weiss was ohne Orton passiert waere...ein kleinerer R300 oder ein R300 der erst mit 130 nm gekommen waere. (welcher ja erst so richtig reif erst Mitte 2003 war)

Beweise kann dir dafuer hier natuerlich niemand liefern. Jedoch gibt es viel IHV Prominenz bei B3D und auch bei uns hat AiL einiges fallen lassen, welches ja allesamt IHV nahe Quellen sind. Die besagten alle das gleiche.
Die Philosophie des Unternehmes drehte sich mit der R3xx Familie erheblich.

Glaub es oder nicht.

Piffan
2007-07-16, 10:31:07
Interessant, wie mal wieder spekuliert wird und alle gaaanz genau Bescheid wissen.

Wenn die Entscheidung zur Ausführung des R300 auf das Konto des Herrn Orton gehen, hat der Mann eine Menge getan für Ati. Der richtige Aufschwung/Durchbruch kam erst mit diesem Chip. Auf einen Schlag wurde der Gegner deklassiert und sogar der Letzte merkte: Hallo, ist NV allein doch nicht das Maß der Dinge?

Ich war auch einer von den Nvidia- Anhängern, ich wurde erst durch die Radeon 9700 zum "Fremdgehen" ermutigt. Danach habe ich umständehalber die R9700 ausquartiert und brauchte schnellen Ersatz, da kam die X800XT gerade recht. Zwar "nur" ein Refresh, aber wieder einer mit Schwung. Dieser Chip kann selbst heute noch überzeugen. Vom Preisleistungsverhältnis ist der X1950 derzeit das Maß der Dinge. Wie kann man da von einem Abstieg schwadronieren?
Seit dem R300 ist der Wertverfall bei den Spitzenprodukten von Ati recht gering, man kann sie über lange Zeiträume prima nutzen, bisher wurde kein "alter" Chip von Ati aufs Abstellgleis geschoben. Die relative Leistung sank nicht, sie wurde eher besser......

Der R600 ist leider nicht der Knaller, man hat wohl die Texturierungsleistung sträflich vernachlässigt und zu sehr auf DX10 geschielt. Der G80 ist zur Zeit klar besser, aber ob der in Zukunft genug Rechenkraft für DX10 hat, ist fraglich.
Einen Abstieg bei Ati? Dann wäre der NV30 der Untergang von NV gewesen.....nicht immer so dramatisieren. Die Masse ist mit preiswerten X1950- Derivaten bestens bedient. Die Freaks hier im Forum repräsentieren nicht die Masse der Spieler..

robbitop
2007-07-16, 10:43:43
Interessant, wie mal wieder spekuliert wird und alle gaaanz genau Bescheid wissen.
Wenn man ueber Jahre B3D und AiL zugehoert hat, die allesamt IHV nahe sind, ist das nunmal so. ;)


Seit dem R300 ist der Wertverfall bei den Spitzenprodukten von Ati recht gering, man kann sie über lange Zeiträume prima nutzen, bisher wurde kein "alter" Chip von Ati aufs Abstellgleis geschoben. Die relative Leistung sank nicht, sie wurde eher besser......
Ja das ist mir auch sehr positiv aufgefallen. Das war bei NV ja nie so. Sehr schnell wurde die alte Karte treiberseitig nicht mehr mit Optimierungen versorgt oder sogar kuenstlich ausgebremst. Ob das reines Ressourcenschonen im Treiberteam oder eine Unternehmensphilosophie ist, kann wohl keiner von uns wissen.
Ich hatte das gefuehl, dass die ATI Architekturen untereinander naeher beieinanderlagen und man deshalb die Optimierungen von Architektur 2 auch auf Architektur 1 uebertragen konnte. (bei R3xx bis R4xx ist es sogar ganz sicher so)


Der R600 ist leider nicht der Knaller, man hat wohl die Texturierungsleistung sträflich vernachlässigt und zu sehr auf DX10 geschielt. Der G80 ist zur Zeit klar besser, aber ob der in Zukunft genug Rechenkraft für DX10 hat, ist fraglich.
Da fehlt nicht nur die Texturleistung sondern auch die Leistung der Renderbackends.
ATI hatte auch nicht den Vorteil der custom transistors, der NV erlaubte wenige Recheneinheiten dank hohem Takt schnell laufen zu lassen. So hatte man noch Transistoren fuer TMUs und ROPs ueber. Das ist beim R600 nicht der Fall gewesen. (obwohl sie ueber eine Fast14-Lizenz verfuegen)

Einen Abstieg bei Ati? Dann wäre der NV30 der Untergang von NV gewesen.....nicht immer so dramatisieren. Die Masse ist mit preiswerten X1950- Derivaten bestens bedient. Die Freaks hier im Forum repräsentieren nicht die Masse der Spieler..
Ich fuerchte, dass es diesmal aber schlimmer aussieht. :(
NVIDIA hatte eine dickere Kapitaldecke als ATI (und verdiente mit der NV34 sogar richtig Asche). Ausserdem ist man mit AMD zusammen, die alle drei Monate eine dreistellige Millionensumme versaubeuteln. Ich sag nur Betonschuhe....
Hinzu kommt, dass Intel jetzt eine Grafiksparte zusammenzieht. Die haben so viel Kohle, dass sie den Grossteil des 3DLabs-Teams bekamen und schon einige Leute von ATI abwerben konnten. Wuerde mich nicht wundern, wenn immer mehr Leute bei ATI wegen der Situation (und evtl besseren Gehaeltern) nach und nach abspringen wuerden und zu Intel wechseln wuerden. (selbiges gilt fuer die S3 Leute)

ATI hat ein Team in Santa Clara und S3 eines in Fremont. Das sind nur ein paar Meilen bis zu Intel. Die Leute muessten also nichtmal umziehen.

StefanV
2007-07-16, 10:59:43
Das ist Rosinenpickerei. Schau dir mal VIA an, wie die abgenibbelt sind. Oder SiS oder XGI.
Ein Dave Kirk hat NVIDIA damals zu dem gemacht was sie heute sind. Das selbe gilt fuer Dave Orton. Die haben die Unternehmensphilosophie jeweils von innen umgekrempelt.
Oder Toyota, die Supra, Celica und MR2 ausm Programm geschmissen haben, genauso den Versuch eines sportlichen Kompakten -> Corolla TS und Corolla TS Kompressor.

Oder andersrum: die sind recht Risikoscheu und rechnen mit zu spitzem Bleistift...

aths
2007-07-16, 11:06:38
Wenn du da mal nicht auf dem Holzweg bist. Ich glaube eher, dass der gedrängt wurde. AMD hat sich das Ganze nach der Übernahme von ATI sicher anders vorgestellt. Wetten dass die glaubten mit dem R600 Nvidia Paroli bieten zu können.Können sie doch auch – nur eben nicht in allen Segmenten.

ATI war und ist keine 5 Mrd. Dollar Wert. Das Unternehmen ist dafür nicht profitabel genug und die Probleme mit dem R600 kosten das vereinte Unternehmen jetzt noch zusätzlich Geld. So war das von AMD sicher nicht geplant. Wenn die vorher gewusst hätten was für eine Gurke das R6xx Design im Vergleich zur Konkurenz ist, hätten die höchstens die Hälfte für ATI gezahlt.Der R600 ist kein Highend, aber auch keine Gurke. Ich vermute dass die eigentliche Auseinandersetzung ("Wer gewinnt den Markt für D3D10?") sowieso erst bei den jeweiligen Refreshes stattfindet. AMD hat noch Zeit. Die allerdings gilt es gut zu nutzen.


Orton hat dafür gesorgt, dass man auf Die-Space geschissen hat und das Ding als 8x1 rausgebracht hat in 150nm. Das war seine Anteilnahme an dem Projekt.Geht es auch ohne Vulgärausdrücke?

aths
2007-07-16, 11:23:40
Da fehlt nicht nur die Texturleistung sondern auch die Leistung der Renderbackends.
ATI hatte auch nicht den Vorteil der custom transistors, der NV erlaubte wenige Recheneinheiten dank hohem Takt schnell laufen zu lassen. So hatte man noch Transistoren fuer TMUs und ROPs ueber. Das ist beim R600 nicht der Fall gewesen. (obwohl sie ueber eine Fast14-Lizenz verfuegen) Was ist denn Fast14? Was ist ein "Custom Transistor"?

Bei NV hatte man vermutlich nicht noch Transistoren "über". Die 4 ROPs pro Speicherkanals und die TMU-Leistung dürfte von vornherein so geplant worden sein. Da kann man nicht wenn man merkt dass man die ALUs dünner kriegt als gedacht noch ein paar ROPs oder TMUs hinzufügen, denn die sitzen jeweils woanders. Die ALUs sind wahrscheinlich auch nicht sooo dünn – um eine Unit hoch takten zu können muss man manchmal sogar noch zusätzliche Transistoren dafür verwenden.

robbitop
2007-07-16, 11:31:46
Was ist denn Fast14? Was ist ein "Custom Transistor"?

Custom Transistors sind einfach nur Schaltungen, die statt einfach nur per Verilog erstellt worden, von Hand an das Floorplanning angepasst sind. So ist eine deutlich hoehere Taktfrequenz moeglich. (Effekte wie Selbstinduktion, Kapazitaet, Fremdinduktion koennen damit positiv beeinflusst werden, was die Signalflanken bei hohem Takt weniger verschleifen laesst)

Fast14 ist ein Patent von Intrinsity. Diese beschreibt ein Verfahren, wie man moeglichst effektiv ein Design nach o.g. Kriterien hinbekommt.
AMD, IBM und Intel machen das uebrigens seit Jahren.

Bei NV hatte man vermutlich nicht noch Transistoren "über". Die 4 ROPs pro Speicherkanals und die TMU-Leistung dürfte von vornherein so geplant worden sein. Da kann man nicht wenn man merkt dass man die ALUs dünner kriegt als gedacht noch ein paar ROPs oder TMUs hinzufügen, denn die sitzen jeweils woanders. Die ALUs sind wahrscheinlich auch nicht sooo dünn – um eine Unit hoch takten zu können muss man manchmal sogar noch zusätzliche Transistoren dafür verwenden.
Das war ja auch salopp formuliert und sollte keinesfalls ein nachtraegliches boosten der TMUs beschreiben. Jedoch machten die custom transistors es moeglich, bei der Designentscheidung die TMUs und die ROPs nicht zu vernachlaessig. 64 bi Samples und 192 Z-Compares pro Takt sprechen eine klare Sprache.

Coda
2007-07-16, 11:53:43
Das ist sind aber keine "custom transistors". Das ist maximal Gate-Level.

Gast
2007-07-16, 11:55:55
Nenne mir nur ein Beispiel von "ArtX-Technologie" in R300.
Lies doch mal die Programming Guides für den Gamecube-Chip Flipper (ArtX) und die für R200 und dann vergleiche beide mal mit dem R300...

robbitop
2007-07-16, 12:03:11
Das ist sind aber keine "custom transistors". Das ist maximal Gate-Level.

Bist du da sicher? Naja gut, die zich Gatter im Floorplanning zu optimieren wird auch genug Zeit gekostet haben.

Savay
2007-07-16, 12:05:18
ich weiß garnicht wieso manche so genüßlich auf nem produkt rumreiten das vielleicht nicht gaaaaaaaaaaaaanz so toll wie erwartet ist! nur wegen dem r600 über ATi zu lästern und gleich alles schlecht zu machen und kaputt zu reden finde ich kindisch :rolleyes:

naja aber wie auch immer die geschichte ausgeht...die fusion erzeugt jedenfalls frischen wind in dem konzern und das wird sich hoffentlich positiv sowohl auf die CPUs und GPUs von AMD niederschlagen

zu wünschen wäre es uns allen...denn das AMD sich aus beiden bereich zurückzieht wäre ja wohl das größte desaster seit langem :rolleyes:

es ist ja jetzt schon defakto unerträglich das man sich in zukunft im absoluten highend nur noch vor der frage steht NV+Intel oder AMD/ATi und kombinationen garnicht mehr infrage kommen :|

wenn es NUR noch NV, Intel & MS gäbe...na holla :mad:

Können sie doch auch – nur eben nicht in allen Segmenten.

(...)

ja und das leider nicht in den bereichen die die meisten auf den ersten blick wahrnehmen. spiele mit HDR rendering liegen dem R600 z.B. mehr als dem G80...nur gibts davon noch nicht allzuviele die das auch mit komplexen shadern kombinieren!

ich weiß ich weiß das wird schon wieder großes gemecker geben aber die NV chips haben meist ein paar dinge gemein:

- sie sind super zum benchmarken geeignet
- sie haben tolle features...die man nur zu lebzeiten kaum nutzen kann
- ihr leistungsverfall ist tendenziell deutlich größer als bei der konkurrenz#

NV designed die GPUs meist sehr marketing freundlich, kombiniert mit einem aggressiverem marketing ist die PR effizienz bei der marke einfach deutlich höher. beim release zeigen deren designs halt selten schwächen (NV30 aussen vor...wobei die schwäche des NV30 eher in der stärke des R300 begründet war. ähnlich wie heute beim R600 vs. G80)...das lässt sich gut nutzen verliert aber mit der zeit auch an relevanz...nur das es DANN eben keiner mehr bemerkt. :cool: der PC markt ist halt schnelllebig und oberflächlich ;)

Gast
2007-07-16, 12:19:07
Custom Transistors sind einfach nur Schaltungen, die statt einfach nur per Verilog erstellt worden, von Hand an das Floorplanning angepasst sind. So ist eine deutlich hoehere Taktfrequenz moeglich. (Effekte wie Selbstinduktion, Kapazitaet, Fremdinduktion koennen damit positiv beeinflusst werden, was die Signalflanken bei hohem Takt weniger verschleifen laesst)


Immer dieser halbschlaue Quark. Als ob R600 keine "Custom Transistors" hätte.


Fast14 ist ein Patent von Intrinsity. Diese beschreibt ein Verfahren, wie man moeglichst effektiv ein Design nach o.g. Kriterien hinbekommt.
AMD, IBM und Intel machen das uebrigens seit Jahren.


Wir aber bei R600 definitiv nivht eingesetzt.

robbitop
2007-07-16, 12:28:00
Immer dieser halbschlaue Quark. Als ob R600 keine "Custom Transistors" hätte.

R600 hat sogar (wie jeder andere ASICs dieser Branche) viele handplatzierte Transistoren. Das meinte ich damit jedoch nicht. Das war ein salopper Begriff, der natuerlich weitlaeufig ist. Woerter (und damit Termini) sind Schall und Rauch ;)


Wir aber bei R600 definitiv nivht eingesetzt.

Eben.

Warum bist du eigentlich ausgeloggt reunion?

Gast
2007-07-16, 12:38:15
TSMC hatte damals 96 Mio Transistoren fuer den 150nm HS vorgesehen, um die Yields auf wirtschaftlichem Level zu halten. Die 107 Mio Transistoren bei 150 nm waren schon eine mutige Entscheidung.
Wer weiss was ohne Orton passiert waere...ein kleinerer R300 oder ein R300 der erst mit 130 nm gekommen waere. (welcher ja erst so richtig reif erst Mitte 2003 war)


Was war daran bitte mutig? NV30 hatte AFAIK 130mio Transistoren in 130nm. R300 war im Verhältnis dazu mit 107mio Transistoren relativ "leicht", noch dazu in 150nm. Da ging man mit R100 und R200 wesentlich mehr Risiken ein. Und wie hätte R300 auch sonst aussehen sollen? Das war die logische konsequnez eines starken aber fehlerhaften R200.

IMHO wird hier viel zu viel hineininterpretiert. Wie schon gesagt, Orton kam eben zum richtigen Zeitpunkt, um den Erfolg abzusahnen, obwohl zu diesem Zeitpunkt wo schon alle wichtigen Entscheidungen was den R300 betrifft längst getroffen waren.


Beweise kann dir dafuer hier natuerlich niemand liefern. Jedoch gibt es viel IHV Prominenz bei B3D und auch bei uns hat AiL einiges fallen lassen, welches ja allesamt IHV nahe Quellen sind. Die besagten alle das gleiche.
Die Philosophie des Unternehmes drehte sich mit der R3xx Familie erheblich.

Glaub es oder nicht.

Wie schon gesagt, ich sehe keine Philosophiewechsel. Der kam schon mit R100, als sich ATi entschieden hatte, ernsthaft um die Krone zu konkurrieren. Sowohl R100 als auch R200 waren deutlich transistorenintensiver als NV10/NV20. Beide waren auch sehr gute Chips, die unterschätzt wurden und wohl unter einigen Bugs, fehlerhaften Treibern und vorallem mangelnder berücksichtigung der Spieleentwickler litten. R300 war nichts weiter als die logische Konsequenz aus R200, bei welchem ATi eben das Glück hatte, dass nV mächtig ins Klo gegriffen hatte mit NV30.

reunion

Gast
2007-07-16, 12:39:30
Warum bist du eigentlich ausgeloggt reunion?

Weil das nicht mein PC ist, und ich hier keinen "Müll" hinterlassen will.

Gast
2007-07-16, 12:41:23
ja und das leider nicht in den bereichen die die meisten auf den ersten blick wahrnehmen. spiele mit HDR rendering liegen dem R600 z.B. mehr als dem G80...nur gibts davon noch nicht allzuviele die das auch mit komplexen shadern kombinieren!
Genau, besonders mit AA/AF:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/22/#abschnitt_oblivion

Gast
2007-07-16, 12:45:54
Was war daran bitte mutig?
Mutig war, die Transistorzahl bei gleichem Prozess gegenüber früheren Chips einfach mal zu verdoppeln. Wäre NV3x nicht so danebengegangen, wäre die Wirtschaftlichkeit für den R300 und damit Atis Profitabilität ziemlich gesunken.

LovesuckZ
2007-07-16, 12:55:31
ja und das leider nicht in den bereichen die die meisten auf den ersten blick wahrnehmen. spiele mit HDR rendering liegen dem R600 z.B. mehr als dem G80...nur gibts davon noch nicht allzuviele die das auch mit komplexen shadern kombinieren!

Lügen werden nicht wahrer, wenn man sie immer wiederholt.
HDR-R ist kein Vorteil des R600 gegenüber dem G80.

beim release zeigen deren designs halt selten schwächen (NV30 aussen vor...wobei die schwäche des NV30 eher in der stärke des R300 begründet war. ähnlich wie heute beim R600 vs. G80)...das lässt sich gut nutzen verliert aber mit der zeit auch an relevanz...nur das es DANN eben keiner mehr bemerkt. :cool: der PC markt ist halt schnelllebig und oberflächlich ;)

Ich sehe beim r600 mehr Schwächen als Stärken, die die Karte besser für die Zukunft rüstet als den G80.
Aber du kannst uns gerne erleuchten, wo denn der r600 in Zukunft besser dastünde.

robbitop
2007-07-16, 13:02:12
Weil das nicht mein PC ist, und ich hier keinen "Müll" hinterlassen will.
Dennoch bitte ich darum, in Zukunft im Gast-Zustand den Namen zu hinterlassen. (reunion@ohne keks oder so)
Anonymes Posten von Membern ist hier nicht gern gesehen.

R300 war im Verhältnis dazu mit 107mio Transistoren relativ "leicht", noch dazu in 150nm. Da ging man mit R100 und R200 wesentlich mehr Risiken ein. Und wie hätte R300 auch sonst aussehen sollen? Das war die logische konsequnez eines starken aber fehlerhaften R200.
Fuer den 150 nm Prozess waren 107 Mio Transistoren zu dem Zeitpunkt sehr mutig.

R300 haette auch in anderne Faccetten erscheinen koennen. Als 4x2 Design oder mit nur einem 128 Bit SI.
Das Teil war damals in der Produktion teuer und es ging Gott sei dank alles mit dem Prozess gut.

Natuerlich war das 130nm lowk Wagnis mit dem NV30 auch verdammt mutig. Jedoch war NV schon lange so agressiv.

Savay
2007-07-16, 13:11:39
Lügen werden nicht wahrer, wenn man sie immer wiederholt.
HDR-R ist kein Vorteil des R600 gegenüber dem G80.

Ich sehe beim r600 mehr Schwächen als Stärken, die die Karte besser für die Zukunft rüstet als den G80.
Aber du kannst uns gerne erleuchten, wo denn der r600 in Zukunft besser dastünde.

ach jetzt lüge ich also? jetzt wirds langsam unverschämt und MEHR als nur einfach dreist :mad:

http://www.xbitlabs.com/articles/video/display/xfx-gf8800ultra-extreme.html

das zieht sich vom 3dmark über R6:Vegas bis zu den HDR benches in jedem fucking review durch. über AA&AF settings habe ich nebenher nicht eine silbe fallen lassen

ich hab echt den eindruck in den foren hier wollen einige auf teufel komm raus irgendwas schlecht machen und kaputt reden.
ich hab wirklich keinen plan warum manche so versessen darauf sind?! oh euch passt nicht das es nen 2. IHV neben NV gibt oder wie darf man das verstehen? :|

NV baut super GPUs...ja fein...wer bestreitet das? NV hat auch nen besseres marketing...das ist doch in der heutigen welt nen kompliment oder etwa nicht?! :rolleyes:
nur weil NV grad besonders gut in den allgemeingültigen und höchst anerkannten (uiuiui 3Dc approved) benches dasteht muss man aber nicht zwanghaft einen kreuzzug anführen um alles andere kaputt zu reden.

kaum redet man mal davon das ne münze mehr als nur 2 seiten hat kommen gleich wieder welche aus irgendwelchen ecken angekrochen um gleich wieder irgendwelche benches zu zitieren die SOWIESO jeder schon in x-facher ausführung kennt...wir wissen ALLE wie die benchmarks aussehen also verschont mich damit mir beweisen zu wollen wie beschissen der r600 doch eigentlich ist...ja schämen sollte man sich wenn man nur dran denkt sich einen zu zulegen! pfui AMD ab in die ecke mit dir :rolleyes:

ich glaube langsam manche hier haben zu lange in der sonne gesessen!

Coda
2007-07-16, 13:11:56
Bist du da sicher?
Ja, da bin ich mir absolut sicher. Man bekommt von der Foundry als untersten Building-Block die CMOS-Gatter und da fummelt sicher keiner von nVIDIA dran rum.

Immer dieser halbschlaue Quark. Als ob R600 keine "Custom Transistors" hätte.
Wenn ATI handoptimierte Schaltungen verwendet hätte, hätten wir was davon gehört. Ich sehe auf jeden Fall keine doppelt so hoch getaktete Clockdomain in R6xx.

Apropos war das erste G8x-Design ohne die Dinger und wurde im Simulator einfach viel zu heiß, deshalb hat man das überhaupt erst gemacht.

das zieht sich vom 3dmark über R6:Vegas bis zu den HDR benches in jedem fucking review durch. über AA&AF settings habe ich nebenher nicht eine silbe fallen lassen
Er hat aber recht. Schau dir mal Stalker an. Ein deferred shader ist unglaublich bandbreitenlastig und verwendet einige FP16-Rendertargets um die Daten zu speichern wie HD-Rendering auch. Ich sehe da keinen Vorteil für R600.

Auch bei Farcry ist die 2900XT mit HDR nicht auf einmal schneller.

LovesuckZ
2007-07-16, 13:21:31
ach jetzt lüge ich also? jetzt wirds langsam unverschämt und MEHR als nur einfach dreist :mad:
http://www.xbitlabs.com/articles/video/display/xfx-gf8800ultra-extreme.html
das zieht sich vom 3dmark über R6:Vegas bis zu den HDR benches in jedem fucking review durch. über AA&AF settings habe ich nebenher nicht eine silbe fallen lassen

Hast du dir auch mal die HDR Werte der Spiele angesehen? Farcry? TES:Oblivion, CoJ, Ghost Recon? In keinem dieser beiden Spiele kann die Karte mit der GTX mithalten.
Nur weil die Karte in R6:Vegas schnell ist, muss dies nicht wegem dem HDR-L sein. R6:Vegas z.B verlangt eine hohe Rechenleistung und davon hat die 2900XT mehr als genug.


ich hab echt den eindruck in den foren hier wollen einige auf teufel komm raus irgendwas schlecht machen und kaputt reden.
ich hab wirklich keinen plan warum manche so versessen darauf sind?! oh euch passt nicht das es nen 2. IHV neben NV gibt oder wie darf man das verstehen? :|

Du bist derjenige seit kurzem, der hier NV Karten niedermacht und ATI/AMD Karten hervorhebt.


kaum redet man mal davon das ne münze mehr als nur 2 seiten hat kommen gleich wieder welche aus irgendwelchen ecken angekrochen um gleich wieder irgendwelche benches zu zitieren die SOWIESO jeder schon in x-facher ausführung kennt...wir wissen ALLE wie die benchmarks aussehen also verschont mich damit mir beweisen zu wollen wie beschissen der r600 doch eigentlich ist...ja schämen sollte man sich wenn man nur dran denkt sich einen zu zulegen! pfui AMD ab in die ecke mit dir :rolleyes:

Ähm, du weißt schon, dass du mit "irgendwelchen Benches" gekommen bist? :rolleyes:

Gast
2007-07-16, 13:27:37
ach jetzt lüge ich also? jetzt wirds langsam unverschämt und MEHR als nur einfach dreist :mad:
http://www.xbitlabs.com/articles/video/display/xfx-gf8800ultra-extreme.html
http://www.xbitlabs.com/images/video/xfx-gf8800ultra-extreme/stalker_hdr.gif



das zieht sich vom 3dmark über R6:Vegas bis zu den HDR benches in jedem fucking review durch. über AA&AF settings habe ich nebenher nicht eine silbe fallen lassen
Tut es eben nicht. Und eine Karte wie die HD2900 XT mit der Bandbreite ohne AA und AF zu betreiben ist eine Beleidigung an die Chip-Designer! ;)

Savay
2007-07-16, 13:36:14
Hast du dir auch mal die HDR Werte der Spiele angesehen? Farcry? TES:Oblivion, CoJ, Ghost Recon? In keinem dieser beiden Spiele kann die Karte mit der GTX mithalten.
Nur weil die Karte in R6:Vegas schnell ist, muss dies nicht wegem dem HDR-L sein. R6:Vegas z.B verlangt eine hohe Rechenleistung und davon hat die 2900XT mehr als genug.

die aussage "HDR liegt dem r600 mehr" != "R600 ist schneller als G80"


Du bist derjenige seit kurzem, der hier NV Karten niedermacht und ATI/AMD Karten hervorhebt.

ich mache keine NV karten "nieder"...du bist wohl etwas arg überempfindlich was das angeht oder wie? :| ich hätte selbst noch meine NV40 wäre die nicht abgeraucht als komm mal aufn teppich


Ähm, du weißt schon, dass du mit "irgendwelchen Benches" gekommen bist? :rolleyes:

schön...aber ich spreche von tendenzen...nicht von unumstößlichen tatsachen.
kaum sage ich "hey es ist nicht alles so schlecht wie es hier dargestellt wird" kommt aus irgend einer ecke wer angeschossen und meint mir mit irgendwelchen benches wieder das gegenteil beweisen zu müssen...was stimmt an der situation nicht...sag es mir

hab ich UNRECHT und LÜGE ich wenn ich von trendenzen spreche die sich in gewissen benchmarks zeigen?! :mad: nun wenn das hier in diesen foren tendenziell unerwünscht ist...bitte sehr. dann lasse ich das bleiben! es hat schon seinen grund warum ich vor jahren aufgehört habe hier zu posten...streng genommen hat sich hier nichts getan...

dann kann ich genauso gut auf "euch" verzichten und ihr sehr gerne auf mich da sind wir alle besser bedient! :P

so long...sers

Gast
2007-07-16, 13:38:57
hab ich UNRECHT und LÜGE ich wenn ich von trendenzen spreche die sich in gewissen benchmarks zeigen?!
Nein, absolut nicht. Nur ist eine Tendenz etwas, was sich durch mehrere Indizien abzeichnet, nicht etwas, was man suchen muss, wie die Nadel im Heuhaufen.

deekey777
2007-07-16, 13:49:27
...
Er hat aber recht. Schau dir mal Stalker an. Ein deferred shader ist unglaublich bandbreitenlastig und verwendet einige FP16-Rendertargets um die Daten zu speichern wie HD-Rendering auch. Ich sehe da keinen Vorteil für R600.

Auch bei Farcry ist die 2900XT mit HDR nicht auf einmal schneller.

Es geht da ein Gerücht um die Welt, dass STALKER iVm einer HD2900+Schatten die CPU unverhältnismäßig hoch belastet. Hinzu kommt, dass die dynamische Belechtung per se schon die CPU-Last erhöhen soll.

Gast
2007-07-16, 14:00:51
Dennoch bitte ich darum, in Zukunft im Gast-Zustand den Namen zu hinterlassen. (reunion@ohne keks oder so)
Anonymes Posten von Membern ist hier nicht gern gesehen.


Natürlich, normalerweise mache ich das auch so (sonst würdest du die IP auch gar nicht kennen), nur habe ich es hinten vergessen.

Gast
2007-07-16, 14:32:10
Mutig war, die Transistorzahl bei gleichem Prozess gegenüber früheren Chips einfach mal zu verdoppeln. Wäre NV3x nicht so danebengegangen, wäre die Wirtschaftlichkeit für den R300 und damit Atis Profitabilität ziemlich gesunken.

Auch das gabs schon. Bei G80 hat nV ja auch nichts andertes gemacht, und da hat auch niemand von Mut gesprochen - warum auch? Einen großen Chip in einem bekannten und ausgereiften Fertigungsprozess zu fertigen ist wohl weit weniger riskant als dies bei einem nagelneuen Prozess zu riskieren. Nicht ohne Grund fertigt bsw. Intel die Itanium-Chips in älteren, erprobten Fertigungsprozessen mit wahnwitziger Die-Size.

Der Grund für den Aufschrei war schlicht und einfach, dass ATi von fast allen unterschätzt wurde. Niemand traute ihnen zu, mehr als die zweite Geige zu spielen. Als schön langsam die ersten Daten durchsickerten, glaubte niemand an das 256-bit SI oder über 300Mhz Chiptakt in 150nm. Eigentlich hätte man es nach R100 und R200 IMHO besser wissen müssen. Selbst nV hatte wohl nicht damit gerechnet, dass auch ATi mal alles aufgehen kann, und brachte nur einen leicht aufgewärmten NV25 in Form des NV30 mit SM2a (das dank Pflicht für FP-Genauigkeit kaum zu gebrauchen war). Dieser setzte weiterhin auf eine 4x2-Architektur und ein 128-bit SI. Nachträglich wurde der Chip zwar noch brutal hochgetaktet, aber das hat auch nicht mehr geholfen.

reunion

Gast
2007-07-16, 14:45:45
Auch das gabs schon. Bei G80 hat nV ja auch nichts andertes gemacht, und da hat auch niemand von Mut gesprochen - warum auch?
Ein "das gab's schon" mit einem fünf Jahre später erschienenen CHip zu begründen ist sehr... kreativ. :)


Einen großen Chip in einem bekannten und ausgereiften Fertigungsprozess zu fertigen ist wohl weit weniger riskant als dies bei einem nagelneuen Prozess zu riskieren. Nicht ohne Grund fertigt bsw. Intel die Itanium-Chips in älteren, erprobten Fertigungsprozessen mit wahnwitziger Die-Size.
Im Itanium-Falle solltest du den ASP nicht außer Acht lassen - auch wenn ich nicht belegen kann, dass das der ausschlaggebende Faktor ist. Ich denke aber, in Preisregionen des Montecito spielen 50 oder 100 Dollar Differenz in den Fertigungskosten weniger eine Rolle, als in einem Segment, wo der Preiskampf eigentlich tobt.


Der Grund für den Aufschrei war schlicht und einfach, dass ATi von fast allen unterschätzt wurde. Niemand traute ihnen zu, mehr als die zweite Geige zu spielen. Als schön langsam die ersten Daten durchsickerten, glaubte niemand an das 256-bit SI oder über 300Mhz Chiptakt in 150nm. Eigentlich hätte man es nach R100 und R200 IMHO besser wissen müssen.
Gerade nach R100 und R200 eher nicht. Natürlich wurde Ati der R300 in der Form nicht zugetraut - gerade wegen der traurigen Geschichte und den Pannen besonders beim R200.


Selbst nV hatte wohl nicht damit gerechnet, dass auch ATi mal alles aufgehen kann, und brachte nur einen leicht aufgewärmten NV25 in Form des NV30 mit SM2a (das dank Pflicht für FP-Genauigkeit kaum zu gebrauchen war). Dieser setzte weiterhin auf eine 4x2-Architektur und ein 128-bit SI. Nachträglich wurde der Chip zwar noch brutal hochgetaktet, aber das hat auch nicht mehr geholfen.
Tja, so kann's gehen, wenn man sich
[ ] verschätzt
[ ] mit MS anlegt
[ ] bei der Konkurrenz alles nach Plan läuft, bei einem selbst aber nicht.

Das Speicherinterface war beim NV30 allerdings das am wenigsten mißlungene Feature, wie später der NV35 bewies.

Mancko
2007-07-16, 15:03:34
Können sie doch auch – nur eben nicht in allen Segmenten.


Sie können es so gut wie gar nicht. Die Preise ihrer Produkte sind im Sinkflug bzw. erst gar nicht auf einem adäquaten Level eingestiegen und somit wird dabei am Ende auch kaum ein Dollar übrig bleiben.
Die kommenden Quartale werden es zeigen wie weit Anspruch und Realität bei ATI auseinander liegen. Aber das ist ja nichts neues. War ja in den letzten 1,5 Jahren fast immer so - nur da gab es noch kein AMD Management.
Die haben sicherlich genug Probleme in der CPU Sparte. Eine zusätzliche finanzielle Belastung aus der GPU Sparte wollen die sicher nicht haben.
Wenn das so weitergeht wird ATI sich aus dem Discrete GPU Markt verabschieden - zumindest aus dem High End und Performance Sektor. AMD hat sicherlich keine Lust hier Millionen reinzubuttern um dann so eine Pleite wie die aktuelle zu erleben.

Gast
2007-07-16, 15:54:48
Der Grund für den Aufschrei war schlicht und einfach, dass ATi von fast allen unterschätzt wurde. Niemand traute ihnen zu, mehr als die zweite Geige zu spielen. Als schön langsam die ersten Daten durchsickerten, glaubte niemand an das 256-bit SI oder über 300Mhz Chiptakt in 150nm. Eigentlich hätte man es nach R100 und R200 IMHO besser wissen müssen. Selbst nV hatte wohl nicht damit gerechnet, dass auch ATi mal alles aufgehen kann, und brachte nur einen leicht aufgewärmten NV25 in Form des NV30 mit SM2a (das dank Pflicht für FP-Genauigkeit kaum zu gebrauchen war). Dieser setzte weiterhin auf eine 4x2-Architektur und ein 128-bit SI. Nachträglich wurde der Chip zwar noch brutal hochgetaktet, aber das hat auch nicht mehr geholfen.

reunion

Die alte Geschichte von nV sollten wir doch im Keller lassen, denn die DX9 Spec war ja nicht immer fest in Stein gemeißelt und eventuelle Gerüchte bzgl. Schützenhilfe von MS für ATI lassen wir auch außen vor...

Fakt is das mit dem R300 und Orton als CEO der Ton bei ATI härter wurde, die Treiber für die älteren Chips vor R300 waren doch größtenteils grottigst. Nur in Sachen Videobeschleunigung war ATI immer gut, beim rest eher mau. Auch die Produktvielfalt hat mit dem R300 erst richtig angefangen.

Aquaschaf
2007-07-16, 22:00:56
Es geht da ein Gerücht um die Welt, dass STALKER iVm einer HD2900+Schatten die CPU unverhältnismäßig hoch belastet.

Das verstehe ich aber nicht. Warum soll die CPU-Belastung in Verbindung mit einer bestimmten Grafikkarte anders sein? Und Stalker benutzt doch Shadowmapping(?), das sollte eher weniger zu CPU-Last führen.

aths
2007-07-17, 13:40:03
Sie können es so gut wie gar nicht. Die Preise ihrer Produkte sind im Sinkflug bzw. erst gar nicht auf einem adäquaten Level eingestiegen und somit wird dabei am Ende auch kaum ein Dollar übrig bleiben.
Die kommenden Quartale werden es zeigen wie weit Anspruch und Realität bei ATI auseinander liegen. Aber das ist ja nichts neues. War ja in den letzten 1,5 Jahren fast immer so - nur da gab es noch kein AMD Management.
Die haben sicherlich genug Probleme in der CPU Sparte. Eine zusätzliche finanzielle Belastung aus der GPU Sparte wollen die sicher nicht haben.
Wenn das so weitergeht wird ATI sich aus dem Discrete GPU Markt verabschieden - zumindest aus dem High End und Performance Sektor. AMD hat sicherlich keine Lust hier Millionen reinzubuttern um dann so eine Pleite wie die aktuelle zu erleben.So schnell schießen die Preußen nicht. Zumal Nvidia die Lage im Moment offenbar nicht für einen Preiskampf nutzt um AMD auf dem GPU-Markt zu verdrängen.

Gast
2007-07-17, 19:38:58
So schnell schießen die Preußen nicht. Zumal Nvidia die Lage im Moment offenbar nicht für einen Preiskampf nutzt um AMD auf dem GPU-Markt zu verdrängen.

Brauchen sie auch gar nicht. AMD schreibt auch so schon sowohl in der GPU wie auch der CPU Sparte rot.
Wenn das Geld knapp wird, kannst du drauf wetten dass HIgh End und Performance GPUs zu erst dran glauben dürfen in AMDs Zukunftsplänen.

Die brauchen im Grunde genommen "nur" leistungsfähige CPUs und eine Plattform aus Chipsätzen/IGP's aus dem eigenen Hause. Alles andere ist für die Nebengeschäft, dass man auch schnell wieder los werden möchte, wenns nicht läuft. Sowas nennt man dann im Businessdeutsch "Konzentration auf das Kerngeschäft". Ist bisher schon in jedem größeren Unternehmen der Fall gewesen.

Gast
2007-07-17, 20:47:36
So schnell schießen die Preußen nicht. Zumal Nvidia die Lage im Moment offenbar nicht für einen Preiskampf nutzt um AMD auf dem GPU-Markt zu verdrängen.

nVidia hat sei langem schon keinem Preiskrieg mehr angefangen. Sie wissen selbst, dass sich damit nur selbst verletzen.

laser114
2007-07-17, 20:53:42
NVIDIA dürfte auch erstens nicht die finanziellen Stärken wie Intel haben und zweitens stellt sich die Situation nach der Übernahme von AMD anders da: Lizenzen für Chipsätze etc. will man ja sicher nicht gefährden. Und da soll keiner behaupten, in Verhandlungen spielt die indirekte Preisabsprache keine Rolle - von der ja auch NVIDIA profitiert. ;)

Gast
2007-07-17, 20:55:49
NVIDIA dürfte auch erstens nicht die finanziellen Stärken wie Intel haben und zweitens stellt sich die Situation nach der Übernahme von AMD anders da: Lizenzen für Chipsätze etc. will man ja sicher nicht gefährden. Und da soll keiner behaupten, in Verhandlungen spielt die indirekte Preisabsprache keine Rolle - von der ja auch NVIDIA profitiert. ;)

nVidia hat auch in Zeiten der FX keinen Preiskampf angefangen. Sie wissen, dass ein Preiskampf beide Seiten schaden wird. Wahrscheinlich würden sie eher weniger Karten verkaufen als sich die einzelnen Preissegmente zerstören.
Man sieht ja sehr schön im CPU Markt, dass das ganze Gefüge außer Kontrolle geraten ist.

laser114
2007-07-17, 21:02:11
nVidia hat auch in Zeiten der FX keinen Preiskampf angefangen. Sie wissen, dass ein Preiskampf beide Seiten schaden wird.

Ja, eben. So ein Preiskampf kann eben nur Sinn machen, wenn man den anderen Konkurrenten deutlich zurückschwächen will. Dafür braucht man aber viel Geld auf der Kante.
Zur Zeit der NV3x wäre ein Preiskampf für nvidia aber auch eher unpassend gewesen, im Low-End war die FX 5200 sehr erfolgreich dank guter OEM-Deals und den Performance- sowie High-End-Sektor hätte man wohl - insbesondere zur Zeiten der FX 5800 - komplett aufgeben können. Denn wer wollte die denn?

PS: Wir driften aber irgendwie vom Thema ab... ;)

Grivel
2007-07-17, 21:45:31
Ja, eben. So ein Preiskampf kann eben nur Sinn machen, wenn man den anderen Konkurrenten deutlich zurückschwächen will. Dafür braucht man aber viel Geld auf der Kante.
Zur Zeit der NV3x wäre ein Preiskampf für nvidia aber auch eher unpassend gewesen, im Low-End war die FX 5200 sehr erfolgreich dank guter OEM-Deals und den Performance- sowie High-End-Sektor hätte man wohl - insbesondere zur Zeiten der FX 5800 - komplett aufgeben können. Denn wer wollte die denn?

PS: Wir driften aber irgendwie vom Thema ab... ;)
die fx 5900 kam aber sehr schnell und holte ne megne auf ^^ wenn auch net alles..
zum thema:

Schade mir war er immer sympatisch fand seine grottigen reden auf Messen und so immer sau kuhl^^ hab ich gut englisch bei gelernt :O
naja finds bissle schade :/ aber ich würde eifnach immernoch gerne wissen ob er das damals wirklich freiwillig getan hat - irgendwie glaub ich das net ... naja schade für die firma und ich denke GUT für ihn, hoffentlich macht er nen startup klar oder hilft wo aus .. aber bitte net zu soner standard riesenfirma wie Intel, Nvidia,Via,Samsung oder so hab da kein bock druf :>

edit: meine mit damals freiwillig den deal mit amd..

Exxtreme
2007-07-17, 22:34:10
ATi ist deutlich(!) aggressiver geworden nach dem ArtX -Deal. Ich weiss ja noch, daß es etliche Leute hier im Forum für völlig unmöglich hielten, daß man einen 107 Mio. Transistoren-Chip in 150µm gefertigt auf über 300 Mhz bringen könnte. ATi erreichte mit dem R360 420 MHz. Übrigens R350/R360 ... hielten auch einige früher für seeehr unwahrscheinlich als die ersten Gerüchte auftauchten. Denn es war damals ja total ATi-untypisch Refreshes zu bringen. :D

Grivel
2007-07-17, 22:43:42
fand sowieso den R 300 war der beste chip ever :)

laser114
2007-07-17, 22:52:16
die fx 5900 kam aber sehr schnell und holte ne megne auf ^^ wenn auch net alles..

Tjo, du sagst es ... nicht alles. Und gerade im High-End wird auf solche Details geschaut...

aber ich würde eifnach immernoch gerne wissen ob er das damals wirklich freiwillig getan hat

Mit Sicherheit nicht komplett freiwillig, aber ihn persönlich hat es ja auch nicht geschadet - verdient haben dürfte er jedenfalls ordentlich dran. Und ATI eigentlich auch nicht so wirklich, problematisch ist nur das Geldproblem - am R600 wird AMD kaum rumgewerkelt haben.
Im Endeffekt war da noch die Entscheidung: R600 komplett hochtakten um gegen die GTX zu kämpfen oder nur die kleine Version gegen die GTS launchen ... vielleicht im Anbetracht des NV30 aus seiner Zeit und der Kritikpunkte - man muss glaube ich nur Lautstärke sagen - hat man sich zu letzterem entschieden...

ATi ist deutlich(!) aggressiver geworden nach dem ArtX -Deal.

Der R300 sollte aber schon in der Entwicklung gewesen sein als er CEO wurde. Ich glaube kaum, dass ATI dann einfach mal so schnell aus dem Boden gestampft hat.