PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ati übernimmt Bitboys


Gast
2006-05-02, 14:54:23
http://www.hartware.de/news_39854.html


Es werden halt immer weniger Grafikkartenhersteller, aber dafür immer mächtigere....

deekey777
2006-05-02, 15:11:11
http://www.heise.de/newsticker/meldung/72607
Solche News gehören grundsätzlich in den Sammelthread für News aus Kanada, da dort aber ein grundsätzliches Diskussionsverbot herrscht, kann man sich in diesem Thread darüber unterhalten.

Für ATi ist der Markt für mobile Geräte extrem wichtig, so ist die Übernahme nicht sooo strange.
PS: In der heise-News wird auf einen 3DC-Artikel verlinkt.
http://www.3dcenter.org/artikel/glaze3d_avalanche/

r@w.
2006-05-02, 15:15:30
Für ATI ein geschickter Schachzug, würde ich sagen.

So kaufen Sie sich das KnowHow und die Connections der Bitboys im MobileDevices Sector ein, um nVidia dieses Feld nicht komplett überlassen zu müssen. Ob sie allerdings von dem ursprünglich noch vorhandenen Tätigkeitsfeld im PC-Sector profitieren können, vermag ich nicht zu sagen. Vermutlich eher nicht...

Razor

CompuJoe
2006-05-02, 15:26:31
Ich würde mich dann auch nicht wundern wenn ATI irgentwann mal nen Grafikchip mit integriertem Speicher bringt, so wie der Cache bei CPUs.

Das war doch von den Bitboys so ne Technik mit dem 12MB großen DRAM im Chip?

r@w.
2006-05-02, 15:32:09
Nur ist e(mbedded)Dram kein Alleinstellungsmerkmal einer Bitboys Studie.
Aber klar... vielleicht versucht ATI ja das Gleiche, wie seinerzeit mit ArtX und dem R300.

Die Frage ist halt nur, in welcher TimeLine das von Relevanz werden soll...
...wenn überhaupt an ein solches Unterfangen gedacht wird.

Ich für meinen Teil 'glaube' der Pressemitteilung, dass es sich hier maßgeblich um den Bereich MobileDevices handelt, der für ATI interessant ist. Hatten sie doch in diesem Markt bisher noch kein einziges Standbein.

Razor

Modulor
2006-05-02, 15:44:25
Gast[/POST]']http://www.hartware.de/news_39854.html


Es werden halt immer weniger Grafikkartenhersteller, aber dafür immer mächtigere....

Hat Bitboys Oy jemals einen Chip auf kaufbarer Hardware angeboten ?
Papiertiger,das belegen auch die imho grosszügig bemessenen 32 Mio € Kaufpreis...

urbi
2006-05-02, 15:51:31
Ich schäte mal mit der Bitboys-Technologie wird die nächste Grafikkartengeneration ca. 100000% schneller sein als die jetzige. ATi hat also ausgesorgt. :wink:

StefanV
2006-05-02, 16:00:08
Hab mich schon gewundert, was mit den Bitboys passiert ist, dachte schon, die wären kommentarlos konkurs gegangen :)

StefanV
2006-05-02, 16:00:41
Modulor[/POST]']Hat Bitboys Oy jemals einen Chip auf kaufbarer Hardware angeboten ?
Papiertiger,das belegen auch die imho grosszügig bemessenen 32 Mio € Kaufpreis...
ArtX hat AFAIR 400 Mio gekostet, oder?

r@w.
2006-05-02, 16:17:19
StefanV[/POST]']ArtX hat AFAIR 400 Mio gekostet, oder?
Da haben sie aber auch massenhaft Patente und ein komplett fertiges Design eines neuen Grafikchips (der dann zum R300 'mutierte' ;-) gekauft. Die Bitboys haben da nicht so viel zu bieten und stellen damit ein regelrechtes Schnäppchen dar. Die frage ist nur, ob das reichen wird, im MobilDevices-Sektor großflächig Fuss zu fassen...

Razor

PingpiN
2006-05-02, 16:19:06
urbi[/POST]']Ich schäte mal mit der Bitboys-Technologie wird die nächste Grafikkartengeneration ca. 100000% schneller sein als die jetzige. ATi hat also ausgesorgt. :wink:

War das ein Witzt oder meinst du das ernst ? :confused:

r@w.
2006-05-02, 16:22:07
PingpiN[/POST]']War das ein Witzt oder meinst du das ernst ? :confused:
Ich denke mal, dass der Smilie hier schon Sinn macht.
;)

Razor

robbitop
2006-05-02, 17:35:56
r@w.[/POST]']der dann zum R300 'mutierte' ;-)
Sorry aber das ist BS. R200 "mutierte" eher zu R300. ArtX brachte v.A. mehr R&D Leistung zu ATI und einen Dave Orton, der die Firmenphilosophie mal eben umdrehte.

Coda
2006-05-02, 17:43:50
Ich muss robbi beipflichten. R300 basiert eindeutig auf R200, das sieht man schon am Phasenkonzept. Mit Flipper von ArtX hat das Ding nix zu tun.

aths
2006-05-02, 18:01:17
Natürlich ist das Phasenkonzept im R300 deutlich verbessert, aber eben schon im R200 angelegt – als das R200-Design fix gemacht wurde, stand auch schon der R300 im groben fest. Ganz ohne ArtX.

r@h
2006-05-02, 18:27:50
Wenn Ihr meint...
(will unseren Experten ja nicht zu sehr wiedersprechen, auch wenn... :D)

Interessant und auch nicht von der Hand zu weisen ist es aber schon, dass ATI vor dem R300 eigentlich nichts Vernünftiges zustande brachte und etwa 6-12 Monate nach der ArtX Aquise plötzlich der R300 aus der Taufe gehoben wurde, der ALLES in den Schatten stellte und dessen Design bis zum R520 nicht großartig verändert wurde.

Und wenn ich recht entsinne... war Flipper nicht ein Konsolen-Chip?
Klar, dass dieser erst in eine PC-Architektur integriert werden musste...

Razor

Kinman
2006-05-02, 18:36:23
Ähm die Rag Fury MAXX war auch nicht so übel was ich so in Erinnerung habe.

mfg Kinman

r@h
2006-05-02, 18:43:19
Kinman[/POST]']Ähm die Rag Fury MAXX war auch nicht so übel was ich so in Erinnerung habe.
Die war sogar ziemlicher Schrott.
Vielleicht war die Hardware gut... nur ohne Treiber ist das schwer zu beurteilen.

ATI hat es die ganze Zeit während (und nach) dem Lebenszyklus dieser Karte nicht geschafft, vernünftige Treiber für das Teil zu 'basteln'. Noch schlimmer wurde es allerdings, als Nutzer 'vernünftiger' Betriebssysteme wie seinerzeit Windows 2000, dann vollkommen in Stich gelassen wurden...

Aber wenn es Dich beruhigt... auch von nVidia gab es damals nix dolles.
3dfx war zu der Zeit das eizig wahre.
Gut, dass das schon lange nicht mehr so ist...
;)

robbitop
2006-05-02, 18:51:22
r@h[/POST]']

Und wenn ich recht entsinne... war Flipper nicht ein Konsolen-Chip?
Klar, dass dieser erst in eine PC-Architektur integriert werden musste...

Razor
Flipper wurde nie in eine PC Architektur integriert. R300 war ein übel aufgebohrter R200. Angeblich war 6xRGMS schon im R200 vorgesehen. Erst Orton veränderte die Firmenphilosophie, im Sinne von "baut das Teil was es auch kostet". Außerdem wurde ATI seit R100 von Chip zu Chip besser. R100 war schneller als NV10 (kam leider zu spät), R200 war ähnlich schnell wie NV20 ...bei hohen Auflösungen sogar schneller. Und R300 war die logische Weiterentwicklung. Ich denke R300 war ein großartiges Design. Besonders großartig war es jedoch, weil NV30 so schwach war.

Ailuros
2006-05-02, 21:32:24
So kaufen Sie sich das KnowHow und die Connections der Bitboys im MobileDevices Sector ein, um nVidia dieses Feld nicht komplett überlassen zu müssen. Ob sie allerdings von dem ursprünglich noch vorhandenen Tätigkeitsfeld im PC-Sector profitieren können, vermag ich nicht zu sagen. Vermutlich eher nicht...

NVIDIA hat genau welches Feld im PDA/mobile Markt bis jetzt bedeckt?

Gleiches gilt fuer Bitboys OY die nur eine Lizenz von NEC schnappen konnten, wobei die letztere aber nur einen LCD controller von BB integriert hat.

Bei privaten Besprechungen gibt sowohl NVIDIA als auch Jon Peddie zu, dass Imagination Technologies den groessten Happen in diesem Markt geschnappt hat und viel darueber nachdenken muss man da gerade nicht mit 6 Lizenzen von den 10 groessten Semikonduktor Herstellern der Welt.

Das war der Stand - mehr oder weniger - vor 3 Monaten:

ATI

Apart from LG SV360 I don't recall having seen any other phone using Imageon. If Qualcomm (boy I bet that sounds familiar hm? ) has anything ready yet I wonder why it wasn't shown at 3GSM.

Unless I'm inherently wrong I can see in terms of 3D one phone shipping (Korea only?) and one applications processor expected (whenever it's done) from Qualcomm.

NVIDIA

GoForce4500 was used in Gizmondo (Rest In Peace). GoForce 4800 is being used in Sony/Erricson W900i (with 3 inbuild games; one being clearly a 2D game the other two something that comes damn close to 3D). Motorola Razor comes with the 4800 (native applications can use 3D)

3D: 1 Handheld gaming device (flopped and RIP), 2 Phones ( one recently shipping) and no applications processors.

Falanx

Deal with Zoran for applications processors, whereby I wonder what Zoran has to do with the mobile market.

3D: 1 Applications processor (no volume).

Bitboys

Several licenses from NEC, unknown integration, nothing has been mentioned or marketed yet afaik.

3D: LCD Driver/Processor (chip? volume?)

PowerVR

20 SoCs committed by partners; applications processors to follow:

* Intel i2700G (shipping in volume)
* Renesas SHMobile 3 and 3A (both shipping in volume)
* TI OMAP 2420 (shipping in volume)
* TI OMAP 2430 (announced)
* Philips PNX4008 (shipping in volume)
* Freescale i.MX31 (shipping in volume)
* Samsung S3C2460 (announced)
* Sunplus (unknown yet details)
* Centrality Communications (unknown yet details)


Products:

* SKTeletech IM-8300 (volume, 3rd most popular product in Korea, shipping in China and will ship in the US as a Pantech device).
* Motorola MS550 (volume in Korea)
* 6 Phones making up the whole Docomo 902 Series (4x OMAP2420, 2x SHMobile3) all 3D enabled through Doja4.x Spec
* Sony Ericsson P990, M600 and W950 (using PNX4008 and all with native OpenGL-ES 3D Enabled including built-in game


PDAs: Dell Axim X50v and X51v
Others: Pepperpad and various in car navigation systems.

3D in summary: 7 application processors (announced and available in volume), with over 20 projects commited by partners. 8 mobile phones shipping with 3D enabled and 3 more are going to get announced soon afaik. And that list doesn't even cover other integrations of MBX concerning gambling, PDA and in-car navigation.

Zu der Liste kommt jetzt noch NOKIA S-60 series (TI OMAP 2420) und NEC N902i (TI OMAP2420). Und das ist nur die Liste betreffend die erste Generation fuer MBX.

Bei der zweiten Generation SGX (unified shaders, SM4.0):

INTEL
Renesas (Hitachi + Mitsubishi)
NEC

http://www.imgtec.com/news/Release/index.asp?ID=409
http://www.imgtec.com/news/Release/index.asp?ID=623
http://www.imgtec.com/news/Release/index.asp?ID=628

--------------------------------------------------------------

Bitboys hat ~43 talentierte engineers die ATI sehr wohl gebrauchen kann, aber sie werden wohl an dem auf Xenos basierenden unified shader core den ATI fast fertig hat arbeiten muessen. Grosse IHVs brauchen stets mehr Personal und IMG waere zu gross und zu teuer fuer ATI gewesen ;)

StefanV
2006-05-02, 21:37:56
Ailuros[/POST]']NVIDIA hat genau welches Feld im PDA/mobile Markt bis jetzt bedeckt?

Gleiches gilt fuer Bitboys OY die nur eine Lizenz von NEC schnappen konnten, wobei die letztere aber nur einen LCD controller von BB integriert hat.

Bei privaten Besprechungen gibt sowohl NVIDIA als auch Jon Peddie zu, dass Imagination Technologies den groessten Happen in diesem Markt geschnappt hat und viel darueber nachdenken muss man da gerade nicht mit 6 Lizenzen von den 10 groessten Semikonduktor Herstellern der Welt.

Das war der Stand - mehr oder weniger - vor 3 Monaten:
ATI

Apart from LG SV360 I don't recall having seen any other phone using Imageon. If Qualcomm (boy I bet that sounds familiar hm? ) has anything ready yet I wonder why it wasn't shown at 3GSM.

Unless I'm inherently wrong I can see in terms of 3D one phone shipping (Korea only?) and one applications processor expected (whenever it's done) from Qualcomm.
Das ist aber ziemlich dünn, was der Herr hier geschrieben hat...

Nur zur Info: die Imageons findet man zum Beispiel im Motorola V525 und auch mit allen verwandten Telefonen.

hier (http://www.handy-ersatzteil-service.de/artikel/LCD-Display_Innen_und_Aussen_fuer_Motorola_V300_Ersatzdisplay_Displaymodul_komplett. html) kannst den ATi Chip sehen!

Ailuros
2006-05-02, 22:11:13
StefanV[/POST]']Das ist aber ziemlich dünn, was der Herr hier geschrieben hat...

Nur zur Info: die Imageons findet man zum Beispiel im Motorola V525 und auch mit allen verwandten Telefonen.

hier (http://www.handy-ersatzteil-service.de/artikel/LCD-Display_Innen_und_Aussen_fuer_Motorola_V300_Ersatzdisplay_Displaymodul_komplett. html) kannst den ATi Chip sehen!

Der Herr war ich und wie gesagt ist die Liste 3 Monate alt. Welchen Imageon genau hat das V525 und vorsicht denn die Liste hat nur 3D phones.

***edit:

*ahem*

http://www.mobile-phones-uk.org.uk/motorola-v525.htm

Coda
2006-05-02, 22:22:20
r@h[/POST]']Interessant und auch nicht von der Hand zu weisen ist es aber schon, dass ATI vor dem R300 eigentlich nichts Vernünftiges zustande brachte und etwa 6-12 Monate nach der ArtX Aquise plötzlich der R300 aus der Taufe gehoben wurde, der ALLES in den Schatten stellte und dessen Design bis zum R520 nicht großartig verändert wurde.
R200 hatte eben noch Problemchen, vor allem das MSAA funktionierte nicht. Sonst war der Chip eigentlich recht solide.

Selbst bei R100 finde ich "nichts Vernünftiges" äußerst übertrieben.

r@h[/POST]']Und wenn ich recht entsinne... war Flipper nicht ein Konsolen-Chip?
Klar, dass dieser erst in eine PC-Architektur integriert werden musste...
Flipper hat komplett andere Register-Combiner und Vertexdatenverarbeitung als jeder PC-Chip.

R300 ist R200 ungefähr 1000x ähnlicher als Flipper. Das ist keine Spekulation sondern Fakt.

AlfredENeumann
2006-05-02, 22:45:02
r@h[/POST]']

Interessant und auch nicht von der Hand zu weisen ist es aber schon, dass ATI vor dem R300 eigentlich nichts Vernünftiges zustande brachte und etwa 6-12 Monate nach der ArtX Aquise plötzlich der R300 aus der Taufe gehoben wurde, der ALLES in den Schatten stellte und dessen Design bis zum R520 nicht großartig verändert wurde.


Sorry Razor, aber das ist mumpitz.

Der erste Chip nach der ArtX-Aquise war der R100.

robbitop
2006-05-02, 23:17:58
Sicher, dass sie nicht an nem PDA Chip von ATI arbeiten?
Sind eigentlich noch alle aus der Tritech Zeit dabei?

Dass IMG den PDA Markt dominiert, ist klar, da es kein konkurenzfähiges Gegenprodukt gibt.

Quasar
2006-05-02, 23:49:29
AlfredENeumann[/POST]']Sorry Razor, aber das ist mumpitz.

Der erste Chip nach der ArtX-Aquise war der R100.
Wie groß sind denn noch die Ähnlichkeiten zwischen R100 und R200? ;)

Gast
2006-05-03, 00:12:31
Ihr solltet mal bedenken, daß man nicht einfach den Chip einer aufgekauften Firma umbenennt und dann als eigenen verkauft, hat AMD mit den Nexgens ja auch nicht gemacht und NV auch nicht mit Rampage. Man würfelt das beste seiner Systeme zusammen und bekommt einen neuen Chip, der weder einfach nur ein Nachfolger der älteren eigenen Designs ist noch der umbenannte Zukauf.

Quasar
2006-05-03, 00:18:38
Ja, aber ich glaube, mit AMD und NexGen hast du genau das falsche Beispiel gebracht. IIRC haben die den wirklich nur umgelabelt.

Coda
2006-05-03, 00:19:42
Haben sie ihm nicht noch ein Pentium-kompatibles Businterface verpasst?

StefanV
2006-05-03, 00:23:19
Coda[/POST]']Haben sie ihm nicht noch ein Pentium-kompatibles Businterface verpasst?
yep, der nx686 hatte, wie der nx586, ein proprietäres Interface.

stav0815
2006-05-03, 00:24:43
Coda[/POST]']Haben sie ihm nicht noch ein Pentium-kompatibles Businterface verpasst?

das kannst du unter Schönheitsfehler beseitigen laufen lassen.

Quasar
2006-05-03, 00:24:44
Aha, wieder was dazugelernt. Obwohl das für mich eher in die Kategorie "Zwang" als Überarbeitung fallen würde. :)

Coda
2006-05-03, 00:31:06
stav0815[/POST]']das kannst du unter Schönheitsfehler beseitigen laufen lassen.
Es war aber eher das Gegenteil. Der proprietäre Bus wäre soweit ich weiß besser gewesen.

Gast
2006-05-03, 00:36:20
Sie haben dem Nexgen eine FPU angetackert, deswegen ist es nicht nur ein umbenannter Zukauf. Zugegeben, das ist recht nahe am Umbenennen, aber dennoch eine erhebliche Erweiterung.

Coda
2006-05-03, 00:37:52
Laut Wikipedia hatte das Ding durchaus eine FPU, nur war diese eben nicht besonders stark.

Gast
2006-05-03, 00:54:20
War wohl die Erweiterung der CPU um MMX, die AMD da vorgenommen hatte. Bin mir sicher, früher von der Ergänzung um die FPU gelesen zu haben, evtl. haben die Schreiberlinge damals da was mit dem nx586 der ersten Generation durcheinandergebracht.

stickedy
2006-05-03, 00:58:38
Der Nx686 hatte eine integrierte FPU und das war wohl die, die auch der K6 bekam.
AMD hat beim Nx686 das Interface geändert und MMX eingebaut. Das wars wohl im großen und ganzen...

Aber um nochmal auf ArtX zurück zu kommen: Im ALi Aladdin 7 war ja ein ArtX Grafikkern integriert. Leider hab ich so ein Ding nie in Action gesehen bzw. nähere Specs oder gar Tests gelesen. Was konnte dieser Grafikkern denn so?

Ach ja, ein paar Links:
http://www.heise.de/newsticker/meldung/8113
http://www.tecchannel.de/news/themen/business/403909/
Treiber: http://display-and-video.free-driver-download.com/ALI/435/Ali-ALADDIN-7-Chipsets-Display-Driver-Windows-98-NT4-2000.html

Gast
2006-05-03, 01:56:40
Vielleicht hat der kauf auch was mit patenten und dem xbox 360 grafik chip zu tun.

Ailuros
2006-05-03, 03:01:25
Gast[/POST]']Vielleicht hat der kauf auch was mit patenten und dem xbox 360 grafik chip zu tun.

LOL also bitte....genauso wie NVIDIA DDR mit der GeForce "patentiert" hatte oder? :biggrin:

Ailuros
2006-05-03, 03:13:58
robbitop[/POST]']

Dass IMG den PDA Markt dominiert, ist klar, da es kein konkurenzfähiges Gegenprodukt gibt.

Am wichtigsten ist eher wer zuerst mit einer Loesung ankommt, dann kommt Erfahrung, Stromverbrauch, wie leicht Integrierung ist, Feature-set usw. Wenn Du zurueckblaetterst ist es leicht zu sehen wann IMG den MBX in FPGA Format vorgestellt hatte. Auch jetzt mit SGX sind sie wieder zuerst da; kein Wunder dass schon 3 Semis das Ding lizenziert haben.

Eigentlich erwartete ich dass es IMG mit der zweiten Runde um einiges schwerer haben wird; bis jetzt hat sich weder ATI noch NVIDIA mit einem 2en Generations-chip gemeldet. Hier macht eben das zusaetzliche Personal fuer ATI auch Sinn.

betasilie
2006-05-03, 03:22:48
Ailuros[/POST]']LOL also bitte....genauso wie NVIDIA DDR mit der GeForce "patentiert" hatte oder? :biggrin:
Nunja, die Bitboys haben einige Patente an eDRAM Technologien. Auch wenn jetzt nicht zwingend die XBox GPU in Bezug stehen muss, kann es sehrwohl etwas mit R600 oder Nachfolger zu tun haben, dass man diese Patente sein eigen nennen will.

Ailuros
2006-05-03, 03:41:27
betareverse[/POST]']Nunja, die Bitboys haben einige Patente an eDRAM Technologien. Auch wenn jetzt nicht zwingend die XBox GPU in Bezug stehen muss, kann es sehrwohl etwas mit R600 oder Nachfolger zu tun haben, dass man diese Patente sein eigen nennen will.

Erstens hat R6x0 kein eDRAM und zweitens haben mir zu viele die schlechte Angewohnheit ATI konstant zu unterschaetzen.

Was genau haben Bitboys mit Xenos zu tun, oder anders wer sieht irgend was an der eDRAM Implementierung in Xenos dass BB besser gemacht haette?

BB mag zwar Patente ueber die Implementierung von eingebettetem Speicher haben, aber das Zeug ist nicht nur uralt, es handelt sich auch nicht um das 8. Weltwunder. Seit einigen Jahren hat sich Bitboys OY auf Designs im PDA/mobile Markt konzentriert in diesen gibt es nicht einen einzigen Hauch von eDRAM und fuer diesen Markt wird ATI die Kerle auch hoechstwahrscheinlich benutzen.

eDRAM fuer einen PDA/mobile Design ist zu teuer, sonst haetten BB es auch benutzt.

***edit: auch NVIDIA hat von Gigapixel mit dem 3dfx Aufkauf ueber 40 Patente mitbekommen; wo ist denn deren Deferred Renderer?

betasilie
2006-05-03, 04:33:33
Ich will hier garnicht über eine prinzipielle Sache reden - es kann durchaus sein, dass irgendeine patentrechtlich geschützte Technolgie aus der eDRAM Zeit der Bitboys für ATI interessant ist im Desktop-Bereich.

Weißt Du, dass es nicht so ist?

Da derzeit 512bit-PCBs noch recht unwirtschaftlich sind und hohen Speicherpreise Gewinnminimierung bedeuten für ATI, kann es imo gut sein, dass ATI an einer eDRAM GPU arbeitet. Genug Erfahrung haben sie ja jetzt gemacht und mit einem FB-Tiling, was nicht von den Apps unterstützt werden müsste, ist die Chance auf einen kommende eDRAM-GPU sicher nicht gleich 0.



Ich muss doch jetzt mal fragen ... Du weißt zu 100%, dass der R600 kein eDRAM oder ähnliche Technolgie nutzen wird?

r@w.
2006-05-03, 08:48:55
robbitop[/POST]']Flipper wurde nie in eine PC Architektur integriert. R300 war ein übel aufgebohrter R200. Angeblich war 6xRGMS schon im R200 vorgesehen. Erst Orton veränderte die Firmenphilosophie, im Sinne von "baut das Teil was es auch kostet". Außerdem wurde ATI seit R100 von Chip zu Chip besser. R100 war schneller als NV10 (kam leider zu spät), R200 war ähnlich schnell wie NV20 ...bei hohen Auflösungen sogar schneller. Und R300 war die logische Weiterentwicklung. Ich denke R300 war ein großartiges Design. Besonders großartig war es jedoch, weil NV30 so schwach war.
Hmmm...
1) ja, R100 war (viel) zu spät.
2) R200 war vielleicht (manchmal) schneller, was aber bei der miesen BQ auch kein wunder war
3) R300 war ganz 'anders'
4) NV30 kam viiiiiiel zu spät

Razor

r@w.
2006-05-03, 09:18:13
Ailuros[/POST]']NVIDIA hat genau welches Feld im PDA/mobile Markt bis jetzt bedeckt?
Feld?
Oder meinst Du erhältliche Produkte?
:confused:

Also realisierte Produkte auf Basis des GoForce sind z.Bsp.:
(seit Anfang 2005... habe mal ein bissi gegoogelt ;-)
- Mitsubishi M341i
- Motorola E1000, V980
- Kyocera A5515K
- Gizmondo

Weitere damals angekündigte Partner:
LG, Mitac, Samsung und Sendo

Lediglich die "großen drei" haben noch nichts zu den nVidias gesagt:
Nokia, Sony Ericsson und Siemens

Und folgende Grafikschnittstellen werden vom 4500 schon seit Anfang 2005 unterstützt:
OpenGL ES, M3G und Direct3Dm
(inkl. 3mpixel chip, was in Handys ja auch nicht ganz unnütz ist ;-)

Die 5000'er bringen dann auch H.264/WMV9/MPEG4 Beschleunigung mit und sind wohl besonders für Streaming-Media mit Unterstützung von Mobile-TV-Standards ausgelegt. Ach ja... 10mpixel Kameras werden damit auch möglich, neben ein paar anderen 'netten' Features im Soudbereich etc.pp. Ist aber noch ein bissel Zukunftsmusik, da erst seit Mitte Februar diesen Jahres angekündigt.

Gleiches gilt fuer Bitboys OY die nur eine Lizenz von NEC schnappen konnten, wobei die letztere aber nur einen LCD controller von BB integriert hat.
Zumindest gebe ich Dir recht, dass die Bitboys (wie auch ATI) es noch zu keinen fertigen Produkten brachten.
Und wenn ATI jetzt anfangen will, endlich 'richtig' in diesem Markt zu inventieren, dann dürfte es noch sehr, sehr lange dauern, bis sie dort Fuss fassen... wenn sie überhaupt die Hersteller von ihren Produkten überzeugen können.

Warum Du jetzt ImgTech und die MBX-Serie ins Spiel bringst, ist mir hingegen nicht ganz klar.
Unbestreitbar haben diese den größten Anteil am sehr kleinen Handy-3D-'Beschleuniger'-Markt.
(mal etwas lapidar ausgedrückt ;-)

Bitboys hat ~43 talentierte engineers die ATI sehr wohl gebrauchen kann, aber sie werden wohl an dem auf Xenos basierenden unified shader core den ATI fast fertig hat arbeiten muessen. Grosse IHVs brauchen stets mehr Personal und IMG waere zu gross und zu teuer fuer ATI gewesen ;)
Klar...
Auch setzt dies voraus, dass ImgTech die Eigenständigkeit überhaupt hätte aufgeben wollen.
Die Bitbys waren einfach am Ende... schon lange.

Razor

r@w.
2006-05-03, 09:23:26
Coda[/POST]']R200 hatte eben noch Problemchen, vor allem das MSAA funktionierte nicht. Sonst war der Chip eigentlich recht solide.
Klar... miese Filterung und unnütze Features ala "Dolphins"-Zeugs.
(von den ganzen "Bildverschlimmerungs"-Dingern ganz zu schweigen, wie auch von nicht realisierten Features)

Sorry, aber als 'solide' würde ich andere Dinge bezeichnen.
Meiner Meinung nach (und man muss sich dieser ja nicht anschließen) war ALLES vor R300 schlicht Schrott.

Razor

r@w.
2006-05-03, 09:29:21
betareverse[/POST]']Nunja, die Bitboys haben einige Patente an eDRAM Technologien. Auch wenn jetzt nicht zwingend die XBox GPU in Bezug stehen muss, kann es sehrwohl etwas mit R600 oder Nachfolger zu tun haben, dass man diese Patente sein eigen nennen will.
Da der R600 doch ein "Abkömmling" des XBox360-Chips sein und mit eDram nichts zu tun soll, dürfte das nun kein Grund gewesen sein, die Bitboys zu kaufen. Ich vermute einfach, dass es sich als Schnäppchen heraus gestellt hat, in einem noch unbesetzten Markt weiter Fuss zu fassen...

Gast[/POST]']Ihr solltet mal bedenken, daß man nicht einfach den Chip einer aufgekauften Firma umbenennt und dann als eigenen verkauft, hat AMD mit den Nexgens ja auch nicht gemacht und NV auch nicht mit Rampage. Man würfelt das beste seiner Systeme zusammen und bekommt einen neuen Chip, der weder einfach nur ein Nachfolger der älteren eigenen Designs ist noch der umbenannte Zukauf.
Danke.

Razor

Gast
2006-05-03, 09:55:32
r@w.[/POST]']Da der R600 doch ein "Abkömmling" des XBox360-Chips sein und mit eDram nichts zu tun soll, dürfte das nun kein Grund gewesen sein, die Bitboys zu kaufen. Ich vermute einfach, dass es sich als Schnäppchen heraus gestellt hat, in einem noch unbesetzten Markt weiter Fuss zu fassen...
Vielleicht haben die BitBoys aber auch ein hübsches Patent in Bezug auf den integrierten RAM, welches evtl. besser ist, als das was Ati im Xenos nutzte/nutzen durfte? Für den R600 dürfte es zu spät sein, es sei denn, man hat bereits vor langer Zeit sehr sehr fest mit einem Zukauf der BitBoys gerechnet. Vielleicht haben die BitBoys aber auch irgendwelche Technologieabkommen mit anderen Firmen, an deren Nutzung Ati interessiert ist.

Sehr viele "Vielleichts" – ich weiß.


Q

robbitop
2006-05-03, 09:59:00
Quasar[/POST]']Ja, aber ich glaube, mit AMD und NexGen hast du genau das falsche Beispiel gebracht. IIRC haben die den wirklich nur umgelabelt.
So wie XGI den SiS Xabre2 X-D

robbitop
2006-05-03, 10:02:59
r@w.[/POST]']
3) R300 war ganz 'anders'
4) NV30 kam viiiiiiel zu spät

Razor
3.) nicht aus Architektur Sicht ;-)
4.) lowk ahoi!

stickedy
2006-05-03, 10:12:26
robbitop[/POST]']So wie XGI den SiS Xabre2 X-D
Oder den Trident XP4? :wink:

robbitop
2006-05-03, 10:57:59
stickedy[/POST]']Oder den Trident XP4? :wink:
War's nicht der XP5?

gingen eigentlich alle Grafik Ingenieure von XGI zu ATI?

stav0815
2006-05-03, 12:01:54
robbitop[/POST]']War's nicht der XP5?

gingen eigentlich alle Grafik Ingenieure von XGI zu ATI?
was macht XGI eigentlich nun? Servermarkt, oder?

Wollten die nich schon Marketleader sein? :D

r@w.
2006-05-03, 12:36:10
Quasar[/POST]']Vielleicht haben die BitBoys aber auch ein hübsches Patent in Bezug auf den integrierten RAM, welches evtl. besser ist, als das was Ati im Xenos nutzte/nutzen durfte? Für den R600 dürfte es zu spät sein, es sei denn, man hat bereits vor langer Zeit sehr sehr fest mit einem Zukauf der BitBoys gerechnet. Vielleicht haben die BitBoys aber auch irgendwelche Technologieabkommen mit anderen Firmen, an deren Nutzung Ati interessiert ist.

Sehr viele "Vielleichts" – ich weiß.
Ja... aber durchaus plausibel.

Den eDram-'Patenten' stehe ich recht skeptisch gegenüber, aber das mit den etwaig vorhandenen Technologie-Abkommen dürfte ein tragendes Argument sein. "Manpower" dürfte natürlich auch ein Argument sein... ;)

robbitop[/POST]']3.) nicht aus Architektur Sicht ;-)
4.) lowk ahoi!
Ad3: ...wie auch immer :D
Könnte mir schon vorstellen, dass der "frische Wind" der ArtX-Jungs beim R300 noch einmal kräftig was geändert hat.
Ad4: jap.

Razor

stickedy
2006-05-03, 12:36:36
robbitop[/POST]']War's nicht der XP5?
XP5 nannte man ihn dann im Mobilbereich und V3 halt fürn Desktop. Wobei ich immer noch der Meinung bin, dass es nur ein halbierter XP4 war (basierend auf den vorligenden Unterlagen für beide CHips)


gingen eigentlich alle Grafik Ingenieure von XGI zu ATI?
So wie es ausschaut anscheinend nur das Trident-Team. Das SiS-team belibt wohl bestehen... Evtl. war Trident ein Fehlkauf?

AlfredENeumann
2006-05-03, 13:00:29
r@w.[/POST]']

Lediglich die "großen drei" haben noch nichts zu den nVidias gesagt:
Nokia, Sony Ericsson und Siemens

Mein sony W900i hat son Teil.

Ailuros
2006-05-03, 13:02:20
r@w.[/POST]']Feld?
Oder meinst Du erhältliche Produkte?
:confused:

Also realisierte Produkte auf Basis des GoForce sind z.Bsp.:
(seit Anfang 2005... habe mal ein bissi gegoogelt ;-)
- Mitsubishi M341i
- Motorola E1000, V980
- Kyocera A5515K
- Gizmondo

Gizmondo ist tot, fuer die anderen hab ich die 3D phones erwaehnt.

Weitere damals angekündigte Partner:
LG, Mitac, Samsung und Sendo

Lediglich die "großen drei" haben noch nichts zu den nVidias gesagt:
Nokia, Sony Ericsson und Siemens

Und folgende Grafikschnittstellen werden vom 4500 schon seit Anfang 2005 unterstützt:
OpenGL ES, M3G und Direct3Dm
(inkl. 3mpixel chip, was in Handys ja auch nicht ganz unnütz ist ;-)

Und was ist mit Symbian und Linux?

Die 5000'er bringen dann auch H.264/WMV9/MPEG4 Beschleunigung mit und sind wohl besonders für Streaming-Media mit Unterstützung von Mobile-TV-Standards ausgelegt. Ach ja... 10mpixel Kameras werden damit auch möglich, neben ein paar anderen 'netten' Features im Soudbereich etc.pp. Ist aber noch ein bissel Zukunftsmusik, da erst seit Mitte Februar diesen Jahres angekündigt.

Der 5500 basiert genauso auf AR1x wie die Vorgaenger mit ein paar mehr aufgeputschten register combiners (die man dark Marketing "pixel shader" nennen will). Auf 200MHz getaktet verbraucht das Monstrum ueber 200mW und gibt weniger Fuellrate von sich als ein MBX@50MHz und von AA sollte schon gar nicht die Rede sein.


Zumindest gebe ich Dir recht, dass die Bitboys (wie auch ATI) es noch zu keinen fertigen Produkten brachten.
Und wenn ATI jetzt anfangen will, endlich 'richtig' in diesem Markt zu inventieren, dann dürfte es noch sehr, sehr lange dauern, bis sie dort Fuss fassen... wenn sie überhaupt die Hersteller von ihren Produkten überzeugen können.

Meistens reicht es in diesem Markt wenn man Intel, ARM und Texas Instruments unterm Aermal hat.

Warum Du jetzt ImgTech und die MBX-Serie ins Spiel bringst, ist mir hingegen nicht ganz klar.
Unbestreitbar haben diese den größten Anteil am sehr kleinen Handy-3D-'Beschleuniger'-Markt.
(mal etwas lapidar ausgedrückt ;-)

Weil weder NVIDIA noch ATI keinen Fuss bis jetzt in diesem Markt gefasst haben. Ich erwartete wie gesagt dass es mit der 2en Generation richtig losgeht, aber wenn ich ATI die Bitboys kaufen sehe, dann ist fuer mich eher klar dass es ATI an Resourcen (sprich Personal fehlt).

ATI und NVIDIA konzentrieren sich momentan auf die Faehigkeiten von OMAP2 fuer ihre zukuenftigen Schachzuege und das sollte schon Grund genug sein warum ich MBX ueberhaupt erwaehne.

Klar...
Auch setzt dies voraus, dass ImgTech die Eigenständigkeit überhaupt hätte aufgeben wollen.
Die Bitbys waren einfach am Ende... schon lange.


IMG ist auch nicht immun fuer einen Aufkauf; selbst aber wenn sie zum Verkauf freistehen wuerden waere es wie gesagt viel zu teuer im Vergleich zu BB. IMG's Treiberteam ist groesser als BB insgesamt.

Ailuros
2006-05-03, 13:08:23
betareverse[/POST]']Ich will hier garnicht über eine prinzipielle Sache reden - es kann durchaus sein, dass irgendeine patentrechtlich geschützte Technolgie aus der eDRAM Zeit der Bitboys für ATI interessant ist im Desktop-Bereich.

Weißt Du, dass es nicht so ist?

Ja.

Da derzeit 512bit-PCBs noch recht unwirtschaftlich sind und hohen Speicherpreise Gewinnminimierung bedeuten für ATI, kann es imo gut sein, dass ATI an einer eDRAM GPU arbeitet. Genug Erfahrung haben sie ja jetzt gemacht und mit einem FB-Tiling, was nicht von den Apps unterstützt werden müsste, ist die Chance auf einen kommende eDRAM-GPU sicher nicht gleich 0.

Basierend auf das was ATI oeffentlich und "off the record" zum Thema zum sagen hat, sind die Chancen weniger als "0". eDRAM ist und verbleibt unwirtschaftlich fuer den PC, weil man eben Unmengen davon brauchen wuerde fuer die konstant steigenden Aufloesungen die benutzt werden.


Ich muss doch jetzt mal fragen ... Du weißt zu 100%, dass der R600 kein eDRAM oder ähnliche Technolgie nutzen wird?

Es wird wohl eher R620 sein (deshalb auch R6x0 um auf Nummer Sicher zu gehen) ;) Wie sicher kann ich mir genau sein?

Demirug
2006-05-03, 13:15:17
betareverse[/POST]']Nunja, die Bitboys haben einige Patente an eDRAM Technologien. Auch wenn jetzt nicht zwingend die XBox GPU in Bezug stehen muss, kann es sehrwohl etwas mit R600 oder Nachfolger zu tun haben, dass man diese Patente sein eigen nennen will.

Das entsprechenden Patent ist derzeit vollkommen nutzloss weil technisch nicht umsetzbar.

Coda
2006-05-03, 15:26:43
Ailuros[/POST]']Es wird wohl eher R620 sein
Huch? Das würde ja wieder andeuten dass man weiter auf R5xx aufbaut? :|

Oder hat es sich jetzt einfach schon eingebürgert mit x20 anzufangen?

deekey777
2006-05-03, 16:02:57
Der R500 wurde noch vor oder zur Ankündigung des R420 zum R600 umgelabelt, wenn ich mich nicht täusche, und der Dave O. schwärmte nur so. Und da ATi von R400- oder R500-Gegeration spricht, wäre die Nr. R620 nicht überraschend.

Ronny145
2006-05-03, 16:09:58
r@w.[/POST]']

Lediglich die "großen drei" haben noch nichts zu den nVidias gesagt:
Nokia, Sony Ericsson und Siemens





Inwiefern die großen drei? Motorola ist die Nummer 2 im handybereich beim Umsatz.

StefanV
2006-05-03, 16:15:41
Ailuros[/POST]']
Basierend auf das was ATI oeffentlich und "off the record" zum Thema zum sagen hat, sind die Chancen weniger als "0". eDRAM ist und verbleibt unwirtschaftlich fuer den PC, weil man eben Unmengen davon brauchen wuerde fuer die konstant steigenden Aufloesungen die benutzt werden.
Und wenn, wird man eher Z-RAM integrieren, da Logik und eDRAM recht delikat sind...

Aus dem Grunde dürfte ATi auch beim Xenos ein Dual Die gewählt haben...

stickedy
2006-05-03, 16:17:44
Gibts eigentlich noch jemanden, der eDRAM fertigt nachdem Infineon damals ausgestiegen ist?

Gast
2006-05-03, 16:31:57
Der eDRam der XBox360 wird soviel ich weiß von NEC gefertigt

mictasm
2006-05-03, 16:44:34
Hoffentlich bedeutet das nicht das Ende der Zusammenarbeit mit Nokia. Die hatten doch erst letztens eine Finanzspritze gegeben...

Demirug
2006-05-03, 17:02:26
Gast[/POST]']Der eDRam der XBox360 wird soviel ich weiß von NEC gefertigt

Ja, wobei diese Speicherbausteine eigentlich die Bezeichnung eDRam nicht wirklich verdient haben.

aths
2006-05-03, 18:31:31
r@w.[/POST]']Hmmm...
1) ja, R100 war (viel) zu spät.Im Gegenteil, der war zu früh, wenn man sich anguckt, wann DX8 endlich kam.
2) R200 war vielleicht (manchmal) schneller, was aber bei der miesen BQ auch kein wunder warDie Bildqualität war in Ordnung, schon beim R100. Hab ich mit eigenen Augen gesehen. R200 hatte für Farboperationen dann eine höhere Präzision als die Fixpoint-Farboperationen noch im NV35. Jaha, das AF war nicht besonders hochwertig, das Antialiasing recht langsam – aber wollen wir uns gerade die Sachen so rauspicken, dass am Ende das gewünschte Ergebnis herauskommt oder eine umfassendere Betrachtung? Pixel Shader 1.4 erlaubt z. B. in Max Payne 2 bessere Effekte – sicher auch ein Baustein der Bildqualität.
3) R300 war ganz 'anders'Stimmt auch wieder nicht. R300 zeigt deutlich seine Verwandschaft zum R200.


r@w.[/POST]']Sorry, aber als 'solide' würde ich andere Dinge bezeichnen.
Meiner Meinung nach (und man muss sich dieser ja nicht anschließen) war ALLES vor R300 schlicht Schrott.Das ist keine Frage der Meinung, sondern von Fakten. Seit der Original-Radeon, also dem R100, hat ATI gute und im Vergleich zu NV mindestens konkurrenzfähige, öfters sogar bessere Spieler-Chips anzubieten.

loewe
2006-05-03, 20:03:50
r@w.[/POST]']
Lediglich die "großen drei" haben noch nichts zu den nVidias gesagt:
Nokia, Sony Ericsson und Siemens


Was fehlt denn noch?

Sony Ericsson: Philips Nexperia PNX4008 (MBX Lite)

Nokia: OMAP2 (2420 MBX oder 2430 MBX Lite)

Siemens: Wer ist Siemens? ;)

robbitop
2006-05-03, 20:09:43
StefanV[/POST]']Und wenn, wird man eher Z-RAM integrieren, da Logik und eDRAM recht delikat sind...

Aus dem Grunde dürfte ATi auch beim Xenos ein Dual Die gewählt haben...
eDRAM braucht heutzutage nur einen Transistor pro Zelle. Z Ram spart hier nochmal den Kapazitätspart. Aber Z-Ram ist auch irre langsam.



----
Vieleicht hat sich das x20 jetzt ja für "PC Architecture" eingebürgert...

StefanV
2006-05-03, 20:27:05
robbitop[/POST]']eDRAM braucht heutzutage nur einen Transistor pro Zelle. Z Ram spart hier nochmal den Kapazitätspart. Aber Z-Ram ist auch irre langsam.
Eben und der Kapazitätspart ist eben das heikle an der ganzen Konstruktion und auch ein Grund, warum mans bisher nicht bei größeren Schaltungen gesehen hat, es geht einfach nicht so ohne weiteres!!

Denn für D-RAM braucht man eine Fertigung mit großen Kapazitäten, bei Logik will man Kapazitäten nicht haben, denn die erzeugen nur Abwärme.

robbitop
2006-05-03, 20:42:11
StefanV[/POST]']Eben und der Kapazitätspart ist eben das heikle an der ganzen Konstruktion und auch ein Grund, warum mans bisher nicht bei größeren Schaltungen gesehen hat, es geht einfach nicht so ohne weiteres!!

Denn für D-RAM braucht man eine Fertigung mit großen Kapazitäten, bei Logik will man Kapazitäten nicht haben, denn die erzeugen nur Abwärme.
Ich glaube du verwechselst da etwas. Eine DRAM Speicherzelle besteht aus einem Transistor und einem "Kondensator" (Kapazität). Da ist nichts "heikles" dran. Z-RAM nutzt IIRC die Gatekapazität, welche eigentlich unerwünscht ist, als Kondensator. Gegen die Gatekapazität kann man aber auch nichts groß was machen bisher.

Z-RAM wurde bisher wenig eingesetzt, weil es 1. neu ist und 2. langsam ist.

mboeller
2006-05-04, 07:55:10
OT;

wo steht eigentlich das Z-RAM langsam ist? Würde mich mal interessieren, schließlich will AMD das Zeug für L2 oder L3-Cache einsetzen (soweit man weiß).

robbitop
2006-05-04, 09:46:11
mboeller[/POST]']OT;

wo steht eigentlich das Z-RAM langsam ist? Würde mich mal interessieren, schließlich will AMD das Zeug für L2 oder L3-Cache einsetzen (soweit man weiß).
Für L3 ... und was meinst du warum es nicht für L2 nutzbar ist?
Hier mal ein Whitepaper:
http://www.innovativesilicon.com/en/technology_overview.php

Derzeit ist man bei einer Zugriffszeit von ~3ns angelangt. Die Zugriffszeit auf heutigen SRAM auf einer CPU sollte um eine Größenordnung kleiner sein. Z-RAM ist in erster Linie günstig herzustellen und besitzt einerelativ hohe Speicherdichte.

Ailuros
2006-05-04, 11:12:24
mictasm[/POST]']Hoffentlich bedeutet das nicht das Ende der Zusammenarbeit mit Nokia. Die hatten doch erst letztens eine Finanzspritze gegeben...

Welche Zusammenarbeit?

NOKIA ist Texas Instruments groesster Kunde. TI vermarktet aber nur momentan OMAP2. Hoechstwahrscheinlich wollte NOKIA einfach eine Alternative aus Sicherheitsgruenden, falls IMG etwas passieren sollte.

Bis jetzt macht die obrige These wohl nicht sehr viel Sinn oder? NEC hat mehr als eine Lizenz von den Bitboys in der Vergangenheit gekauft und ausser dass ich was verpasst habe, hat NEC ausser einem BB LCD Controller nichts integriert. Stattdessen kaufte NEC von Texas Instruments ihren OMAP 2420 SoC fuer die NEC FOMA Handies und lizenzierte erst vor kurzem IMG's zweite Generation (SGX).

Was ist jetzt Zufall und was koennte dahinter stecken? Irgendwie bekomm ich es nicht aus dem Schaedel dass es schon seit Jahren ein merkwuerdiges Gebuendel an Interessen zwischen Nokia, NEC und TI gab. NEC lizenziert G34/40 und integriert stattdessen in einem high end Handy einen TI SoC?

StefanV
2006-05-04, 11:49:26
robbitop[/POST]']Ich glaube du verwechselst da etwas. Eine DRAM Speicherzelle besteht aus einem Transistor und einem "Kondensator" (Kapazität). Da ist nichts "heikles" dran.
Wenn mans mit Logik kombiniert schon, denn die Kapazität ist ja bei D-RAM erwünscht, nicht aber bei Logik, _DAS_ ist das heikle daran und auch der Grund, warum wir nie umfangreiche Logikschaltungen mit eDRAM gesehen haben!

Das, was es bisher gab, war nicht wirklich eindrucksvoll oder kompliziert...

robbitop[/POST]']
Z-RAM nutzt IIRC die Gatekapazität, welche eigentlich unerwünscht ist, als Kondensator. Gegen die Gatekapazität kann man aber auch nichts groß was machen bisher.

Z-RAM wurde bisher wenig eingesetzt, weil es 1. neu ist und 2. langsam ist.
Z-RAM und Logiktransistoren vertragen sich aber gut, besser als eDRAM, weil Z-RAM für Logikprozesse entwickelt wurde...

Ailuros
2006-05-04, 12:30:26
http://press.nokia.com/PR/200605/1049032_5.html

robbitop
2006-05-04, 12:49:13
StefanV[/POST]']Wenn mans mit Logik kombiniert schon, denn die Kapazität ist ja bei D-RAM erwünscht, nicht aber bei Logik, _DAS_ ist das heikle daran und auch der Grund, warum wir nie umfangreiche Logikschaltungen mit eDRAM gesehen haben!


Ich glaube, dass wir von ganz verschiedenen Dingen reden. Du meinst sicher die Gatekapazität, right? Das ist bisher als parasitärer Effekt angesehen worden. Gegen den kann man nichts tun. Auch DRAM braucht diesen Effekt nicht. Erstmals Z-RAM ersetzt den Kondensator pro Speicherzelle mit der Gatekapazität (die tritt auch bei Logikschaltungen auf).

mboeller
2006-05-04, 13:28:58
robbitop[/POST]']Für L3 ... und was meinst du warum es nicht für L2 nutzbar ist?
Hier mal ein Whitepaper:
http://www.innovativesilicon.com/en/technology_overview.php

Derzeit ist man bei einer Zugriffszeit von ~3ns angelangt. Die Zugriffszeit auf heutigen SRAM auf einer CPU sollte um eine Größenordnung kleiner sein. Z-RAM ist in erster Linie günstig herzustellen und besitzt einerelativ hohe Speicherdichte.

Danke! guter Artikel

Coda
2006-05-04, 14:30:46
aths[/POST]']Im Gegenteil, der war zu früh, wenn man sich anguckt, wann DX8 endlich kam.
R100 war doch kein DX8-Chip :|

Oder was meinst du damit?

StefanV
2006-05-04, 14:32:13
Coda[/POST]']R100 war doch kein DX8-Chip :|
Richtig, es gibt aber Gerüchte, das der R100 einer hätte werden sollen :|
Was auch immer da dran ist :uponder:

Coda
2006-05-04, 14:32:29
Blödsinn. Das Ding hat nicht die geringsten Anzeichen von programmierbarer Logik.

deekey777
2006-05-04, 14:49:53
Coda[/POST]']R100 war doch kein DX8-Chip :|

Oder was meinst du damit?

PS 0.9 des R100.

Gayfunden:
R100 hat keine Pixelshader, das ist zunächst richtig so. Der R100 sollte ursprünglich eine DX8-Karte werden, aber DX8 verzögerte sich. R100 erfüllt im wesentlichen die PS 1.0-Specs, allerdings nicht vollständig, so kann er u. a. nur bis zu drei Texturen pro Pass samplen. Die Spec wurde dann wie wir wissen auf 4 Texturen raufgesetzt.

reunion
2006-05-04, 14:53:05
Coda[/POST]']Blödsinn. Das Ding hat nicht die geringsten Anzeichen von programmierbarer Logik.

Die Specs für DX sind ja nicht in Stein gemeißelt, sondern werden maßgeblich durch die IHVs bestimmt. AFAIK hätte R100 ursprünglich vollständig DX8.0-compliant werden sollen, durch die Verspätung von NV20/Rampage wurde allerdings Rampage als kleiner gemeinsamer Nenner gewählt, wodurch für R100 nur noch DX7 blieb. IIRC konnte R100 bis zu 3 Texturen pro Pass berechnen.

/Edit: wiedermal zu spät. ;(

deekey777
2006-05-04, 14:56:26
reunion[/POST]']Die Specs für DX sind ja nicht in Stein gemeißelt, sondern werden maßgeblich durch die IHVs bestimmt. AFAIK hätte R100 ursprünglich vollständig DX8.0-compliant werden sollen, durch die Verspätung von NV20/Rampage wurde Rampage allerdings als kleiner gemeinsamer Nenner gewählt, wodurch für R100 nur noch DX7 blieb. IIRC konnte R100 zB bis zu 3 Texturen pro Pass berechnen, und hatte EMBM,...

/Edit: wiedermal zu spät. ;(
Wenn du nur wüßtest, wie lange ich gebraucht habe, dieses Zitat zu finden (war eine Antwort auf eine PN).

Gast
2006-05-04, 15:47:54
reunion[/POST]'] durch die Verspätung von NV20/Rampage wurde allerdings Rampage als kleiner gemeinsamer Nenner gewählt, (

Soll da irgendeine Logik dahinterstecken oder wie kommst du drauf, dass durch Chipverspätungen die DX-Spezifikationen hochgesetzt werden?

robbitop
2006-05-04, 15:52:39
Coda[/POST]']Blödsinn. Das Ding hat nicht die geringsten Anzeichen von programmierbarer Logik.
Inwiefern ist die nicht programmierbar? Die Combiner beherrschen AFAIK immerhin MUL/ADD/DP3 für das Integerformat.

aths
2006-05-04, 16:01:39
Coda[/POST]']R100 war doch kein DX8-Chip :|

Oder was meinst du damit?Der R100 war dichter an DX8 als NV15. R100 konnte bereits dependent reads und 3 Texturen pro Pass.

Coda[/POST]']Blödsinn. Das Ding hat nicht die geringsten Anzeichen von programmierbarer Logik.Zwischem dem Erstellen eines DX7-Multitexturing-Setups und dem Schreiben eines Pixelshaders 1.1 (oder 1.0) könnte man zwar die Grenze von "programmierbar" ziehen, muss man aber nicht.

betasilie
2006-05-04, 16:31:09
Ailuros[/POST]']Ja.
Ok, das ist schade. ... Dann bezog sich Aussage von ATI, dass R6xx das werden soll, was der XBox-Chip hätte sein sollen, wohl lediglich auf die Shaderunits.

Ailuros[/POST]']Basierend auf das was ATI oeffentlich und "off the record" zum Thema zum sagen hat, sind die Chancen weniger als "0". eDRAM ist und verbleibt unwirtschaftlich fuer den PC, weil man eben Unmengen davon brauchen wuerde fuer die konstant steigenden Aufloesungen die benutzt werden.
Nun, wenn das FB-Tiling effizient funktionieren würde bräuchte man bei entsprechend hoher Bandbreite keinesweg "Unmengen" an Speichervolumen, da die Bandbreite des eDRAM ein vielfaches dessen liefert, was für den FB benötigt wird.


Demirug[/POST]']Das entsprechenden Patent ist derzeit vollkommen nutzloss weil technisch nicht umsetzbar.
Ich dachte die Bitboys hätten mehrere Patente rund um die eDRAm Technolgie? Welches Patent meinst Du und was deckt das ab?

AFAIK haben die Bitboys ein vielversprechendes Patent gehabt zur Gatterkombination, was den Herstellungprozess erheblich verbessern soll. Infineon hat es zwar damals hingeschmissen, aber Infineon hatte wohl eher Probleme mit den logischen Einheiten.

Ailuros
2006-05-04, 22:15:36
betareverse[/POST]']Ok, das ist schade. ... Dann bezog sich Aussage von ATI, dass R6xx das werden soll, was der XBox-Chip hätte sein sollen, wohl lediglich auf die Shaderunits.

Bingo ;)


Nun, wenn das FB-Tiling effizient funktionieren würde bräuchte man bei entsprechend hoher Bandbreite keinesweg "Unmengen" an Speichervolumen, da die Bandbreite des eDRAM ein vielfaches dessen liefert, was für den FB benötigt wird.

Damit 4x MSAA in 1280*720 in die 10MB eDRAM von Xenos reinpassen braucht man 3 viewports oder macro tiles.

Aber:

Tiling mechanisms can operate in a number of ways. With immediate mode rendering (i.e. the pixels being rendered are for the same frame as the geometry being sent) it is never known what pixels the geometry is going to be mapped to when the commands begin processing. This is not known until all the vertex processing is complete, setup has occurred and each primitive is scan converted. So if you wanted to tile the screen with an immediate mode rendering system, the geometry may need to be processed, setup and then discarded if it is found not to relate to pixels that are to be rendered in the current buffer space. The net result here is that geometry needs to be recalculated multiple times for each of the buffers.

http://www.beyond3d.com/articles/xenos/index.php?p=05#tiled

Auf einer Console entscheiden eventuell die Entwickler wie und wann MSAA ueberhaupt zum Einsatz kommt und in dem Markt wird sich garantiert auch keiner beschweren wenn es mal wieder in einem Spiel ausfaellt.

Weder theoretische 30MB von eDRAM sind wirtschaftlich (angenommen die 10MB auf Xenos entsprechen ~70-80M Transistoren, einfach mal 3x und schon hat man ueber 200M Transistoren fuer genau was verplempert?), noch ist irgendeine merkwuerdige Idee von zahllosen viewports/macro tiles eine Loesung, schon gar nicht mit dem fettgedruckten oben.



Ich dachte die Bitboys hätten mehrere Patente rund um die eDRAm Technolgie? Welches Patent meinst Du und was deckt das ab?

AFAIK haben die Bitboys ein vielversprechendes Patent gehabt zur Gatterkombination, was den Herstellungprozess erheblich verbessern soll. Infineon hat es zwar damals hingeschmissen, aber Infineon hatte wohl eher Probleme mit den logischen Einheiten.

Man wird wohl einsehen koennen dass ATI die Boys nur fuer den PDA/mobilen Markt haben wollte oder? Vor wie vielen Jahren gaben die Boys die PC GPU Entwicklung auf?

Black-Scorpion
2006-05-04, 22:22:56
Ailuros[/POST]']Man wird wohl einsehen koennen dass ATI die Boys nur fuer den PDA/mobilen Markt haben wollte oder?
Dafür spricht auch diese News.
http://www.heise.de/newsticker/meldung/72718

loewe
2006-05-04, 22:41:01
Anonym_001[/POST]']Dafür spricht auch diese News.
http://www.heise.de/newsticker/meldung/72718

Na herzlichen Glückwunsch!

Nokia und ATI tun sich zusammen, um PowerVR Hardware bestmöglich zu nutzen! :biggrin:

Sunrise
2006-05-04, 22:43:29
betareverse[/POST]']Ok, das ist schade. ... Dann bezog sich Aussage von ATI, dass R6xx das werden soll, was der XBox-Chip hätte sein sollen, wohl lediglich auf die Shaderunits.
"Lediglich auf die Shaderunits" ist wohl etwas untertrieben, aber eDRAM beim Desktop-Ableger ist laut ATi "kein Weg, der dort ins Konzept passen würde".

betareverse[/POST]']Ich dachte die Bitboys hätten mehrere Patente rund um die eDRAm Technolgie? Welches Patent meinst Du und was deckt das ab?
Als Einstieg (http://patft1.uspto.gov/netacgi/nph-Parser?Sect1=PTO2&Sect2=HITOFF&p=1&u=%2Fnetahtml%2FPTO%2Fsearch-bool.html&r=2&f=G&l=50&co1=AND&d=PTXT&s1=BitBoys&OS=BitBoys&RS=BitBoys).

betareverse[/POST]']AFAIK haben die Bitboys ein vielversprechendes Patent gehabt zur Gatterkombination, was den Herstellungprozess erheblich verbessern soll. Infineon hat es zwar damals hingeschmissen, aber Infineon hatte wohl eher Probleme mit den logischen Einheiten.
Das Problem ist, dass eDRAM nicht gleich eDRAM ist (Infineons eDRAM unterscheidete sich von der aktuellen NEC-Umsetzung teilweise gravierend) und diese spezifischen Eigenheiten machen zu spezifische Patente (wenn sie denn existieren, da zu sehr Fab-/Prozess- und/oder allgemein die Umsetzung, gebunden, Infineon war damals der einzige "Partner") praktisch nutzlos. eDRAM war schon immer ein extrem heikles Thema, dessen sich nicht einmal TSMC annehmen will, die wiederum ihr "1-T SRAM" immer wieder hervorheben, da für mehrere Märkte sinnvoll.

Die Trennung Parent-Die und Daughter-Die bei Xenos ist sinnvoll, da sie relativ "flexibel" ist. Relativ wenig Logic in Verbindung mit eDRAM, auf dem gleichen Die, was wiederum zusichert, dass die Implementation im ASIC selbst auf ein möglichst unkritisches Minimum reduziert wird. Das Daughter-Die läuft aktuell mit NECs "UX6D"-Prozess, mit der Option, diesen Teil in Zukunft entsprechend zu shrinken "UX7LSD" (2007).

eDRAM ist in Verbindung mit PDAs/dem mobilen Markt eine Lösung, die mehr Sinn ergibt, hinsichtlich des Stromverbrauchs/StandBy.

Ailuros
2006-05-04, 22:50:06
Anonym_001[/POST]']Dafür spricht auch diese News.
http://www.heise.de/newsticker/meldung/72718

*ahem*

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4266013&postcount=77

Black-Scorpion
2006-05-04, 22:54:34
Ailuros[/POST]']*ahem*

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4266013&postcount=77
Sorry, habe ich nicht gesehen.

Ailuros
2006-05-04, 22:55:20
Sunrise[/POST]']
eDRAM ist in Verbindung mit PDAs/dem mobilen Markt eine Lösung, die mehr Sinn ergibt, hinsichtlich des Stromverbrauchs/StandBy.

Wie ich schonmal erwaehnte hat kein einziger Bitboys Design fuer den PDA/mobile Markt (von G1x bis G40) wenigstens einen Hauch an eDRAM.

Fuer Stromverbrauch/standby koennte man auch verschiedene Frequenzen und/oder clock domains verwenden und da eDRAM in diesem Fall sowieso hauptsaechlich fuer FSAA eingesetzt werden koennte, spart man sich am besten den Transistoren-Aufwand fuer andere Features oder greift dann eben gleich zu TBDR ;)

Ailuros
2006-05-04, 22:59:51
Anonym_001[/POST]']Sorry, habe ich nicht gesehen.

Keine Sorge passiert mir staendig ;) Die brennende Frage ist jetzt wohl fuer was sich Texas Instruments fuer die zweite Generation von PDA/mobile chips entschieden hat. Irgendwie hab ich aber das Gefuehl dass es TI lieber ist wenn sie mehr als nur eine IP- Lieferungsquellen haben. Dazu muss aber ATI erstmal IP fuer diesen Markt verkaufen und zweitens auch etwas konkurrenzfaehiges zumindest in FPGA Format anbieten. D.h. wenn sie IMG in der Zwischenzeit nicht schon ueberredet haben und mit der backwards Kompatibilitaet Fahne zu MBX gewedelt haben ;)

betasilie
2006-05-04, 23:01:20
Ailuros[/POST]']Bingo ;)




Damit 4x MSAA in 1280*720 in die 10MB eDRAM von Xenos reinpassen braucht man 3 viewports oder macro tiles.

Aber:

.

http://www.beyond3d.com/articles/xenos/index.php?p=05#tiled

Auf einer Console entscheiden eventuell die Entwickler wie und wann MSAA ueberhaupt zum Einsatz kommt und in dem Markt wird sich garantiert auch keiner beschweren wenn es mal wieder in einem Spiel ausfaellt.

Weder theoretische 30MB von eDRAM sind wirtschaftlich (angenommen die 10MB auf Xenos entsprechen ~70-80M Transistoren, einfach mal 3x und schon hat man ueber 200M Transistoren fuer genau was verplempert?), noch ist irgendeine merkwuerdige Idee von zahllosen viewports/macro tiles eine Loesung, schon gar nicht mit dem fettgedruckten oben.





Man wird wohl einsehen koennen dass ATI die Boys nur fuer den PDA/mobilen Markt haben wollte oder? Vor wie vielen Jahren gaben die Boys die PC GPU Entwicklung auf?
ok, ok, Du hast mich nun wirklich überzeugt. ;) ... Es ist halt nur so eine verführerische Vorstellung einen blitzschnellen FB zu haben, der keine Bandbreite vom eigentlichen Grafik-RAM-frisst.


Nachfrage:
Sehe ich das jetzt richtig? .... Ein XBox360-Spiel muss bei X vielen Tiles X mal die Gemoemetrie völlig neu berechnen? Ich meine dann ist es ja echt kein Wunder, dass die XBox Spiele entweder AAbieten und lowpoly sind, oder aber überwiegend garkein AA bieten und selbst da nicht durch Polygonüberfluss glänzen.

Wieso hat man denn dann so eine Lösung für die XBox360 gewählt, die so unperformant ist.

Sunrise
2006-05-04, 23:07:15
Ailuros[/POST]']Wie ich schonmal erwaehnte hat kein einziger Bitboys Design fuer den PDA/mobile Markt (von G1x bis G40) wenigstens einen Hauch an eDRAM.

Fuer Stromverbrauch/standby koennte man auch verschiedene Frequenzen und/oder clock domains verwenden und da eDRAM in diesem Fall sowieso hauptsaechlich fuer FSAA eingesetzt werden koennte, spart man sich am besten den Transistoren-Aufwand fuer andere Features oder greift dann eben gleich zu TBDR ;)
Der letzte Absatz war weniger auf die BitBoys (bzgl. deren Patente und aktuellen Designs) bezogen, sondern einfach nur noch als zusätzlicher Gedankenanstoß gedacht. Denn in diesem Markt hat der Stromverbrauch nochmal eine deutlich tragendere Rolle, als vielleicht im PC-Desktop-Sektor. Die PSP zeigt es ganz gut.

Womöglich wird durch den Kauf der BitBoys hier in Zukunft auch in diese Richtung gedacht, denn die Mitarbeiter arbeiten ja Hand in Hand, und falls eDRAM bei den zukünftigen Designs Sinn ergibt, sollte man es auch nutzen.

Vorstellbar sind hier mehrere Implementationen, und Stromspartechniken hören beim RAM natürlich auch nicht auf.

Ailuros
2006-05-05, 06:49:59
Sunrise[/POST]']Der letzte Absatz war weniger auf die BitBoys (bzgl. deren Patente und aktuellen Designs) bezogen, sondern einfach nur noch als zusätzlicher Gedankenanstoß gedacht. Denn in diesem Markt hat der Stromverbrauch nochmal eine deutlich tragendere Rolle, als vielleicht im PC-Desktop-Sektor. Die PSP zeigt es ganz gut.

Womöglich wird durch den Kauf der BitBoys hier in Zukunft auch in diese Richtung gedacht, denn die Mitarbeiter arbeiten ja Hand in Hand, und falls eDRAM bei den zukünftigen Designs Sinn ergibt, sollte man es auch nutzen.

Vorstellbar sind hier mehrere Implementationen, und Stromspartechniken hören beim RAM natürlich auch nicht auf.

Nach der Geruechte-muehle soll ATI (fuer NOKIA) G40 fuer die Zukunft als low-end Loesung verkaufen und ihren eigens entwickelten USC dann fuer high end. Hier soll aber nach Anzeichen das Ganze selbstaendig als IP verkauft werden und nicht im Rahmen der Integrierung in einem SoC eines grossen Semi Herstellers.

ATI's Schachzug hatte also zwei Ziele, die Bitboys/NOKIA Beziehung auszunutzen und die 40+ engineers von BB aufzunehmen. So optimisch klingt mir das obrige eigentlich nicht und da Nokia's Plaene in Hinsicht zu den Boys eher ein "back-up plan" war riecht es mir eher nach etwas aehnlichem. NOKIA soll also nach der obrigen These SoC ohne Grafik oder eventuell sogar ohne Audio einkaufen und ATI's IP noch selber extra integrieren. Und dabei wo sie immer noch nichts angekuendigt haben.

Wo jetzt G40 reinpassen soll da die dritte Generation von NOKIA S60 schon auf OMAP2420 basiert, ist mir natuerlich fremd.

***edit: wo hat die PSP eDRAM fuer FSAA oder besser gefragt wo genau ist jegliches antialiasing auf PSP?

Ailuros
2006-05-05, 07:04:30
betareverse[/POST]']ok, ok, Du hast mich nun wirklich überzeugt. ;) ... Es ist halt nur so eine verführerische Vorstellung einen blitzschnellen FB zu haben, der keine Bandbreite vom eigentlichen Grafik-RAM-frisst.

Bei Consolen ist das kein Problem da man ja sowieso nur auf maximal 720p zielt. Im PC Markt werden schon heute hoehere als 1600*1200 Aufloesungen benutzt.


Nachfrage:
Sehe ich das jetzt richtig? .... Ein XBox360-Spiel muss bei X vielen Tiles X mal die Gemoemetrie völlig neu berechnen? Ich meine dann ist es ja echt kein Wunder, dass die XBox Spiele entweder AAbieten und lowpoly sind, oder aber überwiegend garkein AA bieten und selbst da nicht durch Polygonüberfluss glänzen.

Wieso hat man denn dann so eine Lösung für die XBox360 gewählt, die so unperformant ist.

Sie ist ziemlich performant als Loesung nur muessen sich die Entwickler erstmal hinsetzen und mit den viewports als Anhaltspunkt Spiele entwickeln. Das war bis jetzt nicht der Fall; aber selbst dann wird sich jeglicher Entwickler entscheiden muessen ob er 4x,2x oder 1xAA am Ende benutzen wird.

So tragisch ist das Ganze eigentlich ueberhaupt nicht auf Xenos IMO; das Ding hat mehr Chancen MSAA in zukuenftigen Spielen zu sehen als PS3.

Erstens ist das Ganze viel zu umstaendlich fuer PC Spiele (ach ja stell Dir mal vor R6xx kommt mit eDRAM an und NVIDIA mit normalem DDR; jetzt zeig mir mal wer und wieso alle Entwickler auf Ansporn fuer "tiling" ueberreden wuerde) und zweitens reichen 10MB bei weitem nicht aus, selbst mit tiling/viewports. Im Fall von Xenos eDRAM sind die 10MB schon geschaetzte 70-80M Transistoren; selbst wenn es nur um um so viel Transistoren handeln wuerde koennte man sie weit besser einsetzen als fuer eDRAM.

Die kommenden D3D10 GPUs brauchen hauptsaechlich einen sehr grossen ALU-Leistungsschub; an Bandbreite mit dem Advent von GDDR4 wird es mit Sicherheit nicht mangeln.

r@h
2006-05-06, 08:07:47
aths[/POST]']Im Gegenteil, der war zu früh, wenn man sich anguckt, wann DX8 endlich kam.
Wie man sich auch immer die Fakten zurecht 'drehen' mag...

OK, für den R100 kam DX8 zu spät.
Weil? Ach ja... DX8 dann 'mehr' verlangte, als der R100 zu leisten vermag.

Wenn man nun die Geschichte weiter 'denkt' und die Situation R300 vs. NV30 betrachtet:
Gleiche Situation... der R300 konnte die ursprüngliche DX9-Spezifikation nicht erfüllen, nur hat diesmal M$ die Specs einfach herunter gesetzt und damit den NV30 'deklassiert' und ihn quasi dafür 'bestraft', dass dieser die volle Präzision geliefert hat.

Nur gab es ja jetzt den Deal ATI's mit M$ für die neue XBox...
..."ein Schelm, wer dabei böses denkt!"
:D

Die Bildqualität war in Ordnung, schon beim R100. Hab ich mit eigenen Augen gesehen. R200 hatte für Farboperationen dann eine höhere Präzision als die Fixpoint-Farboperationen noch im NV35. Jaha, das AF war nicht besonders hochwertig, das Antialiasing recht langsam – aber wollen wir uns gerade die Sachen so rauspicken, dass am Ende das gewünschte Ergebnis herauskommt oder eine umfassendere Betrachtung? Pixel Shader 1.4 erlaubt z. B. in Max Payne 2 bessere Effekte – sicher auch ein Baustein der Bildqualität.
In einem Game?
Ist das Dein ernst?
:confused:

Solche Effekte bezahlen die IHVs einfach... oder implementieren sie gleich selbst.
(siehe auch die ersten Versionen der Source-Engine)

Und nicht nur das AF war "nicht besonders hochwertig", sondern selbst beim ganz normalen trilinearen Filter gab es nur Müll. Multisampling AA wurde 'versprochen', wurde aber nach Erscheinen der Grafikkarten (und der zugehörigen ersten Treiber) gestrichen. Blieb nur nur Supersampling AA, welches zwar gut, aber grottenlangsam war. Sorry, aber in sachen Bildqualität versagte der R200 vollkommen.

Stimmt auch wieder nicht. R300 zeigt deutlich seine Verwandschaft zum R200.
Und was soll das Eine mit dem Anderen zu tun haben?
Klar sind Verwandschaften da... aber der R300 war sehr viel mehr.
Ich würde sogar so weit gehen, zu sagen: Es ist mehr 'neu', als Altes 'übernommen' wurde!

Das ist keine Frage der Meinung, sondern von Fakten. Seit der Original-Radeon, also dem R100, hat ATI gute und im Vergleich zu NV mindestens konkurrenzfähige, öfters sogar bessere Spieler-Chips anzubieten.
Die besseren Universal-Chips hat allerdings nVidia gebracht.

Noch immer sucht man bei neuesten Chips von ATI ähnlich geniale MultiMon-Fähigkeiten, die nView schon seit dem NV30 bietet. Auch die bessere Filterqualität kommt seit jeher von nVidia (mal von dem HQ-AF der neuesten ATI-Generation abgesehen). Auch das 'brauchbarere' AA ist von nVidia gekommen... immer, selbst heute, oder bietet ATI mittlerer Weile AA-Mischmodi an? Und auch beim transparenten AA der beiden Kontrahenten liegt noch immer nVidia vorn.

Sorry, aber eine "Überlegenheit" von ATI in Sachen Spieler-Chips kann ich beim besten Willen nicht erkennen. Klar, wenn man es auf reine Leistung reduziert und damit bildverbessernde Möglichkeiten eliminiert mag es Situationen gegeben haben, wo ATI vorne lag... aber einen generellen Anspruch hat das nicht. Und in Sachen Features gab es von ATI immer nur das Notwendigste (teilweise weniger ;-)... technologisch waren meist die nVidia-Karten vorn... wenn man mal von den unnützen PS1.4 des R200 absieht... wie auch diesem unsäglichen "TreuForm" (@Razor ;-).

Und nochmal zum R300 (weil das sicher als Argument gekommen wäre/wird)... was wäre eigentlich passiert, wenn dieser die DX9 (SM2) Spezifikationen nicht erfüllt hätte und damit 'nur' (ein sehr schneller ;-) DX8-Chip geworden wäre? Nur ein Gedankengang...

Aber die Realität ist ja das, was sich aus der damaligen Situation entwickelte, gell?
;)

Razor

P.S.: und vom OT in die Gegenwart dieses Threads zu wechseln... die neueste Verlautbarung von ATI hinsichtlich der Kooperation mit Nokia dürfte klar machen, worum es bei dem Bitboys-Deal eigentlich ging... richtig... ATI hat sich ganz einfach bei Nokia 'eingekauft'.

Ailuros
2006-05-06, 08:35:06
ATI hatte stets Beziehungen zu NOKIA, obwohl meistens nicht alles von den Medien erwaehnt wird.

Nevertheless, the deals may not have any relations to each other, as ATI already had some relations with Nokia.

http://www.xbitlabs.com/news/mobile/display/20060504074203.html

Was heisst ueberhaupt "eingekauft"? Nach der These wuerde sich NOKIA nicht nach einem Giganten wie ATI umdrehen und mit ihnen zusammenarbeiten, aber es wird mit einer kleinen IP Firma wie Bitboys so aus dem nichts erreicht oder was?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4269196&postcount=100

Ich erwaehnte zwar selber dass ATI im relativen Sinn die Bitboys/NOKIA Beziehung ausnutzt, aber das soll auch wieder nicht heissen dass eine solche Zusammenarbeit ohne den Aufkauf von BB nicht moeglich gewesen waere, und das nur um Missverstaendnissen zu entgehen.

G40 war das OGL_ES2.0 Angebot von BB fuer die zweite Generation von PDA/mobilen chips und nach allen Indizien wird ATI diesen als entry level/low end chip anbieten. Und das sagt mir persoenlich dass ihr eigener chip (mit hoechster Warhrscheinlichkeit ein USC) der mainstream und high end bedienen soll um einiges faehiger und feature-reicher ist.

NOKIA wollte einen back-up Plan und investierte ein paar Millionen in Bitboys und ATI brauchte etwas mehr Personal. Mit dem Vertrag bekam ATI ~43 engineers und NOKIA verliert ihre Millionen nicht. Die eine Hand reibt die andere und beide das Gesicht.

Die MMs sollen von Qualcomm hergestellt werden, wobei selbst von der ersten Imageon Generation (afaik) noch kein applications processor erschienen ist. Vertraege und Buendnisse gibt es in diesen Maerkten endlose, die Frage ist was am Ende dabei raus kommt.

In der Zwischenzeit:

http://www.prnewswire.com/cgi-bin/stories.pl?ACCT=104&STORY=/www/story/02-10-2006/0004279096&EDATE=

Und afaik 3rd generation S60 = OMAP2.

Razor
2006-05-06, 11:27:11
ATI hat sich ja nicht nur mit dem Kauf der Bitboys 'eingekauft', sondern auch mit der Verpflichtung, Manpower in Form von Entwicklung und Relationships einzubringen... und das wohl für einen recht langen Zeitraum.

Nokia selbst hätte wohl weit davon abgesehen, einen eigenen Media-Prozessor für die mobilen Teilchen zu entwickeln und auch die Bitboys selber wären dafür "zu klein" gewesen, dem Anspruch auf permanentem Support und Weiterentwicklung, wie auch um der Generierung von Standards gerecht zu werden. Mit ATI "im Rücken", sieht das allerdings schon gaaaanz anders aus... und ATI würde (wie schon erwähnt) endlich in einem Markt Fuss fassen, der bis dato für ATI keiner war.

Allerdings begibt sich Nokia damit auf eine sehr gefährliche Schiene... schließlich haben die Handy-Hersteller bis dato immer das für neue Mobilchen genommen, was am Markt verfügbar war und auch 'paßte' (hinsichtlich des Zielklientels). Jetzt müssen sie quasi ihre eigene Lösung favorisieren... das könnte die Vormachtstellung Nokias ins Wanken bringen!

Razor

Coda
2006-05-06, 12:42:17
aths[/POST]']Zwischem dem Erstellen eines DX7-Multitexturing-Setups und dem Schreiben eines Pixelshaders 1.1 (oder 1.0) könnte man zwar die Grenze von "programmierbar" ziehen, muss man aber nicht.
NV20-Pixelshader waren für mich auch nicht programmierbar. Ich dachte ihr meint dass R100 bereits programmierbare ALUs ala R200 gehabt haben soll.

Black-Scorpion
2006-05-06, 14:50:06
r@h[/POST]']Wie man sich auch immer die Fakten zurecht 'drehen' mag...

OK, für den R100 kam DX8 zu spät.
Weil? Ach ja... DX8 dann 'mehr' verlangte, als der R100 zu leisten vermag.

Wenn man nun die Geschichte weiter 'denkt' und die Situation R300 vs. NV30 betrachtet:
Gleiche Situation... der R300 konnte die ursprüngliche DX9-Spezifikation nicht erfüllen, nur hat diesmal M$ die Specs einfach herunter gesetzt und damit den NV30 'deklassiert' und ihn quasi dafür 'bestraft', dass dieser die volle Präzision geliefert hat.

Nur gab es ja jetzt den Deal ATI's mit M$ für die neue XBox...
..."ein Schelm, wer dabei böses denkt!"
:D
Du glaubst doch nicht ernsthaft das der NV30 besser gewesen wäre wenn er nur mit FP32 gerechnet hätte?

Ailuros
2006-05-07, 08:30:04
Razor[/POST]']ATI hat sich ja nicht nur mit dem Kauf der Bitboys 'eingekauft', sondern auch mit der Verpflichtung, Manpower in Form von Entwicklung und Relationships einzubringen... und das wohl für einen recht langen Zeitraum.

Ich verstehe schon was Du meinst, aber es gibt ein paar Kleinigkeiten die nicht allen bekannt sind. Erstens hat ATI einen grossen Vertrag mit Qualcomm (von denen wie gesagt noch kein Imageon basierender applications processor aufgetaucht ist) und wenn NOKIA und ATI etwas selber herstellen werden dann aus dem Hause Qualcomm.

Nokia selbst hätte wohl weit davon abgesehen, einen eigenen Media-Prozessor für die mobilen Teilchen zu entwickeln und auch die Bitboys selber wären dafür "zu klein" gewesen, dem Anspruch auf permanentem Support und Weiterentwicklung, wie auch um der Generierung von Standards gerecht zu werden. Mit ATI "im Rücken", sieht das allerdings schon gaaaanz anders aus... und ATI würde (wie schon erwähnt) endlich in einem Markt Fuss fassen, der bis dato für ATI keiner war.

Nochmal NOKIA ist TI's Kunde. Du hasst sicher ein gutes Verstaendnis was es heisst in solchen Maerkten einer der groessten Semi Hersteller zu sein und wie Texas Instruments unter anderem die Preise runterdruecken kann durch eben enorm grosse Verkaufsvolumen. Deshalb Vorsicht: abwarten und Tee trinken wie TI darauf reagieren wird.

Was jetzt ATI betrifft haben sie mehr ihrer Imageon chips integriert bekommen als NVIDIA und Bitboys zusammen. Wie gesagt ausser einem LCD controller hat NEC nichts anderes afaik integriert von Bitboys IP. Mit ein paar Lizenzen hat man weder ein besonderes Einkommen (da die royalties fuer hohe Volumen fehlen) und besonderer Erfolg heisst das nun auch wieder nicht was BB betrifft.

Allerdings begibt sich Nokia damit auf eine sehr gefährliche Schiene... schließlich haben die Handy-Hersteller bis dato immer das für neue Mobilchen genommen, was am Markt verfügbar war und auch 'paßte' (hinsichtlich des Zielklientels). Jetzt müssen sie quasi ihre eigene Lösung favorisieren... das könnte die Vormachtstellung Nokias ins Wanken bringen!

Razor

Ahhh jetzt kommen wir uns ein klein bisschen naeher ;) NOKIA wird garantiert nichts vornehmen was ihr Geschaeft generell gefaerden wuerde; leider sind sie viel zu abhaengig von TI und sie moegen zwar versuchen Sicherheits-Alternativen zu sichern oder sich von dieser Abhaengigkeit etwas zu loesen aber so leicht wird es nun auch wieder nicht sein.

Es gibt stets diverse Ankuendigungen wo X oder Y zusammenarbeitet. Beispiel waere eine nicht so alte Ankuendigung dass Intel und NVIDIA fuer eine Developer-Platform fuer GoForce 5500 zusammenarbeiten. Was verkauft und vermarktet aber Intel hauptsaechlich ausser 2700G und allen zukuenftigen Loesungen die von der gleichen IP Quelle kommen?

***edit: ich haette es fast vergessen; wer hat das feingedruckte hier genau durchgelesen hm? ;)

Important Information Regarding Forward-looking Statements
Certain statements in this news release, including but not limited to the benefits that will result from a long-term strategic relationship with Nokia, the delivery of dedicated tools chain and SDK for developers in the fall of 2006, and the effect of the ATI's and Nokia's long-term strategic relationship will have in the mobile market, may be considered "forward-looking". Such forward-looking statements are based on current expectations and, accordingly, entail various risks and uncertainties. Risks that could cause actual results to differ materially from such forward-looking statements include introduction of new products by our competitors, rapid and frequent changes in technology, consumer demand for multimedia mobile products, and the successful and timely development of multimedia products for the mobile market. We therefore cannot provide any assurance that such forward-looking statements will materialize. We assume no obligation to update or revise any forward-looking statement, whether as a result of new information, future events or any other reason. Additional information concerning risks and uncertainties affecting our business and other factors that could cause actual results to differ materially from any forward-looking statement is contained in our filings with Canadian and U.S. securities regulatory authorities, including our 2005 Annual Information Form and 2005 Annual Report filed on SEDAR at www.sedar.com. Our Form 40-F and other filings we make with the U.S. Securities and Exchange Commission are available on EDGAR at www.sec.gov.

http://press.nokia.com/PR/200605/1049032_5.html

ROFL :D

Razor
2006-05-07, 09:13:08
Ailuros[/POST]']Ich verstehe schon was Du meinst, aber es gibt ein paar Kleinigkeiten die nicht allen bekannt sind. Erstens hat ATI einen grossen Vertrag mit Qualcomm (von denen wie gesagt noch kein Imageon basierender applications processor aufgetaucht ist) und wenn NOKIA und ATI etwas selber herstellen werden dann aus dem Hause Qualcomm.
Mir ging es eigentlich eher um die Entwicklung... von einem Hersteller habe ich nicht gesprochen.
Wenn Du also sagst, dass ein von ATI und Nokia entwickeltes Design dann von Qualcomm hergestellt werden wird, mag das so sein.

Nochmal NOKIA ist TI's Kunde. Du hasst sicher ein gutes Verstaendnis was es heisst in solchen Maerkten einer der groessten Semi Hersteller zu sein und wie Texas Instruments unter anderem die Preise runterdruecken kann durch eben enorm grosse Verkaufsvolumen. Deshalb Vorsicht: abwarten und Tee trinken wie TI darauf reagieren wird.
Warum sollen hier nicht Synergieeffekte zu erzielen sein?

Was jetzt ATI betrifft haben sie mehr ihrer Imageon chips integriert bekommen als NVIDIA und Bitboys zusammen. Wie gesagt ausser einem LCD controller hat NEC nichts anderes afaik integriert von Bitboys IP. Mit ein paar Lizenzen hat man weder ein besonderes Einkommen (da die royalties fuer hohe Volumen fehlen) und besonderer Erfolg heisst das nun auch wieder nicht was BB betrifft.
Ob man da wirklich Vergleiche zulassen kann, mag mal dahin gestellt sein.
In welchen Modellen bereits nVidia MPC's verbaut wurden, wurde hier ja schon dargelegt.
Allerdings habe ich noch keine Modelle genannt bekommen, die mit "Imageon chips" ausgestattet wurden...
...für was sind diese Chips eigentlich zuständig?

Sprechen wir hier über das gleiche Tätigkeitsfeld?

Ahhh jetzt kommen wir uns ein klein bisschen naeher ;) NOKIA wird garantiert nichts vornehmen was ihr Geschaeft generell gefaerden wuerde; leider sind sie viel zu abhaengig von TI und sie moegen zwar versuchen Sicherheits-Alternativen zu sichern oder sich von dieser Abhaengigkeit etwas zu loesen aber so leicht wird es nun auch wieder nicht sein.
Vielleicht ist das auch gar nicht das erklärte Ziel...

Es gibt stets diverse Ankuendigungen wo X oder Y zusammenarbeitet. Beispiel waere eine nicht so alte Ankuendigung dass Intel und NVIDIA fuer eine Developer-Platform fuer GoForce 5500 zusammenarbeiten. Was verkauft und vermarktet aber Intel hauptsaechlich ausser 2700G und allen zukuenftigen Loesungen die von der gleichen IP Quelle kommen?
Gute Frage...

***edit: ich haette es fast vergessen; wer hat das feingedruckte hier genau durchgelesen hm? ;)
Oh ha... da hat wohl jemand kalte Füsse bekommen!
Aber im Prinzip bestätigt dies alle zuvor genannten Vermutungen...
;)

Razor

Ailuros
2006-05-07, 09:36:38
Razor[/POST]']
Warum sollen hier nicht Synergieeffekte zu erzielen sein?

Synergie-effekt inwiefern?


Ob man da wirklich Vergleiche zulassen kann, mag mal dahin gestellt sein.
In welchen Modellen bereits nVidia MPC's verbaut wurden, wurde hier ja schon dargelegt.
Allerdings habe ich noch keine Modelle genannt bekommen, die mit "Imageon chips" ausgestattet wurden...
...für was sind diese Chips eigentlich zuständig?

Imageon ist generell ein Voodoo2+ artiger chip in Kleinformat und AR1x/GoForce ein TNT+ Ableger; beide sind generell eher fuer multimedia-Schnickschnack geeignet als alles andere.

Ati's homesite beantwortet Deine Frage:

http://www.ati.com/products/handheld/onboard.html

Vielleicht ist das auch gar nicht das erklärte Ziel...

NOKIA hat Vertraege/Beziehungen zu mehreren IHVs und Herstellern. Ihre kommenden 3D Handies basieren momentan alle auf TI OMAP 2.

Gute Frage...

Intel 2700G = MBX Lite / IMG
Intel 2x00X = MBX + VGP / IMG
Intel ??? = SGX / IMG (lizenziert seit Mai 2005, noch nicht integriert)


Oh ha... da hat wohl jemand kalte Füsse bekommen!
Aber im Prinzip bestätigt dies alle zuvor genannten Vermutungen...
;)

Razor

;) :biggrin:

Razor
2006-05-07, 09:41:37
Anonym_001[/POST]']Du glaubst doch nicht ernsthaft das der NV30 besser gewesen wäre wenn er nur mit FP32 gerechnet hätte?
Soll das jetzt eine ernsthafte Frage Deinerseits sein?
:confused:

Der NV30 war seiner Zeit weit voraus... zu weit, wie sich dann ja heraus gestellt hat.

Und die Frage, ob etwas "besser" ist, wenn es zwingend benötigte Features unterstützt, muss ich Dir doch wohl nicht wirklich beantworten, oder? Schau' Dir doch einfach die Realität bei ATI an... wie lange hätte es wohl gedauert, bis von ein ATI ein Chip (erst ohne, später mit entsprechender Lesitungsfähigkeit) gekommen wäre, der volle Präzision gebracht hätte? Die Frage kannst Du Dir selbst beantworten...

Fakt ist, dass keine Features - erst recht nicht solche, die massiv Transistoren kosten - integriert werden, wenn es dafür kein Anwendungsgebiet gibt. Warum hätte nVidia volle Präzision bringen sollen, wenn dies nicht gefordert ist? Warum dann der umständliche Weg, diese Verschwendung an Transistoren mit einem sehr komplizierten Mechanismus auch noch abwärtskompatibel zu halten?

Und wenn man dann noch bedenkt, wie lange es dauert, einen Chip zu entwickeln... dann müssen Insider-Informationen im Spiel gewesen sein, die es ATI ermöglichten, einen Chip zu entwickeln, der - wohl wissend - eben nicht die ursprünglichen Erfordernissen von DirectX9 entsprach, schlußendlich aber exakt (!) den (geänderten!) Mindestanforderungen Rechnung trug.

Jetzt noch ein kleines 1x1 bezüglich der XBox - M$ war von nVidia regelrecht angepisst, weil sie sich erdreisteten genau das zu verlangen, was ursprünglich vereinbart war... haben sich also dem "alles beherrschenden" und "übermächtigen" Micrschrott nicht gebeugt, als es darum ging, vertraglich festgeschriebene Konditionen nachträglich (!) zu verändern - zeitgleich mit der Chip-Generation NV2X(A für die XBox ;-). So hat man denn mit der XBox2(360) einen Deal - der im übrigen gleich von Vornherein die Problematik mit dem vorhierigen ausgeschlossen hat, indem von ATI nur das Design geliefert hat, die Chips aber nun von M$ zur Herstellung beauftragt wurden und damit produzierte und verkaufte Chips nicht ATi zuzuschreiben sind - abgeschlossen, der ATI zwar nicht viel einbrachte, aber auf der anderen Seite unglaubliche "Vorteile" mit sich brachte... M$ konnte nVidia einen "Denkzettel" verpassen und ATI mit dem R300 glänzen.

Mal schauen, ob das mit DirectX10 genauso laufen wird...

Solche "Insider-Geschäfte" finde einfach zum Kot..n und letztlich schaden solche Sachen den Consumern.
Allerdings hat es den Markt 'etwas' aufgelockert... nur sollte es nicht so weiter gehen.
(sonst müssen wir bald wieder über den Begriff "Technologiebremse" diskutieren ;-)

Ein bischen viel der Antwort - ich weiß - nur lang mir etwas daran, diese Geschichte nochmal umfassend darzustellen, da hier offenbar wichtige Grundlagen immer wieder "vergessen" werden.

Insofern abschließend nochmal die - zugegebener maßen provokante - Frage:
"Was wäre geschehen, wenn der R300 nur ein (sehr schneller ;-) DX8 Chip gewesen wäre?"

...trotz allem, ist das hier aber doch recht OT - schließlich ging es ATI bei dem Bitboys Deal vermutlich (mit immer mehr erhärtenden Indizien) einzig und allein um den Mobilephone-Markt, der zwar auch mit "Grafikchips" zu tun hat, aber weniger mit solchen, die wir favorisieren. Schließlich begeben sich diese gerade mal auf uraltes DX7-Niveau... wenn überhaupt.

Razor

Winter[Raven]
2006-05-07, 09:48:06
Razor[/POST]']Soll das jetzt eine ernsthafte Frage Deinerseits sein?
:confused:

Der NV30 war seiner Zeit weit voraus... zu weit, wie sich dann ja heraus gestellt hat.

Und die Frage, ob etwas "besser" ist, wenn es zwingend benötigte Features unterstützt, muss ich Dir doch wohl nicht wirklich beantworten, oder? Schau' Dir doch einfach die Realität bei ATI an... wie lange hätte es wohl gedauert, bis von ein ATI ein Chip (erst ohne, später mit entsprechender Lesitungsfähigkeit) gekommen wäre, der volle Präzision gebracht hätte? Die Frage kannst Du Dir selbst beantworten...

Fakt ist, dass keine Features - erst recht nicht solche, die massiv Transistoren kosten - integriert werden, wenn es dafür kein Anwendungsgebiet gibt. Warum hätte nVidia volle Präzision bringen sollen, wenn dies nicht gefordert ist? Warum dann der umständliche Weg, diese Verschwendung an Transistoren mit einem sehr komplizierten Mechanismus auch noch abwärtskompatibel zu halten?

Und wenn man dann noch bedenkt, wie lange es dauert, einen Chip zu entwickeln... dann müssen Insider-Informationen im Spiel gewesen sein, die es ATI ermöglichten, einen Chip zu entwickeln, der - wohl wissend - eben nicht die ursprünglichen Erfordernissen von DirectX9 entsprach, schlußendlich aber exakt (!) den (geänderten!) Mindestanforderungen Rechnung trug.

Jetzt noch ein kleines 1x1 bezüglich der XBox - M$ war von nVidia regelrecht angepisst, weil sie sich erdreisteten genau das zu verlangen, was ursprünglich vereinbart war... haben sich also dem "alles beherrschenden" und "übermächtigen" Micrschrott nicht gebeugt, als es darum ging, vertraglich festgeschriebene Konditionen nachträglich (!) zu verändern - zeitgleich mit der Chip-Generation NV2X(A für die XBox ;-). So hat man denn mit der XBox2(360) einen Deal - der im übrigen gleich von Vornherein die Problematik mit dem vorhierigen ausgeschlossen hat, indem von ATI nur das Design geliefert hat, die Chips aber nun von M$ zur Herstellung beauftragt wurden und damit produzierte und verkaufte Chips nicht ATi zuzuschreiben sind - abgeschlossen, der ATI zwar nicht viel einbrachte, aber auf der anderen Seite unglaubliche "Vorteile" mit sich brachte... M$ konnte nVidia einen "Denkzettel" verpassen und ATI mit dem R300 glänzen.

Mal schauen, ob das mit DirectX10 genauso laufen wird...

Solche "Insider-Geschäfte" finde einfach zum Kot..n und letztlich schaden solche Sachen den Consumern.
Allerdings hat es den Markt 'etwas' aufgelockert... nur sollte es nicht so weiter gehen.
(sonst müssen wir bald wieder über den Begriff "Technologiebremse" diskutieren ;-)

Ein bischen viel der Antwort - ich weiß - nur lang mir etwas daran, diese Geschichte nochmal umfassend darzustellen, da hier offenbar wichtige Grundlagen immer wieder "vergessen" werden.

Insofern abschließend nochmal die - zugegebener maßen provokante - Frage:
"Was wäre geschehen, wenn der R300 nur ein (sehr schneller ;-) DX8 Chip gewesen wäre?"

...trotz allem, ist das hier aber doch recht OT - schließlich ging es ATI bei dem Bitboys Deal vermutlich (mit immer mehr erhärtenden Indizien) einzig und allein um den Mobilephone-Markt, der zwar auch mit "Grafikchips" zu tun hat, aber weniger mit solchen, die wir favorisieren. Schließlich begeben sich diese gerade mal auf uraltes DX7-Niveau... wenn überhaupt.

Razor

Amen!

Ailuros
2006-05-07, 09:48:56
Imageon/GoForce = ~DX6.0

Uebrigens:

Nokia doesn’t use ATI processors in its phones and won’t say if it plans to in the future, Stathonikos said. Nokia commonly uses chips from Texas Instruments, among others. Products and capabilities developed using the environment that ATI and Nokia create can run on a variety of phones, not only handsets with ATI chips, Stathonikos said.

http://www.cio.com/blog_view.html?CID=20817

Razor
2006-05-07, 09:52:24
Ailuros[/POST]']Synergie-effekt inwiefern?
OK, ist vielleicht etwas hoch gegriffen... ;)
Aber vielleicht könnte man TI ja doch mit einbeziehen.
Allerdings wüsste ich jetzt auch nicht so recht, wie das vonstatten gehen soll.

Imageon ist generell ein Voodoo2+ artiger chip in Kleinformat und AR1x/GoForce ein TNT+ Ableger; beide sind generell eher fuer multimedia-Schnickschnack geeignet als alles andere.

Ati's homesite beantwortet Deine Frage:

http://www.ati.com/products/handheld/onboard.html
Tjo... Motorola scheint ja gut dabei!

Allerdings wollte ich mal schauen, was es mit dem Samsung SPH-V7800 auf sich hat, da es das erste Handy zu sein scheint, welches eine vollständige Digital-Camera implementiert... nur habe ich dazu NICHTS auf den Samsung-Seiten gefunden. Heißt das im Umkehrschluss, dass ATI hier Geräte nennt, die noch nicht einmal von den Herstellern angekündigt wurden? Oder "fehlt" hier auf den Samsung-Seiten einfach was? Hmmm...

NOKIA hat Vertraege/Beziehungen zu mehreren IHVs und Herstellern. Ihre kommenden 3D Handies basieren momentan alle auf TI OMAP 2.
Klar... und derzeit bestehende Verträge bricht man auch nicht.
Wäre ja auch wirtschaftlicher Unsinn...

Intel 2700G = MBX Lite / IMG
Intel 2x00X = MBX + VGP / IMG
Intel ??? = SGX / IMG (lizenziert seit Mai 2005, noch nicht integriert)
Danke.

Razor

robbitop
2006-05-07, 09:53:23
Selbst wenn DirectX 9 FX12 als Format akzeptiert hätte, wäre R300 immernoch deutlich schneller gewesen. Klar ... das wäre nicht mehr so drastisch gewesen. Aber mittels Shaderreplacement hat NV eh sehr oft FX12 eingesetzt.
Die schlechtere Granularität, das kleinere DDR Interface und das teurere (und bessere) AF taten in den Benches ihr Übriges. NV30 war im Sinne von Punch pro Transistor wirklich erbärmlich.
Das Ding war ein brauchbarer DX8 Chip, ein sehr schneller NV25, mit einem teuren und langsamen Shadercore als Technologiestudie.

Razor
2006-05-07, 09:58:54
Ailuros[/POST]']Imageon/GoForce = ~DX6.0
Nochmals danke.

Uebrigens:
http://www.cio.com/blog_view.html?CID=20817
Oh ha... offenbar hat TI schon reagiert.
Diese öffentliche "Ankündigung" seitens ATI scheint wohl mächtig nach hinten los gegangen zu sein!

Razor

Razor
2006-05-07, 10:05:28
robbitop[/POST]']Selbst wenn DirectX 9 FX12 als Format akzeptiert hätte, wäre R300 immernoch deutlich schneller gewesen. Klar ... das wäre nicht mehr so drastisch gewesen. Aber mittels Shaderreplacement hat NV eh sehr oft FX12 eingesetzt.
Es gibt nicht darum, die DX9-Spezifikationen jetzt nochmals zu senken, um dem NV30 doch noch eine Chance zu geben (obwohl man das eigentlich hätte tun müssen, wenn es um Gleichbehandlung gegangen waäre ;-), sondern darum, dass man von den ursprünglichen Erfordernissen abgegangen ist, um ATI einen (gewaltigen) Vorteil zu verschaffen.

Die schlechtere Granularität, das kleinere DDR Interface und das teurere (und bessere) AF taten in den Benches ihr Übriges. NV30 war im Sinne von Punch pro Transistor wirklich erbärmlich.
Das Ding war ein brauchbarer DX8 Chip, ein sehr schneller NV25, mit einem teuren und langsamen Shadercore als Technologiestudie.
Nur zäumt das das Pferd falsch herum auf.

Ja, auch der R300 wäre 'nur' ein (sehr schneller ;-) DX8-Chip gewesen... und mehr nicht. Der NV30 hingegen wäre zusätzlich DX9-Compliant gewesen und hätte so einen gewaltigen Technologie-Leap ggü. ATI dargestellt. ATI hätte diese Situation ganz sicher nicht so kommen lassen, also wussten sie um die noch nicht bekannte Reduktion der DX9-Spezifikation = Insider-Geschäft - und das ist eigentlich tödlich illegal (Technologie-Absprache in einem monopolisierten Raum).

Razor

robbitop
2006-05-07, 10:30:49
Razor[/POST]']

Ja, auch der R300 wäre 'nur' ein (sehr schneller ;-) DX8-Chip gewesen... und mehr nicht. Der NV30 hingegen wäre zusätzlich DX9-Compliant gewesen und hätte so einen gewaltigen Technologie-Leap ggü. ATI dargestellt. ATI hätte diese Situation ganz sicher nicht so kommen lassen, also wussten sie um die noch nicht bekannte Reduktion der DX9-Spezifikation = Insider-Geschäft - und das ist eigentlich tödlich illegal (Technologie-Absprache in einem monopolisierten Raum).

Razor
Dass R300 nicht DX9 Compliant werden sollte, stand IIRC nie zur Debatte. DX9 hat sich lediglich dahin gehindert, dass FP16 partial precision wurde. FX12 hingegen nicht. Und bereits FP24 zu FullPrecision wurde.
Wäre FP24 nur PP gewesen, wäre das trotzdem ein DX9 Chip gewesen.
Eines muss man schon sehen: R300 war ein Meisterstück der Ingenieurskunst. Hohe Füllrate, hohe Bandbreite, sehr hohe Rechenleistung und technologisch für 2002 auch sehr gut. Weiterhin besaß man damals schon 6xSGMSAA und die Möglichkeit AAA zu realisieren (auch wenn man es erst jetzt nutzte). Und das Ding war selbst zu Lebzeiten ein sehr gut nutzbarer SM2 Chip.

Ailuros
2006-05-07, 10:38:53
Razor[/POST]']OK, ist vielleicht etwas hoch gegriffen... ;)
Aber vielleicht könnte man TI ja doch mit einbeziehen.
Allerdings wüsste ich jetzt auch nicht so recht, wie das vonstatten gehen soll.

OMAP 2420 = MBX + VGP (VS1.1)
OMAP 2430 = MBX Lite + VGP (VS1.1)

OMAP 3430 = noch nicht angekuendigt

http://focus.ti.com/general/docs/wtbu/wtbuproductcontent.tsp?templateId=6123&navigationId=12643&contentId=14649


Allerdings wollte ich mal schauen, was es mit dem Samsung SPH-V7800 auf sich hat, da es das erste Handy zu sein scheint, welches eine vollständige Digital-Camera implementiert... nur habe ich dazu NICHTS auf den Samsung-Seiten gefunden. Heißt das im Umkehrschluss, dass ATI hier Geräte nennt, die noch nicht einmal von den Herstellern angekündigt wurden? Oder "fehlt" hier auf den Samsung-Seiten einfach was? Hmmm...

Nur Korea afaik. Wird irgendwann auch fuer US kommen; mehr weiss ich auch nicht.

Hier mal ein Link zu Samsung's diversen SoCs:

http://www.samsung.com/Products/Semiconductor/common/product_list.aspx?family_cd=MSC0102

Man sieht hier sogar einen Link zu NOKIA als O/S Sollution Partner ;)

Das Dingsbums ist deren MBX-Lite + VGP Loesung:

http://www.samsung.com/Products/Semiconductor/MobileSoC/ApplicationProcessor/ARM9Series/S3C2460/S3C2460.htm

Etwas bescheidener als OMAP2 von TI.

Fazit: Hersteller und Semis arbeiten mehr oder weniger zusammen und selten haben Semis nur eine einzige IP-Lieferungsquelle.

OT: von Samsung wird es ja auch bald dieses Monstrum geben:

http://www.infosyncworld.com/news/n/5879.html

Mir persoenlich sagen aber sture Megapixel Raten erstens nicht viel aus und zweitens sieht das Ding ekelhaft und unpraktisch aus.

Klar... und derzeit bestehende Verträge bricht man auch nicht.
Wäre ja auch wirtschaftlicher Unsinn...

Es gibt immer Platz fuer mehrere IP-Entwickler. Da aber grosse Semi Hersteller nicht auf marketing/PR-Geblubber basierend einkaufen und die auch genau einschaetzen koennen was fuer was genau gut genug ist, treffen sie ihre Entscheidungen nach vorsichtiger Einschaetzung der jeweiligen Angebote. Im Fall von ATI und der zweiten Generation von chips (ie OGL-ES 2.0) heisst es eher momentan "put up or shut up" ;) Semis wollen praesentable HW sehen....

Ailuros
2006-05-07, 10:48:56
Oh ha... offenbar hat TI schon reagiert.
Diese öffentliche "Ankündigung" seitens ATI scheint wohl mächtig nach hinten los gegangen zu sein!

Razor

Ich bezweifle dass TI irgendwie reagiert hat. NOKIA ist einfach extrem vorsichtig und versucht alle Optionen offen zu lassen (was auch absolut logisch klingt). Es geht hier sowieso um OGL-ES 2.0 chips und TI hat dafuer ihre Plaene noch nicht angekuendigt, noch hat ATI bis jetzt eine entsprechende Loesung praesentiert.

Razor
2006-05-07, 11:04:26
robbitop[/POST]']Dass R300 nicht DX9 Compliant werden sollte, stand IIRC nie zur Debatte. DX9 hat sich lediglich dahin gehindert, dass FP16 partial precision wurde. FX12 hingegen nicht. Und bereits FP24 zu FullPrecision wurde.
Wäre FP24 nur PP gewesen, wäre das trotzdem ein DX9 Chip gewesen.
Und wäre FP32 für voll Präzision Voraussetzung gewesen, hätte ATI eie primäre Voraussetzung für DX9 nicht erfüllt und hätte nur ein DX8 Chip gebracht.

Darauf wollte ich hinaus... schließlich hat man sich in ALLEN Belangen an ATI angepaßt und nVidia hier vollkommen aussen vor gelassen.

Der R300 war ein komplett auf FP24 ausgerichtetes Design, welches Angesicht der voraus gesetzten FP32 für volle Präzision (und damit einer zwingenden Basis für eine DX9-compliance) schon sehr 'merkwürdig' anmutet. Was für ein "Glück", dass M$ hier noch mal schnell was zugunsten ATI änderte... und ganz nebenbei ALLE Vorteile einer aus FP32 und der von nVidia entwickelten Technologie zur Abwärtskompatibilität - aussen vor gelassen hat. So wurde ein ursprünglich sehr guter DX8-Chip, der in seinen Features ("Technologiestudie" würde auch ich hier sagen ;-) aber schon DX9-Compliant war, zu einem DX9-Chip mit grottiger Performance. So wurde er entwickelt und so wollten es auch umgebenden Konditionen... die sich dann in "letzer Sekunde" veränderten und nVidia keinen Raum mehr für Änderungen ließen... und wer daraus den allergrößten Vorteil zog und ganz nebenbei auf alle Konditionen einging, die der Verantwortliche in einem anderen Sektor machte, wissen wir ja wohl hoffentlich noch alle.

Und das Ding war selbst zu Lebzeiten ein sehr gut nutzbarer SM2 Chip.
Weil M$ es so 'hingedreht' hat, ja.

Razor

Razor
2006-05-07, 11:16:43
Ailuros[/POST]']Nur Korea afaik. Wird irgendwann auch fuer US kommen; mehr weiss ich auch nicht.
Hmmm... schade.

Hier mal ein Link zu Samsung's diversen SoCs:
http://www.samsung.com/Products/Semiconductor/common/product_list.aspx?family_cd=MSC0102
Man sieht hier sogar einen Link zu NOKIA als O/S Sollution Partner ;)
Das Dingsbums ist deren MBX-Lite + VGP Loesung:
http://www.samsung.com/Products/Semiconductor/MobileSoC/ApplicationProcessor/ARM9Series/S3C2460/S3C2460.htm
Etwas bescheidener als OMAP2 von TI.
Fazit: Hersteller und Semis arbeiten mehr oder weniger zusammen und selten haben Semis nur eine einzige IP-Lieferungsquelle.
Öhm... mag ja alles sein, aber was hat das jetzt mit dem Samsung zu tun, welches ich meinte?

OT: von Samsung wird es ja auch bald dieses Monstrum geben:
http://www.infosyncworld.com/news/n/5879.html

Mir persoenlich sagen aber sture Megapixel Raten erstens nicht viel aus und zweitens sieht das Ding ekelhaft und unpraktisch aus.
So ein Monster-Objektiv und dann nur 3x optischer Zoom?
Da muss jemand was falsch verstanden haben...
(vermutlich meinte man das von mir erwähnte, was auch passen würde)

Auch könnte ich mir vorstellen, dass das Multi-Zoom-Objektiv (10x oder 12x?) abnehmbar ist...

Es gibt immer Platz fuer mehrere IP-Entwickler. Da aber grosse Semi Hersteller nicht auf marketing/PR-Geblubber basierend einkaufen und die auch genau einschaetzen koennen was fuer was genau gut genug ist, treffen sie ihre Entscheidungen nach vorsichtiger Einschaetzung der jeweiligen Angebote. Im Fall von ATI und der zweiten Generation von chips (ie OGL-ES 2.0) heisst es eher momentan "put up or shut up" ;) Semis wollen praesentable HW sehen....
ATI hat ja nicht für die Semi Hersteller aus "dem Nähkästchen" geplaudert, sondern für die Investoren... denn der Aktien-Kurs ist ja derzeit nicht so prall. Allerdings war dies wohl nicht mit Nokia abgesprochen... ;)

Ailuros[/POST]']Ich bezweifle dass TI irgendwie reagiert hat. NOKIA ist einfach extrem vorsichtig und versucht alle Optionen offen zu lassen (was auch absolut logisch klingt). Es geht hier sowieso um OGL-ES 2.0 chips und TI hat dafuer ihre Plaene noch nicht angekuendigt, noch hat ATI bis jetzt eine entsprechende Loesung praesentiert.
Hmmm... aber gerade wenn es um zukünftige (noch nicht releaste) Produkte geht, sollen Kooperationspartner aufmerksam sein. Aber klar... kann natürlich sein, dass Nokia diesen "Vorstoß" von ATI aus eigener Intention sehr schnell relativieren wollte.

Razor

Coda
2006-05-07, 11:21:32
Razor[/POST]']Weil M$ es so 'hingedreht' hat, ja.
Was wurde da "hingedreht"? Du siehst doch Gespenster. NV3x war einfach ein idiotisches Design, da kannst du Verschwörungstheorien erfinden so lang du willst.

FP24-only statt nur schnelles FX12 + Krüppel FP16/FP32 ist einfach unglaublich viel sinnvoller.

stickedy
2006-05-07, 11:29:39
Und man sollte dabei auch bedenken, dass sowohl SiS/XGI als auch S3 Graphics FP24 benutzt haben. Und diese Firmen hatten ebenfalls Anteil an den DirectX-Specs

Razor
2006-05-07, 11:41:00
stickedy[/POST]']Und man sollte dabei auch bedenken, dass sowohl SiS/XGI als auch S3 Graphics FP24 benutzt haben. Und diese Firmen hatten ebenfalls Anteil an den DirectX-Specs
Die allerdings kamen erst, als die finalen Spezifikationen schon laaaange fest standen.

Razor

Coda
2006-05-07, 11:42:52
Das kannst du doch gar nicht wissen. SiS hatte zumindest auch ein DX8-Design und war sicher bei den DX9-Konferenzen dabei. Selbst die komischen Texturfilter von Intel die nie verwendet wurden sind in der DX9-Spec vorhanden.

Razor
2006-05-07, 11:44:11
Coda[/POST]']Das kannst du doch gar nicht wissen.
Was auch für Dich gelten dürfte...

Ist aber trotzdem reichlich OT, das Thema.

Razor

Coda
2006-05-07, 11:45:10
Razor[/POST]']Was auch für Dich gelten dürfte...
Ich stelle ja auch nicht einfach Behauptungen in den Raum um meine Ansichten zu "belegen". Es nervt.

Razor[/POST]']Ist aber trotzdem reichlich OT, das Thema.
Bei dir wirds immer "OT" wenns dir nicht mehr passt.

stickedy
2006-05-07, 11:51:54
Razor[/POST]']Die allerdings kamen erst, als die finalen Spezifikationen schon laaaange fest standen.
Das Columbia-Design (aka DeltaChrome) war schon wesentlich länger in Entwicklung. Alle IHVs haben Anteil an den Direct3D-Specs und wenn alle bis auf einen Hersteller FP24 verwenden wollen, dann wird Microsoft sich da bestimmt ne sträuben. Es gibt/gab ja auch noch PowerVR, 3DLabs und Trident, deren Rolle in dem SPiel wir nicht kennen...

Jedenfalls ist die Theorie, dass FP24 von MS für den R300 reingedrück wurde, um nV eins überzubraten nichts weiter als Spekulation! Zwar eine recht plausible, aber trotzdem nur ne Spekulation und es kann sich alles gänzlich anders zugetragen haben.

Coda
2006-05-07, 11:55:34
Das ist doch Unsinn. ATi hat sicher schon mit MS Gespräche geführt als sie angefangen haben mit dem Design (natürlich unter NDA). Das Ding wäre so mit FP24 nie fertig geworden wenn klar gewesen wäre dass das für DX9 nicht reicht.

Und wie schon gesagt ist das R300-Design für 2002 einfach viel sinniger gerwesen. Bei R4xx (aka R390) war ich ja dann auch sehr enttäuscht.

reunion
2006-05-07, 11:59:54
Solche Anforderungen werden immer maßgeblich durch die IHVs bestimmt. Und wenn nV FP32 bietet, und alle anderen Hersteller FP24, ist es wohl logisch, dass man hier FP24 als kleinen gemeinsamen Nenner wählt. Zumal FP24 eigentlich immer ausreichend war. Dafür durfte nV sogar FP16 verwenden. Genausogut könnte man behaupten, dass NV20 eigentlich kein DX8-Chip hätte werden sollen, aber durch das Xbox-Engagement von nV hat MS diesen doch noch reingedrückt. Ist doch lächerlich soetwas.

aths
2006-05-07, 13:43:55
Coda[/POST]']Was wurde da "hingedreht"? Du siehst doch Gespenster. NV3x war einfach ein idiotisches Design, da kannst du Verschwörungstheorien erfinden so lang du willst.

FP24-only statt nur schnelles FX12 + Krüppel FP16/FP32 ist einfach unglaublich viel sinnvoller.Schon die GeForce 3 hatte eine FP32-fähige Textur-Unit. Die hätte man für den NV30 auf FP24 zurückschrauben sollen oder wie? Bei FP16-Nutzung bleiben 4 nutzbare Tempregister, dann ist zumindest die NV35-ALU brauchbar schnell. Für die meisten Color-Operationen hätte auch FX12 voll gereicht, da ist selbst der NV30 ziemlich flott.

Als reiner Gamer-Chip ist der R300 das klar überlegene Design. Als GPU die auch im Profi-Segment punkten soll, hat Nvidia mit dem NV30 eine Vorarbeit geleistet, deren Früche man gut im NV40 sieht. ATI hat es gerade wegen dem ach so "sinnvollen" R300-Design nicht gepackt, eine SM3-GPU gegen den NV40 platzieren zu können. Und beim R520/580 sieht man am Transistorcount, dass das sinnvolle R300-Design für die heutige Generation auch Ballast bedeutet.

Einfach mal zwei Chips herauszugreifen und ohne die Betrachtung ihrer Vorgänger und Nachfolger gegenüberzustellen halte ich für eine ziemlich unvollständige Bewertung. Für die meisten Spieler war der R300 auch dem NV35 vorzuziehen, aber ich würde mich hüten, gleich von einem idiotischen Design zu sprechen. Nvidia hat mit idotischer Vermarktung und dreisten wie peinlichen Benchmark-Cheats bei der FX-Serie mehr Reputation verloren als durch Architektur-Unterlegenheit im direkten Vergleich.

Aber die FP-Schwäche ist natürlich Nvidia zuzuschreiben und nicht etwa Microsofts DX-Spec.

Coda
2006-05-07, 13:51:56
aths[/POST]']Schon die GeForce 3 hatte eine FP32-fähige Textur-Unit. Die hätte man für den NV30 auf FP24 zurückschrauben sollen oder wie?
Auf FX8 musste man doch auch runterkonvertieren, was interessiert mich das?

aths[/POST]']ATI hat es gerade wegen dem ach so "sinnvollen" R300-Design nicht gepackt, eine SM3-GPU gegen den NV40 platzieren zu können.
Nö. Sie hatten sich mit ihrem US-Design verschätzt.

StefanV
2006-05-07, 13:53:18
aths[/POST]']Schon die GeForce 3 hatte eine FP32-fähige Textur-Unit. Die hätte man für den NV30 auf FP24 zurückschrauben sollen oder wie? Bei FP16-Nutzung bleiben 4 nutzbare Tempregister, dann ist zumindest die NV35-ALU brauchbar schnell. Für die meisten Color-Operationen hätte auch FX12 voll gereicht, da ist selbst der NV30 ziemlich flott.
Das ändert nichts an der Tatsache, das es einfach Bullshit war, auf FX12 zu setzen statt auf FP32, womit wir wieder bei dem Punkt wären, das das nV3x Design ziemlich dämlich war, drehen und wenden kannsts auch wie du willst, ändert nix dran.

robbitop
2006-05-07, 13:54:26
Razor[/POST]']Und wäre FP32 für voll Präzision Voraussetzung gewesen, hätte ATI eie primäre Voraussetzung für DX9 nicht erfüllt und hätte nur ein DX8 Chip gebracht.

Darauf wollte ich hinaus... schließlich hat man sich in ALLEN Belangen an ATI angepaßt und nVidia hier vollkommen aussen vor gelassen.

Der R300 war ein komplett auf FP24 ausgerichtetes Design, welches Angesicht der voraus gesetzten FP32 für volle Präzision (und damit einer zwingenden Basis für eine DX9-compliance) schon sehr 'merkwürdig' anmutet. Was für ein "Glück", dass M$ hier noch mal schnell was zugunsten ATI änderte... und ganz nebenbei ALLE Vorteile einer aus FP32 und der von nVidia entwickelten Technologie zur Abwärtskompatibilität - aussen vor gelassen hat. So wurde ein ursprünglich sehr guter DX8-Chip, der in seinen Features ("Technologiestudie" würde auch ich hier sagen ;-) aber schon DX9-Compliant war, zu einem DX9-Chip mit grottiger Performance. So wurde er entwickelt und so wollten es auch umgebenden Konditionen... die sich dann in "letzer Sekunde" veränderten und nVidia keinen Raum mehr für Änderungen ließen... und wer daraus den allergrößten Vorteil zog und ganz nebenbei auf alle Konditionen einging, die der Verantwortliche in einem anderen Sektor machte, wissen wir ja wohl hoffentlich noch alle.

Ein PP Chip wäre dennoch DX9 compliant. Außerdem einigt man sich bei jeder DX Version immer ungefähr auf den kleinsten gemeinsamen nenner. S3 hatte Columbia in Entwicklung ebenfalls mit FP24. Und das war sicher kein Zufall.
Das war bei DX8 auch schon so. R200 war zwar aus technischer Sicht weit vorraus (zumindest was die ALUs anging) und dennoch war SM1 auf Rampage festgelegt als min DX8 Spec.


Weil M$ es so 'hingedreht' hat, ja.

Das denke ich nicht, Tim. ;) Das Ding ist per se einfach rund und sehr flott. Rechenformat hin oder her. Auch wenn NV30 theoretisch bis zu 48 FX12 Shaderoperationen pro Takt schaffen konnte und dank höherem Takt die theoretische Leistung nochmals erhöhen konnte, hakte es hinten und vorn.
Der R300 kann pro Takt "nur" 24 (theoretisch mit dem MiniALU ADD) sogar 40 Operationen schaffen und hat weniger Takt.

Man kann es drehen wie man es will, NV30 war zu ambitioniert. Und zu seinen Lebzeiten war die Shaderschwäche gar nicht mal sein größtes Problem (was mit FX12 natürlich geringer gewesen wäre, aber dennoch wäre er unterlegen).
Da spielten noch andere Dinge mit hinein. IMO ist CineFX in der Version 1 (und eigentlich auch 2) einfach nicht konkurrenzfähig gewesen.

aths
2006-05-07, 13:58:37
Coda[/POST]']Auf FX8 musste man doch auch runterkonvertieren, was interessiert mich das?


Nö. Sie hatten sich mit ihrem US-Design verschätzt.Was musst du da auf FX9 runterkonvertieren? Farben werden seit NV10 mit 10 Bit gefiltert (ohne Vorzeichen), die Register mit 9 Bit im Combiner verrechnet (mit Vorzeichen), bei NV30, 35 und 38 mit 12 Bit (inkl. dem Vorzeichen.) Die LOD-Berechnung und die mögliche Transformation der Texturkoordinate finden seit NV20 mit FP32-Genauigkeit statt. Das interessiert jeden, der bei dependent reads Genauigkeit braucht.

ATI wollte beim R400-Design zunächst nicht viel vom R300 verwenden, weil es dafür wohl zu unbrauchbar erschien. Beim 520 haben sie dann auf den 420 zurückgegriffen, der ja ein erweiterter 300-er (350-er) ist. Nvidia konnte beim NV40 ganz erheblich vom NV30 profitieren. Sie haben im wesentlichen die FPU und eine TMU weggelassen und dafür den Shader Core gesplittet, Co-Issue fähig gemacht und um ein MUL ergänzt, sowie das Registerfile in der Größe verdoppelt.

Ailuros
2006-05-07, 14:00:19
ON TOPIC *hust*

Razor[/POST]']

Öhm... mag ja alles sein, aber was hat das jetzt mit dem Samsung zu tun, welches ich meinte?

Um zu meinen vorigen Fazit zu kommen, dass fast alle Firmen mehrere Quellen von IP haben,

So ein Monster-Objektiv und dann nur 3x optischer Zoom?
Da muss jemand was falsch verstanden haben...
(vermutlich meinte man das von mir erwähnte, was auch passen würde)

Auch könnte ich mir vorstellen, dass das Multi-Zoom-Objektiv (10x oder 12x?) abnehmbar ist...

Keine Ahnung ob man das Ding abnehmen kann. Um ganz ehrlich zu sein wenn ich wirklich hochqualitative digitale Photographie will, ist mir persoenlich das Geld fuer eine gute Camera besser angelegt als auf einem Handy. Das jetzt ganz so nebenbei.

Diverse multimedia Features in Handys werden sich staendig steigern, aber auf einem Handy waeren mir persoenlich z.B. GPS Faehigkeiten nutzvoller. Kommt alles noch.

ATI hat ja nicht für die Semi Hersteller aus "dem Nähkästchen" geplaudert, sondern für die Investoren... denn der Aktien-Kurs ist ja derzeit nicht so prall. Allerdings war dies wohl nicht mit Nokia abgesprochen... ;)

Jein. Es wird wohl schon NOKIA Produkte mit ATI IP in der Zukunft geben und ich will auch hoffen dass das Geruecht der ATI-Qualcomm-Nokia Masche auch stimmt, denn sonst sind Qualcomm und Nokia eigentlich Konkurrenten.

Die paar Millionen $ die ATI im besten Fall dazugewinnen koennte von einem Markt der immer noch im Aufstieg ist (aber Vorsicht: so rapide ist noch kein Markt gestiegen bis jetzt), ist bei bestem Willen kein Punkt fuer die Investoren. IP hat ein niedriges Risiko, meistens hohe Volumen, braucht maessige R&D Unkosten, bringt aber auch ziemlich maessiges Einkommen.

Hmmm... aber gerade wenn es um zukünftige (noch nicht releaste) Produkte geht, sollen Kooperationspartner aufmerksam sein. Aber klar... kann natürlich sein, dass Nokia diesen "Vorstoß" von ATI aus eigener Intention sehr schnell relativieren wollte.

Razor

Ich sag es mal so das Volumen von TI was high end SoCs fuer diesen Markt betrifft duerfte das groesste ueberhaupt sein. Einfach den Preis so weit reduzieren bis die Konkurrenz nicht mehr mitmachen kann. Momentan brauchen sie gar nicht reagieren da NOKIA sowieso ihre high end SoCs benutzt.

aths
2006-05-07, 14:01:28
StefanV[/POST]']Das ändert nichts an der Tatsache, das es einfach Bullshit war, auf FX12 zu setzen statt auf FP32, womit wir wieder bei dem Punkt wären, das das nV3x Design ziemlich dämlich war, drehen und wenden kannsts auch wie du willst, ändert nix dran.Warum war es Bullshit, wenn FX12 für Color-Operations oft ausreicht? "Nur" bei Normalisierungen und dependent reads braucht man unbedingt ein FP-Format (bei Normalisierung FP16, bei dependent reads mindestens FP24.)

Hat ATI mit dem R300 denn auf FP32 gesetzt?

StefanV
2006-05-07, 14:13:52
aths[/POST]']Warum war es Bullshit, wenn FX12 für Color-Operations oft ausreicht? "Nur" bei Normalisierungen und dependent reads braucht man unbedingt ein FP-Format (bei Normalisierung FP16, bei dependent reads mindestens FP24.)

Hat ATI mit dem R300 denn auf FP32 gesetzt?
Nenne mir mal ein Design, das mehrere unterschiedliche Datenformate intern unterstützt, die unterschiedlich schnell sind?!
Seltsam, das das außer nV niemand sonst gemacht hat (oder gescheitert ist), findest du nicht auch, aths?!
Vielleicht weils ziemlich bescheuert ist?!

Und was du mit deinem letzten Satz sagen willst, musst mir auch mal erklären!
Denn das klingt irgendwie Kindergartenlike (bäh, der ist aber auch böse, Mama)...

StefanV
2006-05-07, 14:27:44
Achso, an dieser Stelle möchte ich noch diesen (http://www.tecchannel.de/technologie/komponenten/402049/) und jenen (http://www.computerbase.de/artikel/hardware/grafikkarten/2003/test_fx5200_fx5800_inno3d/) Bericht hineinschmeißen :rolleyes:

Was ich damit sagen will, müsst ihr euch schon selbst denken, ist auch garnicht so schwer, darauf zu kommen...

aths
2006-05-07, 14:33:53
StefanV[/POST]']Nenne mir mal ein Design, das mehrere unterschiedliche Datenformate intern unterstützt, die unterschiedlich schnell sind?!
Seltsam, das das außer nV niemand sonst gemacht hat (oder gescheitert ist), findest du nicht auch, aths?!
Vielleicht weils ziemlich bescheuert ist?!

Und was du mit deinem letzten Satz sagen willst, musst mir auch mal erklären!
Denn das klingt irgendwie Kindergartenlike (bäh, der ist aber auch böse, Mama)...Der Versuch, deiner Logik zu folgen ist eine Aufgabe, bei der ich wahrscheinlich nicht der erste bin, der scheitert.

Nicht jede Lösung, die sich nicht durchgesetzt hat, ist per se "ziemlich bescheuert". Einerseits kann es sich um einen zeitweiligen Rückschlag handeln. Andererseits gibts beim G71 noch immer die Unterstützung mehrere Datenformate mit unterschiedlicher Geschwindigkeit: Das "kostenlose" NRM_PP gibts, wie der Name schon sagt, nur bei _PP (FP16), bei FP16 wird das Registerfile weniger belastet was schon mal verhindert dass "Blasen" (Leertakte) in die Pipe geschoben werden müssen; die HDR-Realisierung mit FP16 ist bei NV wie bei ATI ein Zugeständnis an die Geschwindigkeit. Ich finde es überhaupt nicht "bescheuert", verringerte, aber für viele Sachen ausreichende Genauigkeit zu beschleunigen.

ATI hat mit der Radeon 9700 eine Karte gebracht, die für den normalen Spieler sicherlich eine bessere Wahl ist als noch die FX 5950 Ultra. Daraus abzuleiten, dass ATIs Realisierung in jedem Detail die richtige Wahl sei, ist jedoch unzulässig. Der R300 bietet die effizientere Architektur (8x1 vs 4x2) mit guter Entkopplung von Sampling- und ALU-Phasen. Die Kompromisse, die beim R300 eingegangen werden mussten, sind für den normalen Spieler sehr viel leichter zu ertragen als die Kompromisse, die NV beim NV30 und 35 einging. Aber man macht es sich zu einfach, wenn man immer nur auf die Spiele-Praxis guckt. Wer das tut, ist entweder zu faul sich mit den Interna zu beschäftigen – oder er hat sein Urteil längst gebildet und will sich nicht durch möglicherweise neue Erkenntnisse davon abbringen lassen.

Xmas
2006-05-07, 14:39:29
Razor,
wen willst du eigentlich hier mit deinen Theorien über "die ursprünglichen Erfordernisse von DirectX9" und dem großen Vorsprung von NVidia vor ATI im Mobilmarkt verarschen?


StefanV[/POST]']Nenne mir mal ein Design, das mehrere unterschiedliche Datenformate intern unterstützt, die unterschiedlich schnell sind?!
Seltsam, das das außer nV niemand sonst gemacht hat (oder gescheitert ist), findest du nicht auch, aths?!
Vielleicht weils ziemlich bescheuert ist?!
OpenGL ES 2.0 sieht drei verschiedene Präzisionsstufen vor. Etwa weil es "ziemlich bescheuert" ist?
Vektorbefehlssätze für CPUs unterstützen oft verschiedene Präzisionen mit unterschiedlicher Geschwindigkeit. Etwa weil es "ziemlich bescheuert" ist?

StefanV
2006-05-07, 14:44:50
Xmas[/POST]']
OpenGL ES 2.0 sieht drei verschiedene Präzisionsstufen vor. Etwa weil es "ziemlich bescheuert" ist?
Vektorbefehlssätze für CPUs unterstützen oft verschiedene Präzisionen mit unterschiedlicher Geschwindigkeit. Etwa weil es "ziemlich bescheuert" ist?
1. Ich sprach eher von Hardware, das es auf Softwareseite teilweise anders ausschaut, ist klar...

So kann halt jeder einen passenden Chip bauen, mit den Mitteln die er für sinnvoll erachtet...

2. Lass mich raten:
die haben was mit 32bit zu tun und können auch mal das doppelte (oder 4 fache) sein?
Und sie haben alle eins gemein: es ist das gleiche Datenformat (entweder Fließkomma oder eben nicht).
Ich glaub bei SSE kann man mit 64bit und 128bit rechnen, oder sowas in der art...

Xmas
2006-05-07, 15:02:00
StefanV[/POST]']1. Ich sprach eher von Hardware, das es auf Softwareseite teilweise anders ausschaut, ist klar...
Und du meinst die Khronos Group hat das zum Spaß in die Spec einfließen lassen, um die Compilerentwickler noch ein wenig zu nerven? :|

2. Lass mich raten:
die haben was mit 32bit zu tun und können auch mal das doppelte (oder 4 fache) sein?
Und sie haben alle eins gemein: es ist das gleiche Datenformat (entweder Fließkomma oder eben nicht).
Ich glaub bei SSE kann man mit 64bit und 128bit rechnen, oder sowas in der art...
Was willst du mir jetzt damit sagen?

Ailuros
2006-05-08, 02:42:35
Ich hab zwar keine Ahnung was die R300/NV30 bzw. relevante interne Praezisions-debatte mit ATI/Bitboys und/oder dem PDA/mobilen Markt gerade zu tun hat, aber geteilte Praezision ist keine Suende.

Selbst ein TBDR der IMHO gesunde Vorteile hat mit floating point Framebuffer, duerfte von niedrigerer Praezision profitieren wo immer FP32 keine Pflicht ist.

robbitop
2006-05-08, 09:38:51
Solange die Registergröße und die interne Bandbreite nicht auf FP ausgelegt sind, sollte jede VPU von PP profitieren.