PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Kommt eine neue Kyro mit TBDR?


Mastermind
2006-07-25, 22:56:18
Ich weiß ja, was ihr von der GS haltet. :D Aber da ich durch euch "erleuchtet" wurde, mir aber noch keine bessere PC-Hardwarenews-Heimatseite gesucht habe und immer noch bei GS.de vorbeischaue, beziehe ich mich auf eine News von dort. Es steht euch natürlich frei bei einem Kommentar eine kompetentere Seite zu zitieren.

Imagination-News (http://www.gamestar.de/news/pc/hardware/imagination/1463623/imagination.html)

Gibt es Infos darüber, wie Leistungsfähig diese Karten sein werden und ob sei TBDR haben werden? Hier gibt es ja einige die sehnsüchtig darauf warten. :)

deekey777
2006-07-25, 23:03:20
Den GS-Redakteuren war peinlich die Quelle anzugeben: http://uk.theinquirer.net/?article=33240 ;D
http://www.beyond3d.com/forum/showthread.php?t=31005, da ist auch ein Link zur Roadmap (der Thread ist von Ende Mai).
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4349111&postcount=126
PowerVR ist für mich dunkler Wald, aber warum heißt der Thread "Kommt eine neue Kyro mit TBDR?"? TBDR ist doch "alter" Hut für PowerVR?

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4444030&post4444030

Mastermind
2006-07-25, 23:10:01
(Ich war mir nicht sicher, ob es zu spekulativ genug ist hier eröffnet zu werden. Deswegen hab ichs im anderen Unterforum gepostet.)

Der Titel ist so gewählt, weil es ja keine Selbstverständlichkeit wäre, dass sie diese Technologie bei einem neuen Chip wieder einsetzen würden.

StefanV
2006-07-25, 23:14:11
Hm, seltsam, das solche Gerüchte so früh nach dem Zusammenschluss von ATi und AMD auftauchen.

Nachtigall ich hör dich tapsen ;)

Mastermind
2006-07-25, 23:17:12
StefanV[/POST]']Hm, seltsam, das solche Gerüchte so früh nach dem Zusammenschluss von ATi und AMD auftauchen.

Nachtigall ich hör dich tapsen ;)
Was genau meinst du damit?

deekey777
2006-07-25, 23:17:45
StefanV[/POST]']Hm, seltsam, das solche Gerüchte so früh nach dem Zusammenschluss von ATi und AMD auftauchen.

Nachtigall ich hör dich tapsen ;)

"Die Gerüchte" basieren auf einer Roadmap, die seit zwei Monaten für alle sichtbar ist. Fuad muss wohl seine Newsquote erfüllen. ;)

Mike1
2006-07-25, 23:22:09
also wenn es wieder gute grafikkarten von PowerVR geben wird wäre das so geil :up:
*hoffnungfsvoll augenleuchte*

StefanV
2006-07-25, 23:27:06
DK777[/POST]']"Die Gerüchte" basieren auf einer Roadmap, die seit zwei Monaten für alle sichtbar ist. Fuad muss wohl seine Newsquote erfüllen. ;)

Jetzt, wo dus sagst :|

Stimmt...

Das Ding ist schon etwas älter, wobei es durchaus interessant ist und hoffentlich genug Beweis, das Intel nV nicht braucht...

blade04
2006-07-25, 23:38:08
"Intel den SGX-Kern, auf dem die GPUs basieren lizensiert hat und wahrscheinlich für Onboard-Grafiklösungen verwenden wird. "

Das dürfte wohl schon etwas über die performance aussagen. Ich wette das das ding auch wenns rauskommt für nix anderes als onboard was taugt

Ailuros
2006-07-26, 06:43:56
Auf der IMG roadmap steht auch nichts von standalone GPUs, was wohl jegliche Form von integrierter Grafik wahrscheinlicher macht. Was und wo Intel genau benutzen wird ist immer noch ein Fragezeichen und bis Intel selber etwas ankuendigt wird keiner von uns weiser.

***edit: es ist trotzdem merkwuerdig dass der INQ so aus dem nichts (ob spaet oder nicht) etwas ueber PVR/IMG schreibt. Irgend jemand muss da schon was dazugestossen haben, denn Fuad blickt in sonstigen newsblurbs auch nicht besonders durch was den PDA/mobile Markt betrifft und da wird IMG von aeusserst selten bis nie erwaehnt.

Dass MBX in der Mehrzahl der heutigen und kommenden 3D faehigen PDA/Handys hockt muss er wohl auch noch entdecken.

***edit Nr.2:

oder wohl doch nicht....LOL

As Intel licensed Imagniation's MBX, it may also license the SGX core as well. We suspect Intel wants muscle its way into the discrete graphics. Might it be tempted towards these Muse and Athena cores.

17.05.2005:

http://www.imgtec.com/News/Release/index.asp?ID=409

;D

Cyphermaster
2006-07-26, 07:46:09
Ich fänd's ja schön, insbesondere, wenn ich mir ansehe, wie wenig die Kyro2 seinerzeit schon verbraten hat. Endlich mal keine E-Heizung mit Turbinenbelüftung im Grafikkarten-Slot...

Ich geh allerdings auch davon aus, daß das Ganze eher ein IGP sein wird, wo es auf die Sparsamkeit mehr als auf die Leistungsfähigkeit des Designs rausläuft.

stickedy
2006-07-27, 19:29:14
Mastermind[/POST]']Der Titel ist so gewählt, weil es ja keine Selbstverständlichkeit wäre, dass sie diese Technologie bei einem neuen Chip wieder einsetzen würden.
Äh, doch, das ist ne Selbstverständlichkeit, weil PowerVR der Inbegriff für einen TBDR ist und es bis dato nix anderes von ihnen gab und wohl auch nie geben wird...

stav0815
2006-07-28, 16:33:16
stickedy[/POST]']Äh, doch, das ist ne Selbstverständlichkeit, weil PowerVR der Inbegriff für einen TBDR ist und es bis dato nix anderes von ihnen gab und wohl auch nie geben wird...
überhaupt nichts mehr von ihnen geben wird.

Drill
2006-07-28, 17:27:14
ich weiß, dass das hier ein wenig fehl am platz ist, aber kann mir jemand sagen ob der kyro/kyro2 wirtschaftlich ein erfolg war?

Ailuros
2006-07-28, 22:59:55
Drill[/POST]']ich wei, dass das hier ein wenig fehl am platz ist, aber kann mir jemand sagen ob der kyro/kyro2 wirtschaftlich ein erfolg war?

Als Anlauf aus der totalen PC-Abwesenheit fuer IMG war KYRO wohl schon gut, fuer ST Micro aber wohl eher nicht die sich komischerweise vorstellten dass sie ueber Nacht mit minimaler Investierung an Resourcen zich Millionen von GPUs verkaufen.

Ich weiss jetzt nicht mehr genau wieviel damals verkauft wurden, aber ich schaetze nicht mehr als 2 Mio GPUs insgesamt.

Thowe
2006-07-29, 21:04:13
Ailuros[/POST]']Als Anlauf aus der totalen PC-Abwesenheit fuer IMG war KYRO wohl schon gut, fuer ST Micro aber wohl eher nicht die sich komischerweise vorstellten dass sie ueber Nacht mit minimaler Investierung an Resourcen zich Millionen von GPUs verkaufen.

Ich weiss jetzt nicht mehr genau wieviel damals verkauft wurden, aber ich schaetze nicht mehr als 2 Mio GPUs insgesamt.

STMicro ist so oder so eine "komische" Firma, die Idee GPUs zu machen war wohl strategischer Natur wie: "Hey, wir können auch komplexe" Designs und irgendwann haben sie festgestellt - Wir können doch nicht und nutzen nun immer noch ihre veralterte Hardware für Produkte, mit geringer Komplexität aber hohen Margen. Ich würde ja ekelige Firma sagen, aber wenn der Erfolg einen Recht gibt, dann haben sie es wohl. Sie stehen immer noch exzellent da und deren Aktien wären eine bessere Idee als die von Intel, Nvidia & Co.

Ailuros
2006-07-30, 11:42:08
Thowe[/POST]']STMicro ist so oder so eine "komische" Firma, die Idee GPUs zu machen war wohl strategischer Natur wie: "Hey, wir können auch komplexe" Designs und irgendwann haben sie festgestellt - Wir können doch nicht und nutzen nun immer noch ihre veralterte Hardware für Produkte, mit geringer Komplexität aber hohen Margen. Ich würde ja ekelige Firma sagen, aber wenn der Erfolg einen Recht gibt, dann haben sie es wohl. Sie stehen immer noch exzellent da und deren Aktien wären eine bessere Idee als die von Intel, Nvidia & Co.

Es war eher "wir haben mit TSMC einen festen Vertrag und etwas extra Fab-Platz zu verschelpen". Keiner der KYRO chips wurden in ST's Malta FAB hergestellt (weil sie eben nur 250nm billig-Mist herstellten) sondern alles kam von TSMC.

Natuerlich kommt noch das ST/Hercules Verhaeltnis damals dazu. Hercules war afaik sogar an Serie4 selber interessiert, aber mit dem damaligen Kurs ihres GPU-Geschaeftes war ein weiteres Risiko wohl nicht eine Option. Irgendwann spaeter machten sie dann den Laden dicht.

Thowe
2006-07-30, 12:23:51
Äh, doch, der erste Kyro (STG2000) war ja im 250 Prozess gefertigt und kam noch aus Malta, zumindestens stands drauf. Es sei denn, sie haben da massiv Etikettenschwindel betrieben.

Ailuros
2006-07-30, 12:29:22
Thowe[/POST]']Äh, doch, der erste Kyro (STG2000) war ja im 250 Prozess gefertigt und kam noch aus Malta, zumindestens stands drauf. Es sei denn, sie haben da massiv Etikettenschwindel betrieben.

Ich bin zu faul nachzusuchen aber ich kann mich erinnern dass Simon auf B3D sagte dass selbst die 250nm chips bei TSMC hergestellt wurden.

Thowe
2006-07-30, 12:35:17
Ailuros[/POST]']Ich bin zu faul nachzusuchen aber ich kann mich erinnern dass Simon auf B3D sagte dass selbst die 250nm chips bei TSMC hergestellt wurden.

Hmmm, vielleicht zum Teil, da man bei den Aufdrucken bei ICs besser nicht schwindelt, wird eigentlich nicht so gerne gesehen.

Seis drum, der X3000 ist eh die neue Kyro und gut und Intel macht bald Grafikkarten, darum hatte AMD ja ATI gekauft. :D

Ailuros
2006-07-30, 12:43:00
Thowe[/POST]']Hmmm, vielleicht zum Teil, da man bei den Aufdrucken bei ICs besser nicht schwindelt, wird eigentlich nicht so gerne gesehen.

Seis drum, der X3000 ist eh die neue Kyro und gut und Intel macht bald Grafikkarten, darum hatte AMD ja ATI gekauft. :D

G965 hat kein IMG IP afaik.

Was Intel GPUs betrifft, ich glaube es erst wenn ich es sehe. Irgendwas wurde im B3D forum geblubbert dass IMG schon einen Partner fuer Muse (fuer notebooks glaube ich) haben soll fuer Athena/desktop aber noch keinen.

Thowe
2006-07-30, 12:52:28
Ailuros[/POST]']G965 hat kein IMG IP afaik.

Was Intel GPUs betrifft, ich glaube es erst wenn ich es sehe. Irgendwas wurde im B3D forum geblubbert dass IMG schon einen Partner fuer Muse (fuer notebooks glaube ich) haben soll fuer Athena/desktop aber noch keinen.

Wir lassen uns einfach mal alle überraschen, beim G965 bin ich mir zwar nicht sicher, kann es mir aber sehr gut vorstellen. Was wohl auch daran liegt, das er eher nach revolution denn evolution klingt und ich schlicht weg nicht glaube, das INTEL einfach hier sehr viel investiert hat, wenn sie es auf der anderen Seite eigentlich schon lizensiert haben. Klingt für meine Ohren einfach unsinnig, also könnte sein.

Gerade bei Notebooks sehe ich ja die echte Stärke von einem TBR, da er immer bei Leistung X mit weniger Verbrauch auskommen wird als ein IMR. Von daher macht die Aussage bedingt Sinn, wenn wirklich jemand großes dahintersteht und da fallen mir eher weniger die "Hersteller" ein, denn die Auftragsfertiger und da könnte ich mir an erster Stelle sicherlich Asustek vorstellen, da sie vom Produktportfolio an kompatibelsten zur Idee sind.

Ailuros
2006-07-30, 13:24:02
Thowe[/POST]']Wir lassen uns einfach mal alle überraschen, beim G965 bin ich mir zwar nicht sicher, kann es mir aber sehr gut vorstellen. Was wohl auch daran liegt, das er eher nach revolution denn evolution klingt und ich schlicht weg nicht glaube, das INTEL einfach hier sehr viel investiert hat, wenn sie es auf der anderen Seite eigentlich schon lizensiert haben. Klingt für meine Ohren einfach unsinnig, also könnte sein.

Auf die Falle sind viele von uns reingefallen. Jegliche Anfrage bekam eine sehr deutliche negative Antwort.

Komplianz und Leistung koennen uebrigens unter Umstaenden zwei paar Schuhe sein.

del_4901
2006-07-30, 13:29:10
Ihr wisst aber das SGX für PDAs etc. entwickelt wurde. Ich glaube nicht das SGX den Weg auf Desktopboards finden wird.

Thowe
2006-07-30, 13:49:57
Ailuros[/POST]']Auf die Falle sind viele von uns reingefallen. Jegliche Anfrage bekam eine sehr deutliche negative Antwort.

Komplianz und Leistung koennen uebrigens unter Umstaenden zwei paar Schuhe sein.

Jo, weswegen ich ja auf Benchmarks warte wie bekloppt. Wenn bald keine kommen, mache ich die selbst. Am 4.8 sollte mein G965 Board da sein und wenn nichts an Leistung ankommt, ist es eben nix von imgtec. Wir werden sehen.

EDIT: Nachdem ich nun das Whitepaper durch habe zum G965, hatte ja Zeit dafür, bin ich eigentlich in der Kombination mit anderen Faktoren doch davon überzeugt, das der G965 MUSE ist und verdammt schnell. Das negiert dann meine Aussagen vorher, die Alternative wäre, das INTEL Imgtecs IP nachgebaut hat.

stickedy
2006-07-31, 17:18:24
Gab heute eine Meldung vonm Digitimes, dass der G965 sich etwas verzögert, weil sie wegen eines Bugs ne neue Revision benötigen. Und er ist jetzt anscheinend tatsächlich voll DX10 compliant - da gabs ja mal etwas wiedersprüchliche Meldungen. Evtl. hatte Intel ein eigenes Design und eines von PowerVR weil die Entwicklungen/Umsetzungen von letzterem als zu langwierig eingeschätzt wurde und nun hat man es doch genommen, weil es schon fertig ist? Wäre doch denkbar, oder?

Ach ja: http://www.digitimes.com/NewsShow/MailHome.asp?datePublish=2006/7/31&pages=A5&seq=25

Ailuros
2006-08-01, 06:39:48
Gab heute eine Meldung vonm Digitimes, dass der G965 sich etwas verzögert, weil sie wegen eines Bugs ne neue Revision benötigen. Und er ist jetzt anscheinend tatsächlich voll DX10 compliant - da gabs ja mal etwas wiedersprüchliche Meldungen. Evtl. hatte Intel ein eigenes Design und eines von PowerVR weil die Entwicklungen/Umsetzungen von letzterem als zu langwierig eingeschätzt wurde und nun hat man es doch genommen, weil es schon fertig ist? Wäre doch denkbar, oder?

Ach ja: http://www.digitimes.com/NewsShow/MailHome.asp?datePublish=2006/7/31&pages=A5&seq=25

Intel brauchte mit Sicherheit mehr als 2 Jahre um den G965 zu entwickeln. So wie das obrige klingt, koennte jemand herauslesen dass Intel mal schnell die Finger geschnippst hat und eine Zwischenloesung entwickelt hat, bis sie Eurasia endlich integrieren koennen.

Ein Gigant wie Intel mit dem Verkaufsvolumen was IGPs generell betrifft nie IMHO ausschliesslich auf IP einer dritten Quelle verlassen und es auch nicht ausschliesslich benutzen, weil sie sonst eben zu viel an royalties abbezahlen werden.

Intel wusste genau wie jeder andere IHV was mit D3D10 auf sie zukommen wird und das schon seit einigen Jahren. Mir faellt es schwer zu glauben dass Intel seither keine eigene spezifische roadmap und Entwicklung fuer D3D10 hatte. Der Faktor der dann noch dazu kommt ist eben der Unterschied zwischen Komplianz und Leistung.

Intel haette auch selber den graphic core fuer den 2700G entwickeln koennen, aber ich hab ernsthafte Zweifel dass das Resultat wirklich konkurrenzfaehig gewesen waere. Da sie aber sehr zufrieden mit dem bisherigen Resultat waren, griffen sie zu einer weiteren Lizenz mit Eurasia mit einem hoechstwahrscheinlichen breiterem Spektrum als nur PDA/mobile diesmal.

Erst wenn Intel ihre Plaene genau definiert fuer die Zukunft, finden wir dann erst heraus was genau, wie und wo integriert wurde.

stickedy
2006-08-01, 16:11:19
Intel brauchte mit Sicherheit mehr als 2 Jahre um den G965 zu entwickeln. So wie das obrige klingt, koennte jemand herauslesen dass Intel mal schnell die Finger geschnippst hat und eine Zwischenloesung entwickelt hat, bis sie Eurasia endlich integrieren koennen.
:) Nee, so war das natürlich nicht gemeint. War eher so gemeint, dass Intel die Entwicklung begonnen hatte (wie du ja auch schriebst: das dauert ja nun doch ein bißchen) und dann aus irgendwelchen Gründen (vermutlich wegen Performance, Features etc.) noch Eurasia lizensiert hat bzw. sich entschlossen hat, Eurasia auch für IGPs zu nutzen. Und dann verzögerte sich vielleicht das Intel-eigene Design und das PowerVR-Design war etwas vor dem Zeitplan, so dass man dann gleich letzteres erwählt hat. Is natürlich nur Spekulation, aber das würde die unterschiedlichen Gerüchte bezüglich DirectX9/DirectX10 erklären.

Ailuros
2006-08-01, 23:47:43
Eurasia wurde von Anfang an eher fuer andere Maerkte lizenziert. Natuerlich auch fuer den PDA/mobile Markt, aber nicht als primaeres Ziel. Intel hat den 2900G mit MBX (2700G ist ja nur MBX Lite ohne VGP) storniert, wobei sie eine der wenigen Lizenznehmer waren die den VGP nicht mitlizenziert hatten. Der Grund war wohl erstmal dass sie nicht den erhofften Umsatz gemacht haben und da hat eben Texas Instruments mit ihrem um einiges staerkeren OMAP2 SoC den Markt aufgekehrt hat.

Das soll jetzt nicht heissen dass Intel SGX nicht integrieren wird, aber ich hab eher das Gefuehl dass es irgend eine 0815 billig-Version wie SGX510 sein wird, wobei ich von OMAP3 von TI (falls sie auch SGX lizenzieren sollten) viel mehr Leistung was diesen zukuenftigen SoC betrifft erwarte.

Gast
2006-08-02, 13:21:57
Der Inquirer hat mal wieder ein Wort zum G965 verloren. Anscheinend hat der Chipsatz mächtig Probleme in der Bilddarstellung wie auch in der Geschwindigkeit. Erst das Stepping C2 soll die Bilddarstellung verbessern, wobei jedoch die Performance immernoch schlechter sein soll als die des i945G
http://uk.theinquirer.net/?article=33433

Thowe
2006-08-02, 21:23:39
Da es ja das Spekulationsforum ist, will ich mal meine aktuellen hier öffentlich "ausdenken".

INTEL hat am G965 gearbeitet, da stimmt jeder zu und als Firma die sicherlich nicht gerne anderen Firmen Lizenzgebüren zahlt, haben sie sich gedacht, machen wir es selbst.

Windows VISTA stand vor der Tür und INTEL wurde sich bewusst, das ihre Lösung nicht wirklich als brauchbar eingestuft werden kann, also dachte man über Alternativen nach, vor allem auch unter der Berücksichtigung, das 3D auch im normalen Alltag immer bedeutener werden wird. Man wurde sich bewusst, das man ja eine brauchbare Grafiklösung eines IP Lieferanten quasi hat. Ein Teilaspekt, der andere, das Firmen, die eigentlich Grafikkarten bauen, immer mehr den lokrativen Chipsatz-Bereich beliefern und langsam aber sicher die Qualität der INTEL Lösungen erreichen und viel mehr noch, logischerweise bei den Grafiklösungen die INTEL eigenen bei Weitem und beliebig übertrafen.

Also wurde der G965 zum Q965, der eigentlichen INTEL Lösung und frei von Lizenzgebühren. Diese IGPs gehen an Großabnehmer wie DELL, Fujitsu-Siemens etc. in rauhen Mengen, da für normale Bürorechner zu einen Vista noch lange keine Rolle spielt und zum anderen, auch VISTA in der gewohnten XP Ansicht sogar willkommender ist, da es Schulungsaufwand minimiert.

Gehen wir davon aus, das es tatsächlich geklappt hat und im G965 eine funktionierende Logik von imgtec sitzt. Was ist, wenn diese deutlich schneller als erwartet wäre? Was ist, wenn INTEL eine Maus erwartet hätte und einen Löwen bekam? Wie würde sich das auf den Markt auswirken? Es würde zu einem politischen Problem werden, denn wenn plötzlich ein onBoard IGP die Geschwindigkeit einer MidRange oder gar HighEnd Karte erreicht, würden ganze Märkte sich massiv verändern und für viele Mainboardhersteller, die eben auch INTEL Kunden sind, bedeutet das dann auch, dass das Zubrot durch Grafikkarten kleiner wird.

Ab hier ist dann der Punkt, wo man sich auch darüber im klaren werden muss, wie man einen solchen Partner wie imgtec behandelt. Wie sehen also aktuelle Verhandlungen aus und wie einigt man sich auf die Zukunft? INTEL ist eine Firma, die schnell etwas aufkauft wenn ihnen bewusst wird, das es sich wirklich lohnt. Sie kauften sich bei Evans & Sutherland ein, sie kauften sich bei Lockheed (Real3D) ein und sie kauften Chips & Technologies, alles aus guten Grund. Real3D übernahmen sie am Ende gar völlig, genau wie C&T. Sie nutzten das was sie gebrauchen konnten und liessen den Rest unbedacht.

Sie haben Patentrechte im Austausch von ATI erhalten, von 3DFX und all das nie wirklich intensiv genutzt. Wie würde es aussehen, wenn INTEL nun imgtec übernimmt, würde es je wieder eine Grafiklösung als Karte geben oder eher nicht. INTEL würde mit hoher Wahrscheinlichkeit ganz sicher nicht über eine Grafikkarte nachdenken, ihre letzte Idee in diese Richtung, die i740, liegt lange zurück und hat viel böses Blut erzeugt. Man munkelte von offenen Erpressungen gegenüber den Mainboard-Herstellern, in denen INTEL ihnen nur dann die begehrten Chipsätze liefern wollte, wenn diese auch den Grafikchip kauften. Die Karte ansich war eine halbe Katastrophe und weit von den "neue Spielmöglichkeiten" entfernt, die INTEL damals so vollmundig versprach.

Wie sieht also die Zukunft zwischen imgtec und INTEL aus? Was, wenn INTEL nun ein ganz anderes Speedproblem mit dem G965 hat und den gar künstlich ausbremsen muss?

Das Ganze natürlich nur als eine Möglichkeit, klar kann es einen G965 und Q965 mit 100% INTEL geben, die sich nur im Transistor-Count und somit Produktionskosten unterscheiden. Für alles gibt es eine andere mögliche Idee, diese dort oben gefällt mir bloß am meisten und soviel Wunschdenken muss erlaubt sein und wer weiß, vielleicht ist es ja doch treffend.

Ailuros
2006-08-03, 07:02:49
Intel hatte afaik vor ein paar Jahren vor den PDA/mobile Markt nur mit MMX ueber ihre FPU-losen CPUs fuer den Markt zu loesen. Dass dieses eine Schnappsidee war, sahen sie noch rechtzeitig ein, trafen aber trotz allem am Ende die konservativste Entscheidung fuer IMG MBX (Lite) IP. Etwas mehr das erst vor ein paar Tagen erschien:

http://www.imgtec.com/PowerVR/insider/Partners/hardware/index.asp

Ich sehe hier persoenlich eine etwas merkwuerdige Parallele zu Sony und dem Consolen-Markt; erst als Sony einsehen musste dass die Hoffnungen fuer Cell doch etwas uebertrieben waren, griff man zu NVIDIA IP.

Mich wuerde es kein bisschen wundern wenn G965 eine relativ kurze Lebenszeit haben wird und ploetzlich irgendwo ab naechstem Jahre schnell unter den Teppich gekehrt wird.

http://www.theinquirer.net/default.aspx?article=31239

Es ist der INQ und es ist nichtmal sicher ob der ganze Quark in dem newsblurb ueberhaupt stimmt. G965 sieht mir nach den whitepapers eher nach einem 4 TMU/8 FMAC Design aus, was das Ding aber auch nicht unbedingt schneller machen wuerde als seinen Vorgaenger. Ob und wieviele Einheiten steht noch offen, aber SM4.0 Komplianz wird schon kosten was Transistoren betrifft. Hier uebertreibt auch der INQ ein bisschen, denn ich haette auch nie erwartet dass ein SM4.0 IGP schneller sein wuerde als heutige low-end GPUs. Auf jeden Fall nicht mit all den Vorraussetzungen fuer D3D10.

Und da uebrigens das Transistoren-budget fuer IGPs sehr begrenzt sein muss, erwarte ich auch nicht unbedingt "Wunder" in diesem Feld selbst falls in der Zukunft IMG IP benutzt werden sollte. Ein IGP ist und wird auch nie was fuer wahres gaming werden; effizienter hoechstwahrscheinlich ja als das was Intel selber bauen koennte aber danach die Sintflut.

Das was der INQ da uebrigens beschreibt, kommt eher SGX530 nahe und MUSE ist da um einiges potentieller als dieses, denn 530 ist eigentlich fuer high end PDA/mobile gedacht und wird vielleicht auch nie am Ende realisiert, ebenso wie MBX PRO in der Vergangenheit. Effektive 1200MPixels/s (eigentlich MTexels heh) was fuer mich und meine Uebersetzung 2 TMUs * 200MHz * 3.0 Overdraw bedeutet.

Gast
2006-08-03, 08:36:22
Zudem scheint der gute Theo auch nicht viel Ahnung von Intels Markt"nische" zu haben, wie sein letzter Absatz beweist.

Liefert Imgtec eigentlich funktionierende Treiber zu seinem IP mit oder muss man sich da wieder auf Intels Treiberhölle verlassen?


Q

loewe
2006-08-03, 09:06:06
Liefert Imgtec eigentlich funktionierende Treiber zu seinem IP mit oder muss man sich da wieder auf Intels Treiberhölle verlassen?

Q

Bisher hat PowerVR die Treiber immer noch selbst entwickelt. Der Sourcecode geht aber mit an den Chiphersteller und kann dort entsprechend angepaßt werden.

haifisch1896
2006-08-05, 21:32:17
Wäre es möglich, dass zwingend die Treiber der Chiphersteller vorausgesetzt werden?
Oder wäre sowas völlig unmöglich?

Ailuros
2006-08-06, 06:19:40
Wäre es möglich, dass zwingend die Treiber der Chiphersteller vorausgesetzt werden?
Oder wäre sowas völlig unmöglich?

Es ist IMO anders rum; IMG weigerte sich bis jetzt afaik Grafik IP ohne Treiber zu lizenzieren.

Quasar
2006-08-06, 09:16:45
Das klingt gut - dann besteht ja doch noch eine Chance für mein nächstes Notebook, dass es über integrierte Grafik von Intel verfügen wird. :)

Xmas
2006-08-06, 14:11:55
Gut dass dieser Thread im Spekulationsforum steht...

Thowe
2006-08-06, 14:21:34
Gut dass dieser Thread im Spekulationsforum steht...

... besser wäre, wenn er es nicht müsste ...

Ailuros
2006-08-09, 21:44:30
... besser wäre, wenn er es nicht müsste ...

However, David Harold, the PR manager for Imagination Technologies, told Custom PC that 'I'm not able to confirm where they [Intel] are using it, which is perhaps why these rumours have started. I can, however, certainly say that the upcoming Intel integrated parts aren't PowerVR based.'

http://www.pcpro.co.uk/custompc/news/91686/powervr-returns-to-the-pc.html

Thowe
2006-08-09, 21:58:50
http://www.pcpro.co.uk/custompc/news/91686/powervr-returns-to-the-pc.html

Jo, hatte es schon gelesen, aber wäre ja nicht so, das ich da nicht noch Möglichkeiten rauslesen könnte. :D

Gesetz nach dem Motto der politischen Verneinung, würde das ja auch mit "SGX drinne" logisch und wahr sein. ;)

Ailuros
2006-08-11, 07:23:42
Jo, hatte es schon gelesen, aber wäre ja nicht so, das ich da nicht noch Möglichkeiten rauslesen könnte. :D

Gesetz nach dem Motto der politischen Verneinung, würde das ja auch mit "SGX drinne" logisch und wahr sein. ;)

Ich hab eher das Gefuehl dass IMG aus gutem Grund jegliche Relation zum X3000 verneint. Von einem IGP der tatsaechlich auf Eurasia basieren wuerde, erwarte ich um einiges mehr. Zwar immer noch keine wirkliche Spielbarkeit auf einem IGP, aber so miserabel wie es normalerweise Intel mit ihrer Hard- und Software schafft nun auch wieder nicht.... *hust* ;)

Gmax
2006-08-29, 01:11:10
Die Frage, die mich im Moment am meisten beschäftigt
(ja, ich wache sogar in der Nacht schweißgebadet davon auf:biggrin: ) ist, was zum Henker werden Ati und nVidia tun, falls Intel tatsächlich mit einem über-TBR Chip daherkommt.
Intel ist mit seinen Produktionsprozess meistens einen Schritt vor der Konkurenz und nun haben sie noch dazu ein
Chipdesign lizensiert, welches - und da werden mir einige sicher zustimmen - als eines der am effizientesten am Markt überhaupt gilt.
Sollte Intel also nächstes Jahr mit einem in 45nm(?) Technik gemachten HighEnd Chip auf den Markt preschen, sollten Ati und nVidia sich schleunigst etwas neues einfallen lassen. Ev auch bei Imgtech mit einsteigen?
Was denkt ihr?

Ailuros
2006-08-29, 06:29:32
Die Frage, die mich im Moment am meisten beschäftigt
(ja, ich wache sogar in der Nacht schweißgebadet davon auf:biggrin: ) ist, was zum Henker werden Ati und nVidia tun, falls Intel tatsächlich mit einem über-TBR Chip daherkommt.
Intel ist mit seinen Produktionsprozess meistens einen Schritt vor der Konkurenz und nun haben sie noch dazu ein
Chipdesign lizensiert, welches - und da werden mir einige sicher zustimmen - als eines der am effizientesten am Markt überhaupt gilt.
Sollte Intel also nächstes Jahr mit einem in 45nm(?) Technik gemachten HighEnd Chip auf den Markt preschen, sollten Ati und nVidia sich schleunigst etwas neues einfallen lassen. Ev auch bei Imgtech mit einsteigen?
Was denkt ihr?

Erstens sehe ich immer noch nichts ueberzeugendes dass beweisst dass Intel wieder in's GPU Geschaeft steigen wird, nur lediglich ein paar verstreute Geruechte. Zweitens high end GPUs von Intel klingt verdammt unwahrscheinlich, da das Risiko zu gross waere und Intel weder die Resourcen noch die Erfahrung fuer high end GPUs hat.

Drittens stellt Intel CPUs her und da gibt es fundamentale Unterschiede was Herstellungsprozesse im Vergleich zu GPUs, eben weil die letzteren um einiges hoehere Chip-komplexitaet haben. Fuer 2007 werden high end GPUs im besten Fall im zweiten Halbjahr auf 65nm schrumpfen und nicht weniger.

Thowe
2006-08-29, 07:48:39
Erstens sehe ich immer noch nichts ueberzeugendes dass beweisst dass Intel wieder in's GPU Geschaeft steigen wird, nur lediglich ein paar verstreute Geruechte. Zweitens high end GPUs von Intel klingt verdammt unwahrscheinlich, da das Risiko zu gross waere und Intel weder die Resourcen noch die Erfahrung fuer high end GPUs hat.

Mit einem gut skalierbaren Design ist das Risiko sehr überschaubar und die Kosten sind prinzipiell für INTEL Peanuts. Wobei ich immer noch bei meiner Behauptung bleibe, das INTEL schlicht weg gar keine andere Wahl hat, als in den GPU Markt brauchbares und schnelles zu liefern.


Drittens stellt Intel CPUs her und da gibt es fundamentale Unterschiede was Herstellungsprozesse im Vergleich zu GPUs, eben weil die letzteren um einiges hoehere Chip-komplexitaet haben. Fuer 2007 werden high end GPUs im besten Fall im zweiten Halbjahr auf 65nm schrumpfen und nicht weniger.

Soooo viel ist das am Ende auch nicht und ich denke schon das INTEL genügend Ingenieure hat, die sich mit den Fertigungsprozessen und Tücken auskennen. Am Ende kochen alle mit Wasser und die modersten Anlagen und sicherlich auch Kapazitäten hat INTEL schon. Der schwierigste Schritt dürfte immer noch sein ein Herstellungsprozess weitesgehend in den Griff zu bekommen, Designs sind darauf durchaus anpassbar, für die Kosten von ein paar 100.000 Transistoren.

So inkomplex sind die Prozessoren auch nicht, deswegen hat IBM ja gerade den CELL entwickelt, der klingt zwar komplexer, ist es aber am Ende gar nicht und gleicht nicht umsonst in einigen Belangen einem Grafikchip.

Ailuros
2006-08-30, 05:40:33
Mit einem gut skalierbaren Design ist das Risiko sehr überschaubar und die Kosten sind prinzipiell für INTEL Peanuts. Wobei ich immer noch bei meiner Behauptung bleibe, das INTEL schlicht weg gar keine andere Wahl hat, als in den GPU Markt brauchbares und schnelles zu liefern.

"Brauchbar und schnell" muss aber nicht unbedingt high end heissen. Ich erwaehnte uebrigens nebenbei auch Resourcen und Erfahrung. Intel war bisher nichtmal faehig einen anstaendigen IGP zu liefern (G965 inklusive), wieso soll ich jetzt ploetzlich ueberzeugt sein dass Intel ploetzlich faehig ist eine high end GPU zu entwickeln?

Natuerlich koennte mir jemand sagen dass sie IMG IP benutzen koennten, aber ich sehe momentan nichts dass einen high end Design innerhalb Eurasia vorschlagen koennte und der letzte Versuch seitens IMG war auch nicht unbedingt erfolgreich (lack of resources), da selbst SEGA das IP nicht benutzte und anstatt irgendeinen NV4x Ableger in Lindbergh eingebaut hat.


Soooo viel ist das am Ende auch nicht und ich denke schon das INTEL genügend Ingenieure hat, die sich mit den Fertigungsprozessen und Tücken auskennen. Am Ende kochen alle mit Wasser und die modersten Anlagen und sicherlich auch Kapazitäten hat INTEL schon. Der schwierigste Schritt dürfte immer noch sein ein Herstellungsprozess weitesgehend in den Griff zu bekommen, Designs sind darauf durchaus anpassbar, für die Kosten von ein paar 100.000 Transistoren.

Du willst mir doch nicht einreden wollen dass 45nm fuer 2007 fuer GPUs nicht verdammt optimistisch ist oder? Fuer chips mit niedriger Komplexitaet waere es vielleicht schon moeglich, aber ich hab auf Gmax's Spekulationen fuer high end GPUs geantwortet. D3D10 GPUs von ATI/NVIDIA werden mit hoechster Wahrscheinlichkeit =/>500M Transistoren zaehlen; ich sehe weder eine solche chip Komplexitaet fuer CPUs in 2007, noch eine Chance dass ATI/NVIDIA mit weniger als 65nm in 2007 ankommen werden. Und beide haben nun mal die Resourcen und Erfahrung fuer Grafik die Intel eben nicht hat.

Ich bin froh wenn ich in der Zukunft von Intel anstaendige mainstream/budget GPUs oder IGPs mit anstaendigen Treibern sehen kann.

So inkomplex sind die Prozessoren auch nicht, deswegen hat IBM ja gerade den CELL entwickelt, der klingt zwar komplexer, ist es aber am Ende gar nicht und gleicht nicht umsonst in einigen Belangen einem Grafikchip.

Muss gerade der Grund sein weil SONY fuer PS3 zum ersten Mal zu externer Grafik IP griff, dass sich das Ding konstant verspaetet und SONY ein paar unangenehme Probleme (mit Cell Technologie verbunden) momentan ueberwaeltigen muss.

Du wirst wohl den kleinen Schuss Sarkasmus verzeihen koennen, aber ich hab durch die Jahre gelernt meine Hoffnungen so konservativ wie moeglich zu halten. Es hilft vor allem unangenehmen Ueberraschungen und "pipe dreams" zu entweichen.

Thowe
2006-08-30, 07:43:39
"Brauchbar und schnell" muss aber nicht unbedingt high end heissen. Ich erwaehnte uebrigens nebenbei auch Resourcen und Erfahrung. Intel war bisher nichtmal faehig einen anstaendigen IGP zu liefern (G965 inklusive), wieso soll ich jetzt ploetzlich ueberzeugt sein dass Intel ploetzlich faehig ist eine high end GPU zu entwickeln?

Entwickeln können sie den ganz sicher nicht, fähige Mitarbeiter wachsen leider nicht auf den Bäumen und das freies Potential sofort und gerne von NVIDIA aufgekauft wird, wohl aus gutem Grund, macht es auch nicht einfacher.

Natuerlich koennte mir jemand sagen dass sie IMG IP benutzen koennten, aber ich sehe momentan nichts dass einen high end Design innerhalb Eurasia vorschlagen koennte und der letzte Versuch seitens IMG war auch nicht unbedingt erfolgreich (lack of resources), da selbst SEGA das IP nicht benutzte und anstatt irgendeinen NV4x Ableger in Lindbergh eingebaut hat.

Wenn SEGA NV nutzt hat es aus meiner Sicht andere Gründe als das Potential von dem, was imgtec liefern könnte. Der Hauptgrund wird der Preis sein und das ist wohl ein guter für eine Firma, deren Gewinne deutlich unterhalb dessen liegen, was einige amerikanische Manager als Jahreseinkommen haben. Ich für mich halte es für eine Vernunftentscheidung.

Du willst mir doch nicht einreden wollen dass 45nm fuer 2007 fuer GPUs nicht verdammt optimistisch ist oder? Fuer chips mit niedriger Komplexitaet waere es vielleicht schon moeglich, aber ich hab auf Gmax's Spekulationen fuer high end GPUs geantwortet. D3D10 GPUs von ATI/NVIDIA werden mit hoechster Wahrscheinlichkeit =/>500M Transistoren zaehlen; ich sehe weder eine solche chip Komplexitaet fuer CPUs in 2007, noch eine Chance dass ATI/NVIDIA mit weniger als 65nm in 2007 ankommen werden. Und beide haben nun mal die Resourcen und Erfahrung fuer Grafik die Intel eben nicht hat.

INTEL hat bei den FABs im Moment einen technologischen Fortschritt von rund 2 Jahren, da kann niemand etwas dran rütteln. Allerdings ist das relativ unerheblich, da, sofern imgtec verwendet wird, deren Design keine Transistorenmonster sind. Wenn auch, INTEL hatte im Januar dieses Jahres einen 1 Millarde Transistoren Chip präsentiert im 45nm Prozess, die sind lange über die 6-T Zelle hinaus. Der Transistorcount ist auch nicht so entscheident, wenn man einen Prozess im Griff hat und eine 4Kern x86-CPU ist, gewertet nach dem Schwierigkeitsgrad der Fertigung, heftiger als eine GPU.


Ich bin froh wenn ich in der Zukunft von Intel anstaendige mainstream/budget GPUs oder IGPs mit anstaendigen Treibern sehen kann.

Wenn sie die Treiber nicht selbst machen, sicher, aber wenn sie tatsächlich einige gute Treiberentwickler ergattern konnten, warum also nicht.

Muss gerade der Grund sein weil SONY fuer PS3 zum ersten Mal zu externer Grafik IP griff, dass sich das Ding konstant verspaetet und SONY ein paar unangenehme Probleme (mit Cell Technologie verbunden) momentan ueberwaeltigen muss.

Der CELL ist so oder so vom Konzept her zu neu um umproblematisch in vielerlei Beziehung zu sein, aber er ist ohne Zweilel sehr interessant. Der Rest wird sich zeigen.

Du wirst wohl den kleinen Schuss Sarkasmus verzeihen koennen, aber ich hab durch die Jahre gelernt meine Hoffnungen so konservativ wie moeglich zu halten. Es hilft vor allem unangenehmen Ueberraschungen und "pipe dreams" zu entweichen.

Aber sicher das, freue mich schon dich darauf hinzuweisen, das du falsch lagst. ;)

Oder aber, vice versa, wir werden sehen. :D

Ailuros
2006-08-31, 05:38:46
Wenn SEGA NV nutzt hat es aus meiner Sicht andere Gründe als das Potential von dem, was imgtec liefern könnte. Der Hauptgrund wird der Preis sein und das ist wohl ein guter für eine Firma, deren Gewinne deutlich unterhalb dessen liegen, was einige amerikanische Manager als Jahreseinkommen haben. Ich für mich halte es für eine Vernunftentscheidung.

Nein es war nicht der Grund warum in Lindbergh ein NV4x Ableger landete; SEGA hat die Lizenzgebueren einstecken muessen.

INTEL hat bei den FABs im Moment einen technologischen Fortschritt von rund 2 Jahren, da kann niemand etwas dran rütteln. Allerdings ist das relativ unerheblich, da, sofern imgtec verwendet wird, deren Design keine Transistorenmonster sind. Wenn auch, INTEL hatte im Januar dieses Jahres einen 1 Millarde Transistoren Chip präsentiert im 45nm Prozess, die sind lange über die 6-T Zelle hinaus. Der Transistorcount ist auch nicht so entscheident, wenn man einen Prozess im Griff hat und eine 4Kern x86-CPU ist, gewertet nach dem Schwierigkeitsgrad der Fertigung, heftiger als eine GPU.

1. Der Transistoren-budget ist stets relativ zu der Leistung bzw. Markt den ein IHV anpeilt. Wuerde IMG heute auf high end zielen mit D3D10, sehe ich keinen Grund dass der Transistoren-count sooo bescheiden waere am Ende. Etwas sparsamer vielleicht schon, aber ohne eine wahre high end TBDR GPU je gesehen zu haben, ist die Spekulation etwas zu weit gegriffen.

2. Intel hat 2700G auf den Herstellungsprozessen vorgestellt, fuer die das Ding entwickelt wurde. Wieso hat Intel das Ding nicht von Anfang an in sagen wir mal 65nm damals vorgestellt, wenn es so einfach ist und ueberhaupt da die Dinger sowieso winzig sind? Bei SGX wird es wohl auch nicht besonders anders sein. Steigt jetzt die Chip-komplexitaet um zich Male, gibt es mehr oder weniger Gruende von Anfang an auf kleinere Prozesse zu steigen?

Wenn sie die Treiber nicht selbst machen, sicher, aber wenn sie tatsächlich einige gute Treiberentwickler ergattern konnten, warum also nicht.

Dafuer muessten sie erstmal auch noch anstaendige HW entwickeln, wobei mir G965 keine besondere Hoffnung laesst dass sich was besonderes geaendert hat. Fuer IMG IP liefert wohl IMG gleich die Treiber mit.

Der CELL ist so oder so vom Konzept her zu neu um umproblematisch in vielerlei Beziehung zu sein, aber er ist ohne Zweilel sehr interessant. Der Rest wird sich zeigen.

Macht ihn trotzdem nicht den "Wunderprozessor" (ueberhaupt fuer Grafik) den sich manche erhofften, oder?

Aber sicher das, freue mich schon dich darauf hinzuweisen, das du falsch lagst. ;)

Oder aber, vice versa, wir werden sehen. :D

Nichts wuerde mich mehr freuen als dass ich hier total falsch liegen wuerde ;)

Thowe
2006-08-31, 22:52:58
...

1. Der Transistoren-budget ist stets relativ zu der Leistung bzw. Markt den ein IHV anpeilt. Wuerde IMG heute auf high end zielen mit D3D10, sehe ich keinen Grund dass der Transistoren-count sooo bescheiden waere am Ende. Etwas sparsamer vielleicht schon, aber ohne eine wahre high end TBDR GPU je gesehen zu haben, ist die Spekulation etwas zu weit gegriffen.

Im Grunde könnten sie gleich ein Monster schaffen (kostet aber wohl zuviel Zeit), aber ich denke, mit einem Viertel der Transistoren der G80 könnten sie durchaus deren Leistung erreichen.


2. Intel hat 2700G auf den Herstellungsprozessen vorgestellt, fuer die das Ding entwickelt wurde. Wieso hat Intel das Ding nicht von Anfang an in sagen wir mal 65nm damals vorgestellt, wenn es so einfach ist und ueberhaupt da die Dinger sowieso winzig sind? Bei SGX wird es wohl auch nicht besonders anders sein. Steigt jetzt die Chip-komplexitaet um zich Male, gibt es mehr oder weniger Gruende von Anfang an auf kleinere Prozesse zu steigen?

INTEL Problem ist im Moment wohl eher, das sie gar nicht genügend Prozessoren, Chipsätze etc. fertigen können und somit wohl festlegen müssen, was am effektivsten bei der Ausbeute ist. Ich denke, das ist der entscheidene Faktor, alles andere wird sich bei Zeiten zeigen müssen.


Dafuer muessten sie erstmal auch noch anstaendige HW entwickeln, wobei mir G965 keine besondere Hoffnung laesst dass sich was besonderes geaendert hat. Fuer IMG IP liefert wohl IMG gleich die Treiber mit.


Wenn INTEL wirklich das Ding gemacht hat (ich wüsste nur nicht wer es dort gemacht haben sollte, es sei denn, sie haben zig Musen gefunden), dann würde ich mir (ohne Musen) auch keine so große Hoffnungen machen. Allerdings gehe ich sehr fest davon aus, das INTEL unbedingt gute Grafik aus eigenem Haus für die Zukunft braucht und vor allem, das sie stromsparende und effiziente Hardware benötigen und ich denke, so viele potenzielle Anbieter geeigneter Lösungen gibt es schlicht weg gar nicht.

- Performance per Watt
- viiv
- Centrino Duo

Alles Bereiche, wo es bislang an geeigneter Grafiklösung fehlt. Vor allem sind das potentielle Märkte, das die Prozessorleistung mittlerweile höher ist als die nötige Leistung ist dabei nur ein weiterer Faktor. Digital Home, hochauflösende Videos - Das sind die Märkte die nach neuer und bessere Hardware schreien.


... Nichts wuerde mich mehr freuen als dass ich hier total falsch liegen wuerde ;)

Nichts würde mich mehr freuen, als wenn du es wirklich tust. :)

Gmax
2006-08-31, 23:07:45
Im Grunde könnten sie gleich ein Monster schaffen (kostet aber wohl zuviel Zeit), aber ich denke, mit einem Viertel der Transistoren der G80 könnten sie durchaus deren Leistung erreichen.

Wow :eek: Bist du dir da sicher? Ich meine, das wäre ja phantastisch!
Und das Ganze noch kombiniert mit 45nm und fertig ist die High End stromspar GPU:biggrin:
Womit ich wieder bei meiner Frage wäre. Ist es an der Zeit,
daß Ati und nVidia nun auch einen TBR entwickeln sollten?

Onkeltom421
2006-08-31, 23:37:07
Wow :eek: Bist du dir da sicher? Ich meine, das wäre ja phantastisch!
Und das Ganze noch kombiniert mit 45nm und fertig ist die High End stromspar GPU:biggrin:
Womit ich wieder bei meiner Frage wäre. Ist es an der Zeit,
daß Ati und nVidia nun auch einen TBR entwickeln sollten?

Wenn das so einfach wäre hätten sie es sicher schon gemacht.
Man hat ja gesehen was Kyro 1/2 zu leisten im Stande waren.

Ailuros
2006-09-01, 05:32:36
Im Grunde könnten sie gleich ein Monster schaffen (kostet aber wohl zuviel Zeit), aber ich denke, mit einem Viertel der Transistoren der G80 könnten sie durchaus deren Leistung erreichen.

Ergo schaetzungsweise irgendwo =/>130M Transistoren ja? Das wuerde dann eher etwas in der Richtung der stornierten Serie5 beschreiben, und wuerde zwar mit NV40 relativ gut konkurrieren aber danach waere dann auch die Sintflut.


INTEL Problem ist im Moment wohl eher, das sie gar nicht genügend Prozessoren, Chipsätze etc. fertigen können und somit wohl festlegen müssen, was am effektivsten bei der Ausbeute ist. Ich denke, das ist der entscheidene Faktor, alles andere wird sich bei Zeiten zeigen müssen.

Eben um darum geht es mir auch; es ist ein Buendel verschiedener Faktoren dass mit Intel's core-Geschaeft und dem Risiko in anderen Maerkten einzudringen verbunden ist. Ein konservatives Eindringen mit budget Loesungen halte ich vollkommen moeglich, da aber die Resourcen und das Risiko fuer eine "top to bottom" volle Produktlinie viel zu gross ist, bezweifle ich ernsthaft das letztere.


Wenn INTEL wirklich das Ding gemacht hat (ich wüsste nur nicht wer es dort gemacht haben sollte, es sei denn, sie haben zig Musen gefunden), dann würde ich mir (ohne Musen) auch keine so große Hoffnungen machen. Allerdings gehe ich sehr fest davon aus, das INTEL unbedingt gute Grafik aus eigenem Haus für die Zukunft braucht und vor allem, das sie stromsparende und effiziente Hardware benötigen und ich denke, so viele potenzielle Anbieter geeigneter Lösungen gibt es schlicht weg gar nicht.

- Performance per Watt
- viiv
- Centrino Duo

Alles Bereiche, wo es bislang an geeigneter Grafiklösung fehlt. Vor allem sind das potentielle Märkte, das die Prozessorleistung mittlerweile höher ist als die nötige Leistung ist dabei nur ein weiterer Faktor. Digital Home, hochauflösende Videos - Das sind die Märkte die nach neuer und bessere Hardware schreien.

Und dafuer wird im Notfall IMHO auch Eurasia ausreichen. Nur skaliert eben das Dingsda auch nicht unendlich nach oben. Fuer alles =/> mainstream braeuchte man eine neue Entwicklung. Hier koennte Intel natuerlich so etwas finanzieren, aber einfache Logik sagt mir hier dass es im Grunde weiser waere eine solche Idee Schritt fuer Schritt zu realisieren. Man faengt klein an und je nach Erfolg, setzt dann in der Zukunft ein jeweils hoeheres Ziel an.


Nichts würde mich mehr freuen, als wenn du es wirklich tust. :)

Es ist zwar schoen zu traeumen, aber mehr als nur eine Ohrfeige der Vergangenheit haben mir geholfen fest auf dem Boden zu stehen.

Ailuros
2006-09-01, 05:44:53
Wenn das so einfach wäre hätten sie es sicher schon gemacht.
Man hat ja gesehen was Kyro 1/2 zu leisten im Stande waren.

Wobei aber KYRO2 15M Transistoren zaehlte und die konkurrierende GeForce2 MX 19M Transistoren. Natuerlich gab es Umstaende wo die K2 selbst eine 25M GF2 in den Schatten stellen konnte, aber die GF2 hatte auch ihre eigenen Vorteile. Als eigentliches Ziel war fuer K2 die GF2 MX gedacht; Featureset und dessen Nutzbarkeit hin und her, haette Serie3 auch eine T&L Einheit gehabt waere K2 auch groesser gewesen.

Damit fliegt Thowe's Schaetzung fuer ein Viertel der Transistoren erstmal zum Fenster raus. TBDRs sind keine Wunderkinder; man kann zwar theoretisch hoehere Leistung pro Transistor erreichen, aber so gross ist der Unterschied nun auch wieder nicht. Haette er ein Viertel der Transistoren weniger eingeschaetzt, wuerde ich mit etwas Druck sogar zustimmen ;)

Cyphermaster @travel
2006-09-01, 09:03:31
Das interessante dabei finde ich nicht einmal die Transistorenmenge. Was mich absolut verblüfft hat an meiner Kyro2 damals, das waren der in Relation niedrige Takt (175MHz verglichen mit 195Mhz der GF2MX und ich glaub sogar bis zu 215 bei den GF2, also 10-20% weniger!) und der (ebenfalls nur mit 175Mhz getaktete) SDR-Speicher, während die GF2/GF2MX bereits auf DDR ausweichen mußten.

Wechselbalg
2006-09-01, 10:51:43
Die Geforce 2 MX hatte doch in der ersten Version auch noch 175 Mhz Takt und SDR Speicher, bzw. DDR Speicher, der dann aber nur mit 64 Bit angebunden war, oder habe ich das jetzt falsch im Kopf?

Nichtsdestotrotz fand ich die Kyros dennoch beachtlich. ^^

Cyphermaster @travel
2006-09-01, 11:37:32
Solche Schnecken mag es gegeben haben (hab ich aber nicht gesehen), allerdings fand ich es beachtlich, daß die Kyro eben auch höher getakteten und mit deutlich flotterem (teureren) Speicher ausgestatteten Karten (GF2MX400, GF2Ti200) noch großteils Paroli bieten konnte. Bei den aktuellen Karten wären solche Einsparungen schon wünschenswert, würde ich mal behaupten wollen, auch wenn es sich wahrscheinlich weniger im Endpreis, als im Strombedarf und der Abwärme der Karten niederschlagen würde.

Wir sind ja Kühler- und Lärm-technisch mittlerweile wieder in Bereichen, wo man seinerzeit bei den GF FX5800 Ultra noch Satire-Videos über deren Kühllösung gemacht hat... :rolleyes: Auch die schiere Länge der Karten ist teilweise schon problematisch, weil sie an den Festplatten anstoßen (siehe Threads dazu hier im Forum).

Gast
2006-09-01, 11:55:30
Im Grunde könnten sie gleich ein Monster schaffen (kostet aber wohl zuviel Zeit), aber ich denke, mit einem Viertel der Transistoren der G80 könnten sie durchaus deren Leistung erreichen.



du unterschätzt wohl massiv die heutigen GPUs von ATI und NV, seit der Geforce1/2 hat sich bei denen einiges in sachen effizienz getan.

selbst damals war es den kyro-karten nicht möglich mit 1/4 der transistoren die gleiche leistung zu bekommen, wie soll das heute funktionieren?

und selbst damals war es den kyro-karten nur in wenigen außnahmen möglich mit der natürlich deutlich teureren GF2GTS halbwegs mitzuhalten. sobald trilineare filterung ins spiel kam (die eigentlich seit der GF1 standard ist) war es dann aus mit dem über-drüber-preisbrecher und die karte war dann "nur" mehr einer gute alternative zur GF2MX (die kaum mehr transistoren hatte, was man auch großteils der T&L-einheit verdankt)

zudem wird heute wesentlich mehr gerechnet und damit wesentlich mehr takte pro pixel in den shadern und TMUs verbracht. damit sinkt relativ gesehen der verbrauch an bandbreite und ein fiktiver TBDR bräuchte schon jede menge rohleistung um mit heutigen GPUs mithalten zu können, mit effizienz alleine ist es nicht getan.

Gast
2006-09-01, 11:58:51
Das interessante dabei finde ich nicht einmal die Transistorenmenge. Was mich absolut verblüfft hat an meiner Kyro2 damals, das waren der in Relation niedrige Takt (175MHz verglichen mit 195Mhz der GF2MX und ich glaub sogar bis zu 215 bei den GF2, also 10-20% weniger!) und der (ebenfalls nur mit 175Mhz getaktete) SDR-Speicher, während die GF2/GF2MX bereits auf DDR ausweichen mußten.

die ur-GF2MX hatte auch nur 175MHz GPU-takt und 166MHz speichertakt. der speicher war damals wahlweise mit 64bit DDR oder 128bit SDR angebunden (kyro immer 128bit SDR)
lediglich von hercules gab es damals eine version der GF2MX mit 183MHz speichertakt, bei 128bit SDR-bus.

die höher getaktete version in form der GF2MX400 (200MHz GPU, speicher weiß ich nicht mehr genau, dürfte aber wohl auch irgendwas bei 200MHz gewesen sein) kam erst deutlich später.

Gaestle
2006-09-01, 12:40:50
du unterschätzt wohl massiv die heutigen GPUs von ATI und NV, seit der Geforce1/2 hat sich bei denen einiges in sachen effizienz getan.

Sehe ich auch so.


zudem wird heute wesentlich mehr gerechnet und damit wesentlich mehr takte pro pixel in den shadern und TMUs verbracht. damit sinkt relativ gesehen der verbrauch an bandbreite und ein fiktiver TBDR bräuchte schon jede menge rohleistung um mit heutigen GPUs mithalten zu können, mit effizienz alleine ist es nicht getan.

Wenn es aber gelingen würde, Overdraw zu verwerfen, BEVOR die ganzen Shader darauf berechnet werden, könnte man doch auch 'ne Menge Rechenleistung sparen, oder nicht?

Gast
2006-09-01, 13:19:19
Wenn es aber gelingen würde, Overdraw zu verwerfen, BEVOR die ganzen Shader darauf berechnet werden, könnte man doch auch 'ne Menge Rechenleistung sparen, oder nicht?

das wird ja heutzutage auch gemacht (earlyZ).

spätestens mit einem z-first-pass gibt es beim eigentlichen rendering 0 overdraw mehr.

Gast
2006-09-01, 13:26:16
Sehe ich auch so.
Wenn es aber gelingen würde, Overdraw zu verwerfen, BEVOR die ganzen Shader darauf berechnet werden, könnte man doch auch 'ne Menge Rechenleistung sparen, oder nicht?

Dazu brauchst du aber jede Menge Rechenleistung um den Overdraw verwerfen zu können. Was du an der einen Stelle an Rechenleistung sparst, musst du an anderer Stelle aufwenden.

robbitop
2006-09-01, 14:30:05
das wird ja heutzutage auch gemacht (earlyZ).

spätestens mit einem z-first-pass gibt es beim eigentlichen rendering 0 overdraw mehr.
Ein Z-First pass lohnt aber nur selten. Und der TBDR schafft 0 Overdraw in gleich einem einzigen pass. Jeder neue Renderpass kostet ordentlich, denn die gesamte Geometrie muss wieder berechnet werden (ok die ist meist vorrätig in den Vertex Buffern) und alles muss erneut durch die Pipeline gejagt werden. Das kostet richtig Warte-Takte.

Gast
2006-09-01, 15:05:44
Ein Z-First pass lohnt aber nur selten. Und der TBDR schafft 0 Overdraw in gleich einem einzigen pass. Jeder neue Renderpass kostet ordentlich, denn die gesamte Geometrie muss wieder berechnet werden (ok die ist meist vorrätig in den Vertex Buffern) und alles muss erneut durch die Pipeline gejagt werden. Das kostet richtig Warte-Takte.

je aufwändiger die eigentliche berechnung, desto weniger kostet der z-pass verhältnismäßig.

heutige gpus können verdammt viele z-werte/takt verwerfen und wenn die pixelberechnungen mal dutzende oder gar hunderte takte brauchen fällt das ganze kaum mehr ins gewicht.

im prinzip ist dass deferred rendering ja auch nicht soviel anders. dort wird ja auch zuerst die geometrie verarbeitet und sortiert und anschließend verzögert gerendert.
natürlich wird das beim TBDR erstens mal pro tile und zweitens mit dezidierter hardware erledigt. nur diese hardware braucht natürlich auch transistoren, die man andererseits wieder in mehr ALUs und damit einer höheren rohleistung investieren kann.

spätestens mit unified shadern, wenn alle ALUs im ersten pass schon an den vertexshadern arbeiten können liegt auch kaum mehr leistung brach.

und vor allem, wenn TBDR so toll wären und so viel weniger transistoren für die gleiche effektive leistung brauch würden, glaubt ihr wirklich die hochbezahlten ingenieure von NV und ATI sind zu blöd das zu erkennen?

wenn man auf diese weise mit halbem aufwand doppelt so schnelle GPUs bauen könnte, hätten das beide doch schon längst getan.

natürlich hat ein TBDR in einigen fällen große vorteile, aber der kosten/nutzen-aufwand dürfte es wohl nicht rechtfertigen die bisherige technik einfach wegzuwerfen.

Cyphermaster @travel
2006-09-01, 15:05:59
die höher getaktete version in form der GF2MX400 (200MHz GPU, speicher weiß ich nicht mehr genau, dürfte aber wohl auch irgendwas bei 200MHz gewesen sein) kam erst deutlich später.Da aber auch die MX400 (teils die GF2Ti) von der gleich teuren Kyro überflügelt wurde, sind die früheren, langsameren Versionen eigentlich auch egal, oder? 10% mehr Takt, mehr Speicherbandbreite - und trotzdem nicht schneller. Im Gegenteil, die Kyro mußte für maximale Geschwindigkeit nicht auf 16Bit-Farben runter, wie die GF2/GF2MX!

Um die Kyro zu einem Renner zu machen, hätte man sie damals nicht so stark auf das Lowcost-Segment trimmen dürfen. In einem besseren Fertigungsprozeß produziert (= mit höheren Taktraten) und mit einer T&L-Einheit versehen, hätte die Kyro imho schon ein ernstzunehmender Gegner für die damaligen Top-/Midrange-Karten werden können.

robbitop
2006-09-01, 15:31:21
je aufwändiger die eigentliche berechnung, desto weniger kostet der z-pass verhältnismäßig.
Das ist klar.


heutige gpus können verdammt viele z-werte/takt verwerfen und wenn die pixelberechnungen mal dutzende oder gar hunderte takte brauchen fällt das ganze kaum mehr ins gewicht.
Richtig, dennoch ist da noch das Problem, dass aus einem Pass zwei Pässe werden. Und genau das haut irre rein.
Schöne Beispiele dafür sind das Tiling vom ATI C1 auf der XBOX360. Was meinst du warum das keiner benutzt? Richtig, weil für jedes Tile ein neuer Pass angefangen werden muss und das irre reinhaut.
Ein anderes Beispiel ist die GF2, die konnte noch nicht so viele Texturen loopen und wenn das Spiel zu viele Texturschichten zu kombinieren wollte, musste ein neuer Pass begonnen werden, auch das haut enorm rein. Die GF3 hat dies ja deutlich verbessert. Und noch ein weiteres Beispiel: der DeltaChrome hatte bzgl Alphablendings den Bug, dass er nicht so viele Texturen loopen konnte, wie eigentlich zulässig war. Somit musste er beim Alphablending ständig neue Pässe anfangen und die Performance brach enorm ein.

Fazit: wenn First-Z so toll wäre, würde jeder IHV das über den Treiber erzwingen. Der Haken ist nunmal der extra Pass. Es muss anscheinend eine Menge Overdraw zusammenkommen, bis der break-even erreicht ist.


im prinzip ist dass deferred rendering ja auch nicht soviel anders. dort wird ja auch zuerst die geometrie verarbeitet und sortiert und anschließend verzögert gerendert.
Nur, dass dies in einem Pass geschieht. Prinzipiell wird eine Art reiner Z Pass in den Tilecache geschrieben. Und erst dann gehen die Tiles in die Renderpipeline. Das spart den bösen zweiten Pass und die TBDRs haben ein Vielfaches an Z/Stencil Units von IMRs (Series3 hatte IIRC 32 davon). Das Tolle ist auch, dass man keine Z-Werte in den Speicher schreiben muss. Das spart Bandbreite und könnte Multisampling so gut wie kostenfrei machen.


natürlich wird das beim TBDR erstens mal pro tile und zweitens mit dezidierter hardware erledigt. nur diese hardware braucht natürlich auch transistoren, die man andererseits wieder in mehr ALUs und damit einer höheren rohleistung investieren kann.
Hast du das von Dave Kirk abgeschrieben? X-D
Klar gibt's auch einen Haken, ist nur die Frage, wie teuer diese Hardware ist. Ich wage aber mal ganz einfach zu behaupten, dass das im Endeffekt dennoch billiger kommt.
Ich stütze meine Behauptung auf 2 Beispielen:

-Serie3: Logikteil: 15 Mio Transistoren (3 Mio wurden beim Kyro2 als Massetransistoren in den Floorplan integriert).
Konkurrenz: GF2MX (20 Mio) und GF2GTS (25 Mio)
Hinzukommt, dass Serie3 technologisch deutlich weiter war (EMBM und Dot3, und native 32 Bit TMUs um nur einiges zu nennen).

-MBX/SGX: hier im PDA Markt kommt es besonders auf's Transistorbudget an, wie auch auf Effizienz um die mangelhaften Ressourcen richtig auszunutzen.
Die PVR GPUs sind in diesem Markt führend in Performance und Leistungsaufnahme. Die Imagenon, die Goforce und auch das Design von den Bitboys konnten recht wenig dagegen ausrichten.


spätestens mit unified shadern, wenn alle ALUs im ersten pass schon an den vertexshadern arbeiten können liegt auch kaum mehr leistung brach.
Als wenn die Geometrieeinheiten beim Z-Firstpass auf vernünftiger HW limitieren würde... ;)


und vor allem, wenn TBDR so toll wären und so viel weniger transistoren für die gleiche effektive leistung brauch würden, glaubt ihr wirklich die hochbezahlten ingenieure von NV und ATI sind zu blöd das zu erkennen?
Das nicht, aber sie scheuen das Risiko. Einen TBDR zu bauen bedeutet, von ganz vorne anzufangen. Da die Renderphilosophie eine andere ist, kann man nicht auf bestehende Designs aufsetzen (was man eigentlich bisher IMMER gemacht hat). Weiterhin sind die Ingenieure von ATI/NV zwar sehr gut, aber sie besitzen m.E. keine große Erfahrung im Entwickeln eines TBDRs. Somit müssten die erstmal ein paar Designs entwickeln, um mit der Zeit auf einen grünen Ast zu kommen.
Das kostet alles viel Geld und Zeit. Gerade das hat man in diesem Business nicht. Was passieren kann, wenn man sich mit Entwicklungsressourcen, zeigte NV30 und zeigte auch 3dfx mit ihrem Untergang.



natürlich hat ein TBDR in einigen fällen große vorteile, aber der kosten/nutzen-aufwand dürfte es wohl nicht rechtfertigen die bisherige technik einfach wegzuwerfen.
Siehe oben. Es wäre viel zu kostenaufwändig, mal eben von 0 an soetwas zu entwickeln.

Gast
2006-09-01, 16:28:07
Ein anderes Beispiel ist die GF2, die konnte noch nicht so viele Texturen loopen und wenn das Spiel zu viele Texturschichten zu kombinieren wollte, musste ein neuer Pass begonnen werden, auch das haut enorm rein. Die GF3 hat dies ja deutlich verbessert. Und noch ein weiteres Beispiel: der DeltaChrome hatte bzgl Alphablendings den Bug, dass er nicht so viele Texturen loopen konnte, wie eigentlich zulässig war. Somit musste er beim Alphablending ständig neue Pässe anfangen und die Performance brach enorm ein.


das gilt in dem fall aber vor allem wegen der deutlich höheren anforderungen an die speicherbandbreite (genau das was wir eigentlich verhindern wollen ;) )
in diesen fällen muss jedes mal vermehrt in den speicher geschrieben und daraus gelesen werden, gerade bei einer karte die extrem an der bandbreite hängt, wie es bei der GF2 der fall war haut das natürlich extrem rein.



Fazit: wenn First-Z so toll wäre, würde jeder IHV das über den Treiber erzwingen. Der Haken ist nunmal der extra Pass. Es muss anscheinend eine Menge Overdraw zusammenkommen, bis der break-even erreicht ist.


wenn wir gerade dabei sind, gibt es nicht im delta/gammachrome-treiber eine derartige option? gibt ja leider kaum tests ob und wieviel das bringt. (wobei der delta/gammachrome meines wissens ja auch noch relativ wenige z-checks/takt zusammenbringt, bei einer potenteren hardware sollte der break-even deutlich früher kommen)
aber generell sollte man imo schon den entwickler entscheiden lassen ob nun ein z-first-pass etwas bringt oder nicht.


Nur, dass dies in einem Pass geschieht. Prinzipiell wird eine Art reiner Z Pass in den Tilecache geschrieben. Und erst dann gehen die Tiles in die Renderpipeline. Das spart den bösen zweiten Pass und die TBDRs haben ein Vielfaches an Z/Stencil Units von IMRs (Series3 hatte IIRC 32 davon). Das Tolle ist auch, dass man keine Z-Werte in den Speicher schreiben muss. Das spart Bandbreite und könnte Multisampling so gut wie kostenfrei machen.


klar hat es den vorteil dass man keinen extra z-buffer braucht, und vor allem für multisampling mit hohen sampleanzahlen ist die technik natürlich verdammt interessant, man spart ja auch einiges an VRAM.


Hast du das von Dave Kirk abgeschrieben? X-D


nö, ich habe versucht meine spärlichen mengen an gesunden menschenverstand zu benutzen ;)


Klar gibt's auch einen Haken, ist nur die Frage, wie teuer diese Hardware ist. Ich wage aber mal ganz einfach zu behaupten, dass das im Endeffekt dennoch billiger kommt.
Ich stütze meine Behauptung auf 2 Beispielen:

-Serie3: Logikteil: 15 Mio Transistoren (3 Mio wurden beim Kyro2 als Massetransistoren in den Floorplan integriert).
Konkurrenz: GF2MX (20 Mio) und GF2GTS (25 Mio)
Hinzukommt, dass Serie3 technologisch deutlich weiter war (EMBM und Dot3, und native 32 Bit TMUs um nur einiges zu nennen).


gut und schön, jetzt noch die frage wieviel alleine die T&L-unit kostet?
wenn ich mich recht erinnere ware das so um die 2-3Mio, wenn wir diese abziehen ist der unterschied nicht mehr sehr groß.
technologisch fortschrittlicher waren die kyro-tmus auch kaum, auch geforce-tmus rechneten nativ mit 32bit (intern war es glaub ich sowohl bei der kyro als auch bei der geforce sogar noch höher).
die vorteile auf kyro-seite waren lediglich EMBM (DOT3 konnte auch die geforce) und bis zu 8 texturen/pass, was aber auch nur ein simpler loop ist, und damals kaum eine rolle spielte, da kaum ein spiel mehr als 2 texturschichten eingesetzt hat.



Als wenn die Geometrieeinheiten beim Z-Firstpass auf vernünftiger HW limitieren würde... ;)

kommt darauf an, limitieren können ja nur die VS oder die z-reject-units, die restliche pipeline ist ja im ersten pass "außer betrieb".


Das nicht, aber sie scheuen das Risiko. Einen TBDR zu bauen bedeutet, von ganz vorne anzufangen. Da die Renderphilosophie eine andere ist, kann man nicht auf bestehende Designs aufsetzen (was man eigentlich bisher IMMER gemacht hat). Weiterhin sind die Ingenieure von ATI/NV zwar sehr gut, aber sie besitzen m.E. keine große Erfahrung im Entwickeln eines TBDRs. Somit müssten die erstmal ein paar Designs entwickeln, um mit der Zeit auf einen grünen Ast zu kommen.


ich sage ja auch nicht dass man als TBDR keine effizienten GPUs bauen kann, eventuell sogar effizientere (wobei das wohl immer auf die anwendung ankommt), ich will nur sagen dass diese technik auch nicht der heilige gral ist, mit dem man mit 1/4 des aufwandes die gleiche leistung erreicht.

wenn das möglich wäre, dann würde ist sich für NV/ATI mehr als nur auszahlen selbst nebenher ein 2. GPU-design zu entwickeln (nachdem dieses ja ach so inkomplex ist brauch man ja nicht zuviele ressourcen ;) *vorsicht ironie*) und dieses wenn die zeit reif ist auf den markt zu werfen.


und wenn wir gerade beim break-even für den z-first pass sind: die doom3-engine nutzt ja bekanntlich diese technik, und id-software wird das ganze ja nicht "zum spass" machen, weil es nichts bringt.
und das pixel-shading in doom3 ist ja nicht wirklich dermaßen aufwändig, wenn man sich dagegen unreal3 oder crysis ansieht sollte ein z-first-pass dort noch deutlich mehr bringen (es sei denn die engine hat nicht sowieso schon sehr effiziente HSR-mechanismen)

robbitop
2006-09-01, 16:41:41
das gilt in dem fall aber vor allem wegen der deutlich höheren anforderungen an die speicherbandbreite (genau das was wir eigentlich verhindern wollen ;) )
Es ist auch die Bandbreite aber keinesfalls "nur". Es ist auch generell der "Neuanfang". Die Pipeline darf wieder neu gefüllt erwerden und die Geometrie muss neu geholt werden. Das kostet generell.


wenn wir gerade dabei sind, gibt es nicht im delta/gammachrome-treiber eine derartige option? gibt ja leider kaum tests ob und wieviel das bringt. (wobei der delta/gammachrome meines wissens ja auch noch relativ wenige z-checks/takt zusammenbringt, bei einer potenteren hardware sollte der break-even deutlich früher kommen)
Der DeltaChrome macht keinen Z-First Pass. Ursprünglich dachte man bei S3, dass das was bringen würde, aber man begriff anscheinend sehr schnell, dass das Unfug war. Ich glaube seit der offiziellen Auslieferung der DC betrieben diese keinen Z-First Pass mehr.


aber generell sollte man imo schon den entwickler entscheiden lassen ob nun ein z-first-pass etwas bringt oder nicht.
Ack.




technologisch fortschrittlicher waren die kyro-tmus auch kaum, auch geforce-tmus rechneten nativ mit 32bit (intern war es glaub ich sowohl bei der kyro als auch bei der geforce sogar noch höher).
Wie erklärst du dir dann, dass beim NV15/11 bei synthetischen MT Tests in 32 Bit die Texelfüllrate auf 50% einbrach? ;-)
Für 32 Bit Filterung brauchte NV1x 2 Takte pro Bi Sample.


die vorteile auf kyro-seite waren lediglich EMBM (DOT3 konnte auch die geforce) und bis zu 8 texturen/pass, was aber auch nur ein simpler loop ist, und damals kaum eine rolle spielte, da kaum ein spiel mehr als 2 texturschichten eingesetzt hat.
Kaum ein Spiel hat damals TnL eingesetzt oder Dot3 oder EMBM. Dennoch ist es eine Leistung in HW.
EMBM braucht schon deutlich komplexere Combiner als die NV1x an Board hatte. Und AFAIR konnte Serie3 auch deutlich besseres AF als NV1x das bot.



ich will nur sagen dass diese technik auch nicht der heilige gral ist, mit dem man mit 1/4 des aufwandes die gleiche leistung erreicht.
Dem stimme ich absolut zu.



und wenn wir gerade beim break-even für den z-first pass sind: die doom3-engine nutzt ja bekanntlich diese technik, und id-software wird das ganze ja nicht "zum spass" machen, weil es nichts bringt.
Die Doom3 Engine ist IMO nicht sonderlich toll geschrieben. Zumindest, das was dabei bisher herauskam, beeindrucke bisher nicht wirklich. Ich vermute, dass JC den Z-First Pass gewählt hat, da massig Stencilschatten verwendet werden und man diese ja gleich im ersten Pass machen könnte. Hier war der Break-Even wohl erreicht.


und das pixel-shading in doom3 ist ja nicht wirklich dermaßen aufwändig, wenn man sich dagegen unreal3 oder crysis ansieht sollte ein z-first-pass dort noch deutlich mehr bringen (es sei denn die engine hat nicht sowieso schon sehr effiziente HSR-mechanismen)
Das Shading nicht, aber der Overdraw ist in Doom3 ziemlich böse.

Cyphermaster
2006-09-01, 17:08:01
technologisch fortschrittlicher waren die kyro-tmus auch kaum, auch geforce-tmus rechneten nativ mit 32bit (intern war es glaub ich sowohl bei der kyro als auch bei der geforce sogar noch höher).
Nix da. Die Kyro rechnete mit 32bit durchgängig, bei 16bit Einstellung wurde nur runtergerechnet und war deswegen auch nicht schneller. Die Geforce konnte zwar auch 32bit, jedoch waren GF2/GF2MX da deutlich langsamer, als in 16bit.

die vorteile auf kyro-seite waren lediglich EMBM (DOT3 konnte auch die geforce) und bis zu 8 texturen/pass, was aber auch nur ein simpler loop ist, und damals kaum eine rolle spielte, da kaum ein spiel mehr als 2 texturschichten eingesetzt hat."lediglich" EMBM finde ich witzig... Mangels den damals noch nicht existenten Shadern war das ein immenser Vorteil bei der optischen Qualität in Spielen. Durch die Übermacht der GeForce-Modelle wurde das aber bei den Mainstream-Spielen leider relativ wenig eingesetzt; und mit den Shadern ab den GF3/Radeon8500 war dann das EMBM-Feature auch nicht mehr so eindrucksvoll; gleiches gilt für die erhöhte Anzahl der Texturschichten.
DOT3 konnten die GF2 zwar auch, aber auch da war die Performance im Vergleich mit der Kyro nicht so toll (Hatte beide Karten parallel, konnte das also 1:1 vergleichen/miterleben).

Insgesamt hatte die Kyro Potential, deutlich attraktivere Grafik bei gleicher Geschwindigkeit wie die GF2 zu bieten (grundsätzlich auch sehr gutes AF und FSAA) - durch den Mangel an Verbreitung und fehlenden leistungsstärkeren Modellen für das Gamer-Segment, wurde es durch die Programmierer nur nie wirklich genutzt. Als man dann soweit war, war die Kyro schon veraltet, und kein Nachfolger da.

wenn das möglich wäre, dann würde ist sich für NV/ATI mehr als nur auszahlen selbst nebenher ein 2. GPU-design zu entwickeln (nachdem dieses ja ach so inkomplex ist brauch man ja nicht zuviele ressourcen ;) *vorsicht ironie*) und dieses wenn die zeit reif ist auf den markt zu werfen.
Investition in etwas, was ggf. ein Fehlschlag wird, während man gleichzeitig mühevoll um die Performance-Krone bei den Immediate-Renderern kämpft? No way, da bleiben alle wichtigen Ressourcen gebündelt, und da eingesetzt, wo Gewinn viel sicherer zu erwirtschaften ist.
Sowas kriegt eine Entwicklungsabteilung vielleicht genehmigt, wenn der Chef mal in Schnapslaune ist und man einen guten wirtschaftlichen Vorsprung vor der Konkurrenz zu verbuchen hat, wie z.B. ATIs Erfolg mit der R3xx-Reihe, aber auch nur dann.

robbitop
2006-09-01, 17:48:05
"lediglich" EMBM finde ich witzig... Mangels den damals noch nicht existenten Shadern war das ein immenser Vorteil bei der optischen Qualität in Spielen. Durch die Übermacht der GeForce-Modelle wurde das aber bei den Mainstream-Spielen leider relativ wenig eingesetzt;
Naja. DirectX8 Shader waren so viel weiter als die DirectX7 Combiner nicht. Mit DirectX8 haben die Combiner neue Namen bekommen und eine Mindestanforderung gestellt (von denen viele schon von DX7 Karten erfüllt waren). Die Shader ALUs waren, will ich hiermit sagen, keine neue Revolution. Die Combiner gibt es schon sehr lange, nur dass sie immer ein wenig mehr konnten. EMBM konnte schon der Pyramid3D, die Radeon64, der Savage2000 (ok durch einen Bug dann zum Ende doch wieder nicht) und der G400.


DOT3 konnten die GF2 zwar auch, aber auch da war die Performance im Vergleich mit der Kyro nicht so toll (Hatte beide Karten parallel, konnte das also 1:1 vergleichen/miterleben).
Hast du da mal ein Paar Ergebnisse? AFAIK kostet Dot Product BM nicht soo viel. DP3 konnten schon die GF2 Combiner in einem Takt.
EMBM war hier schon deutlich teurer (bis auf R100 brauchten die damaligen Grafikchips 2 Pässe dafür).

Gast
2006-09-01, 17:56:09
Nix da. Die Kyro rechnete mit 32bit durchgängig, bei 16bit Einstellung wurde nur runtergerechnet und war deswegen auch nicht schneller. Die Geforce konnte zwar auch 32bit, jedoch waren GF2/GF2MX da deutlich langsamer, als in 16bit.

Du bist süß. Vielleicht waren die GF in 16 Bit ja auch einfach deutlich schneller, weil die Bandbreite nicht mehr limitierte. Kyros konnten aufgrund mangelnder Füllrate damit nicht viel anfangen, ergo kaum Zuwachs.

Gast
2006-09-01, 18:28:24
Wie erklärst du dir dann, dass beim NV15/11 bei synthetischen MT Tests in 32 Bit die Texelfüllrate auf 50% einbrach? ;-)
Für 32 Bit Filterung brauchte NV1x 2 Takte pro Bi Sample.


weil die bandbreite nicht reichte, die bandbreite war für 16bit knapp bemessen und für 32bit erst recht viel zu wenig.
oder anders gesagt, die GPU war für die damals verfügbare bandbreite zu schnell ;)


Die Doom3 Engine ist IMO nicht sonderlich toll geschrieben. Zumindest, das was dabei bisher herauskam, beeindrucke bisher nicht wirklich. Ich vermute, dass JC den Z-First Pass gewählt hat, da massig Stencilschatten verwendet werden und man diese ja gleich im ersten Pass machen könnte. Hier war der Break-Even wohl erreicht.


wirklich beeindruckt hat mich die engine erlich gesagt auch nicht, aber dennoch glaub ich nicht dass die jungs von id-software so blöd sind und nen z-first-pass verwenden wenn es nichts bringen würde ;)
aber du hast sicher recht, da man die schattenvolumen im ersten pass berechnen kann ist der break-even wohl schneller erreicht.


Das Shading nicht, aber der Overdraw ist in Doom3 ziemlich böse.

kann ich mir ehrlich gesagt kaum vorstellen, wieso sollten denn der overdraw in doom3 besonders groß sein?
das ganze spiel besteht doch praktisch nur aus innenarealen, da lässt sich der overdraw ja wunderbar mit portalen reduzieren.
ich denke jedenfalls dass der overdraw in waldszenen in farcry oder oblivion wesentlich größer ist.

robbitop
2006-09-01, 19:08:54
weil die bandbreite nicht reichte, die bandbreite war für 16bit knapp bemessen und für 32bit erst recht viel zu wenig.
oder anders gesagt, die GPU war für die damals verfügbare bandbreite zu schnell ;)
Nein ich meine synthetische MT Tests. Glaub mir da limitiert die Bandbreite nicht. Da habe ich sogar aus dem extrem limitierten DeltaChrome seine 2,4GTex/sek nachweisen können. Außerdem brachen R100 und die Rage Pro dort bei 32Bit nicht ein. Die GF3 hat auch nicht so viel mehr Bandbreite als eine GF2U und dennoch bricht sie in den Synthies bei 32 Bit nicht ein. Die Füllrate von NV1x halbiert sich jedoch (genau wie beim VSA100).





kann ich mir ehrlich gesagt kaum vorstellen, wieso sollten denn der overdraw in doom3 besonders groß sein?
das ganze spiel besteht doch praktisch nur aus innenarealen, da lässt sich der overdraw ja wunderbar mit portalen reduzieren.
ich denke jedenfalls dass der overdraw in waldszenen in farcry oder oblivion wesentlich größer ist.
Portale lassen sich nur bedingt verwenden. Das geht AFAIK nur, wenn wirklich eine ganze Wand davorsteht. Aber Doom ist nicht so stark in Zellen/Räumen aufgeteilt, das ganze ist eher eine Art Schlauch (weiß nicht ob dir das mal aufgefallen ist). Bei so einem Leveldesign sind Portale/Antiportale nicht so effektiv einbindbar. (ich denke JC wollte extra so ein Leveldesign und dank Z-Firstpass war das dann auch nicht weiter tragisch)

Gast
2006-09-01, 19:38:34
Nein ich meine synthetische MT Tests. Glaub mir da limitiert die Bandbreite nicht. Da habe ich sogar aus dem extrem limitierten DeltaChrome seine 2,4GTex/sek nachweisen können. Außerdem brachen R100 und die Rage Pro dort bei 32Bit nicht ein. Die GF3 hat auch nicht so viel mehr Bandbreite als eine GF2U und dennoch bricht sie in den Synthies bei 32 Bit nicht ein. Die Füllrate von NV1x halbiert sich jedoch (genau wie beim VSA100).


also ich müsste mal meine GF2MX hervorkramen, die sollte eigentlich noch funktionieren, aber was ich mich erinnern kann, konnte ich keine ausergewöhnlichen einbrüche die nicht auf bandbreitenlimitierung zurückzuführen sind beobachten.

die GF3 war ja auch die erste NV-karte mit massiven bandbreitenschonenden maßnahmen. zusätzlich hat sich die gpu-taktrate nur gering erhöht (im vergleich zur GF2ultra sogar verringert) und die der speichertakt sich durchaus stärker erhöht.

eigentlich klar dass der einbruch in 32bit wesentlich geringer war.

und vor allem, gesetz dem fall dass du recht hast und sich die füllrate in 32bit gegenüber 16bit halbiert, dann wäre ja jede diskussion der stärkeren bandbreitenlimitierung der NV1x-serie im 32bit-modus völlig falsch. schließlich wäre dann die limitierung nicht stärker als im 16bit-modus und die geforce1 hat in der DDR-version in 32bit sehr stark, in 16bit aber nur schwach profitiert, gegenüber der SDR-version.

Gast
2006-09-01, 19:40:10
Bei so einem Leveldesign sind Portale/Antiportale nicht so effektiv einbindbar. (ich denke JC wollte extra so ein Leveldesign und dank Z-Firstpass war das dann auch nicht weiter tragisch)

naja, die geometrielast ist trotzdem deutlich höher, und "dank" der schattentechnik ist diese bei doom3 ja nicht gerade gering.

Gast
2006-09-01, 20:53:42
Nein ich meine synthetische MT Tests. Glaub mir da limitiert die Bandbreite nicht.

Selbstverständlich limitiert da die Bandbreite, das läßt sich auch einfach durch Übertakten des RAM nachweisen. In 32 Bit steigt die Füllrate bei der GF2 linear mit dem RAM-Takt, in 16 Bit tut sich da gar nichts. Wenn du es nicht glaubst, dann miss es selbst nach.

Thowe
2006-09-01, 21:57:27
Sehe ich auch so.

...

Das sie verbessert haben ist logisch und nötig, aber wenn man den SGX als Basis nimmt, seine Leistung (nachzulesen) hochrechnet auf einen anständigen Grundtakt und dann vergleicht, dürfte er durchaus sehr konkurrenzfähig sein und das deutlich "inkomplexer".

Gast
2006-09-01, 22:23:44
Ein Z-First pass lohnt aber nur selten.
Er lohnt recht früh, da manche Effekte nur damit vernünftig realisierbar sind.
Wenn dir Doom3 als Beispiel für z-first nicht gefällt, könnte man dir noch Crysis anbieten...

robbitop
2006-09-02, 00:23:52
also ich müsste mal meine GF2MX hervorkramen, die sollte eigentlich noch funktionieren, aber was ich mich erinnern kann, konnte ich keine ausergewöhnlichen einbrüche die nicht auf bandbreitenlimitierung zurückzuführen sind beobachten.
Kannst du gern machen (Raff macht gerade Untersuchungen und ich habe meine Erinnernungen von ihm nochmal überprüfen lassen)


die GF3 war ja auch die erste NV-karte mit massiven bandbreitenschonenden maßnahmen. zusätzlich hat sich die gpu-taktrate nur gering erhöht (im vergleich zur GF2ultra sogar verringert) und die der speichertakt sich durchaus stärker erhöht.
Ja bei der GF3 kam vieles was Leistung brachte, was sich im Endeffekt natürlich multipliziert. Der Speichercontroller und die Z-Kompression sparten effektive Bandbreite (aber keine Welten). Hinzu kam die Early-Z Kompression, welche Bandbreite und Füllrate zu gleichen Teilen sparte. Und IIRC ein neues Cache System. Hinzu kam dass das Teil mehr Texturen loopen konnte und flexiblere Combiner hatte (was auch den ein oder anderen Pass sparte).


eigentlich klar dass der einbruch in 32bit wesentlich geringer war.
In synthetischen MulitTextur-Füllratentests spielt Bandbreite eine sehr untergeordnete Rolle. Der Einbruch war geringer, klar weil die effektive Bandbreite etwas stärker war und weil die 32 Bit Füllrate doppelt so hoch war.
Schau dir mal alte Benches von der Rage128 und der Radeon64 an. Im Gegensatz zur TNT2 und zur Geforce1/2 und VSA100 brachen die deutlich weniger bei Verwendung von 32 Bit an (und das bei gleicher Bandbreite). Nun rate mal warum...


und vor allem, gesetz dem fall dass du recht hast und sich die füllrate in 32bit gegenüber 16bit halbiert, dann wäre ja jede diskussion der stärkeren bandbreitenlimitierung der NV1x-serie im 32bit-modus völlig falsch. schließlich wäre dann die limitierung nicht stärker als im 16bit-modus und die geforce1 hat in der DDR-version in 32bit sehr stark, in 16bit aber nur schwach profitiert, gegenüber der SDR-version.
In 16 Bit war die benötigte Bandbreite ja auch geringer. Beide hatten die gleiche Füllrate aber unterschiedliche Bandbreite. Klar, dass 32 Bit mehr davon profitiert als 16 Bit.

robbitop
2006-09-02, 00:24:55
naja, die geometrielast ist trotzdem deutlich höher, und "dank" der schattentechnik ist diese bei doom3 ja nicht gerade gering.
Die Geometrielast ist wegen des Z-First passes relativ hoch und weil eben wenig Portale vorhanden sind. Die Engine muss also viele Drawcalls abgeben.

robbitop
2006-09-02, 00:28:19
Selbstverständlich limitiert da die Bandbreite, das läßt sich auch einfach durch Übertakten des RAM nachweisen. In 32 Bit steigt die Füllrate bei der GF2 linear mit dem RAM-Takt, in 16 Bit tut sich da gar nichts. Wenn du es nicht glaubst, dann miss es selbst nach.
Na toll wir reden aneinander vorbei. Ich sagte ausdrücklich synthetische MT-Füllratentests. Dort werden mehrere Texturen kombiniert, eh sie in den Speicher geschrieben werden, so dass das Rendern so lange dauert, dass die Bandbreite wenig rolle Spielt und die Cache-hitrate sehr viel mithilft.

Dass es in ST-Füllratentests oder in Spielen anders ist, ist klar, da dort andere Flaschenhäls wirken (wie eben z.B. die Bandbreite, wenn ein Texel nicht so lange dauert). Aber mir ging es darum zu zeigen, dass die Füllrate bei 32 Bit einsackt und dies nicht auf die Bandbreite zurückzuführen ist.

Ailuros
2006-09-02, 06:43:52
Mal ganz so nebenbei ich bezweifle dass der Gast "anti-TBDR" ist; er hat eher IMO eine nuechterne Ansicht ueber das Ganze Thema.

Ich hab etwas geschmunzelt als ich in einer der neuesten ATI Praesentationen Notizen der Art sah: "will man sehr viele Lichter? dann nimmt man einen deferred renderer"..."will man sehr viele Transparenzen? dann nimmt einen IMR..." (natuerlich sehr frei uebersetzt). Im Grunde ist es auch nicht falsch denn verschiedene Architekturen, haben auch selbstverstaendlich verschiedene Vorteile.

IMHO haette ein heutiger TBDR es generell leichter mit allem was mit floating point zu tun hat und ueberhaupt wenn man es mit AA/AF kombinieren muss. Was jetzt early-Z oder noch spezifischer Doom3-aehnliche Spiele betrifft, wuerde ganz grob der Unterschied zwischen TBDR und IMR nicht besonders gross sein, da early-Z auf IMRs ziemlich effizient sein kann. Ein Vorteil ist dann eben noch fuer TBDRs dass sie normalerweise eine massive Stencil-Fuellrate vorzeigen koennen.

So und jetzt kommen noch die kommenden engines dazu die auf deferred shading oder MRTs setzen.

TBDR ist kein Allerheilmittel, noch wuerde bei einem wahren high end Design massiv Transistoren gespart. Die einzige Frage ist dann stets wie und wie gut man die Nachteile von DRs ueberwaeltigen kann, damit sich die Vorteile auch voll ausspielen koennen. Woher genau wuerde ein heutiger IMR die Bandbreite und Speicher finden um 64x hybrides FSAA mit 64bpp HDR (Leistung zur Seite) in 1024*768 quetschen zu koennen?

Zwischen Theorie und Praxis bleibt jedoch stets der Haken dass ohne eine wahre high end GPU PowerVR nie etwas relevantes beweisen wird. Und ja natuerlich verpasst PowerVR der gesamten "IMR-Konkurrenz" im PDA/mobile Markt ein blaues Auge und das mit einer Kombination von Stromverbrauch / Featureset und Leistung. Aber es ist dann aber auch so dass momentan ATI/NVIDIA viel zu wenig Resourcen fuer R&D bis jetzt investiert haben. Die kraenklichen Imageon (quasi Voodoo2-Ableger) und AR1x (quasi TNT-Ableger) sind natuerlich nur gut genug fuer multimedia Schnickschnack. Die angegebenen jeweiligen Geometrie-Raten wird man lange suchen koennen bei den beiden, ebenso wie manche Features-Angaben (aus fancy register combiners mach "pixel shader").

Es wundert mich auch nicht da IMG alle andere Projekte was Grafik betrifft quasi vernachlaessigt hat in den letzten Jahren und mit gesamter Kraft sich auf den PDA/mobile Markt konzentriert hat. Es hat mich schon oefters gewundert warum NV z.B. nicht einfach den alten GP-LP von Gigapixel fuer diesen Markt benutzt hat. Eine These spricht davon dass NV keine Lust hatte in einen Patent-Krieg zu gelangen. Es mag zwar etwas absurd klingen, aber ich sehe keine andere logische Erklaerung warum sie am Ende doch diesen TNT-Ableger entwickelt haben.

Um es klar zu machen ich bin zwar ein TBDR-Fan, aber an Wunder glaub ich selber nicht. Natuerlich waere eine high end TBDR GPU die absolute Bombe fuer mich, aber ich will ernsthaft bezweifeln dass man fuer X angezielte Leistung nur noch 1/4 der Transistoren brauchen wuerde. Man wuerde bei einer nuechternen Analyse die Vor- und Nachteile zaehlen und dass waere es dann schon. Am Ende bleibt es aber doch ganz grob so in etwa wie in ATI's Seitennotiz oben. Dafuer genau haben eben die grossen IHVs Techniken eingebaut dass da wo es nicht anders geht eben verzoegert wird.

robbitop
2006-09-02, 18:36:00
Full Ack! :up: