Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : PowerVR Series5


Seiten : 1 2 [3] 4

aths
2004-06-14, 11:23:49
Original geschrieben von Ailuros
Sowie bei der Filterung z.B.? (mieser Scherz ich weiss...) :D

Keine Sorge ich hab Deine R420 Analyze durchgelesen und ich weiss schon auf was Du Dich beziehst; die Vergleiche erscheinen trotzdem schlecht. Ich bezog mich auf die Shader-Units in der Pipe. Müsste ich eine Pipe entwerfen, hätte sie eine in 3:1 splitbare Vec4-MAD-Logik sowie parallel dazu eine skalare SFU-Einheit (und natülich eine Unit die Textur-Operationen ausführt.)

Ailuros
2004-06-14, 11:37:26
Original geschrieben von aths
Ich bezog mich auf die Shader-Units in der Pipe. Müsste ich eine Pipe entwerfen, hätte sie eine in 3:1 splitbare Vec4-MAD-Logik sowie parallel dazu eine skalare SFU-Einheit (und natülich eine Unit die Textur-Operationen ausführt.)

Wie gesagt mir ist schon klar was Du meinst; nur keine direkte Antwort darauf ;)

robbitop
2004-06-14, 11:58:15
Original geschrieben von Ailuros
Und wieso macht Dir (ueberhaupt) "effektive" Fuellrate, gerade Sorgen?

Uebrigens ist nicht immer X=!X, sowie auch Y=!Y. Was genau willst Du Dir nochmal ausrechnen wenn Dir die wichtigen Informationen fehlen?
hab ich gesagt, dass ich mir da etwas ausrechnen will? ;)

mrdigital
2004-06-14, 12:57:13
Original geschrieben von robbitop
@Mrdigital
Vec3 ist ein mathematischer Vektor mit einer X Y und einer Z Koordinate.
D.h. man bräuchte 3 von diesen Skalaren SIMDs für eine Vec3 Operation. Klar ist es flexibel, aber so braucht man eben eine Vielzahl von Einheiten und das bringt einen ungeheuren Verwaltungsaufwand mit sich.

Was bitte sehe ich denn falsch?
Ich lasse mich gern belehren, dann bitte aber auch ausführlich und so, dass man es verstehen kann. Mit Wortbrocken kann ich nicht viel anfangen :)
SIMD - Single Instuction Multiple Data
das impliziert doch, dass es sich hierbei um irgendwas mit Vektoren handelt.
Skalar - eine eindimensionale Zahl (eben das, was man landläufig unter einer Zahl versteht), stellt eine Sonderform des Vektors dar (ein Vektor mit nur einem Element)

und da ist der "Widerspruch"

Der P10 kann nun aus einem Pool skalarer Recheneinheiten Bündel bilden, die dann Vektoren variabler Grösse verwurschten können. Dabei führt jede der Einheiten im Bündel / Vektor die selbe Operation aus (macht meistens auch Sinn;))
Daraus kann man also nicht den Schluss ziehen, dass es gut oder Schlecht für die "Leistung" wäre.

robbitop
2004-06-14, 13:19:57
ja richtig, direkt kann ich das nicht.
Aber wenn man bedenkt, wie groß der Verwaltungsaufwand dafür ist, dann könnten da schon Komplikationen/Stalls entstehen.

mrdigital
2004-06-14, 14:51:47
Original geschrieben von robbitop
ja richtig, direkt kann ich das nicht.
Aber wenn man bedenkt, wie groß der Verwaltungsaufwand dafür ist, dann könnten da schon Komplikationen/Stalls entstehen.
der Verwaltungsaufwand hält sich IMHO in Grenzen, man macht diese Umkonfigurierung ja nicht vor jeder Rechenoperation, sondern nur dann, wenn es sich als zweckmässig erschent. Zukünftige Grafikchips werden ja auch in diese Richtung gehen, wenn man nicht mehr zwischen VS und PS unterscheiden kann, sondern nur noch eine "Masse" an frei kombinierbaren Recheneinheiten hat.

-3Dprophet-
2004-06-14, 14:54:07
Irgent was wirklich neues? :| :zzz:

robbitop
2004-06-14, 18:24:56
danke für die Infos MrDigital

@aths

was ist eine SFU FPU?

Ailuros
2004-06-15, 04:24:13
Original geschrieben von robbitop
hab ich gesagt, dass ich mir da etwas ausrechnen will? ;)


...klar limitieren in Grenzsituationen auch mal andere Dinge, wie aritmetische Endleistung, aber zZ ist die effektive Füllrate noch verdammt wichtig

X*Y ergibt uebrigens keine effektive Fuellrate.

Stickedy's Kommentar war gar nicht so daneben was den 8*1/12*1/16*1 oder weiss der Henker was immer betrifft. Und da aendert sich auch nichts ob es arithmetische Effizienz oder Fuellraten generell betrifft.

Fuer's erst muesste man wissen was genau fuer SIMD Kanal oder "pipeline" steht, dessen Flexibilitaet, throughput, Faehigkeiten usw und fuer's zweite zu was eine texturing Einheit eigentlich genau faehig ist. Ergo auch der X=!X, Y=!Y Kommentar.

Dass es sich hier um einen TBDR handelt, lass ich mal zur Seite, denn der Rest gilt sowieso fuer alle Architekturen.

Quasar
2004-06-15, 08:39:09
Original geschrieben von robbitop
danke für die Infos MrDigital

@aths

was ist eine SFU FPU?

Special Function Unit Floating Point Unit

aths
2004-06-15, 09:33:52
Original geschrieben von robbitop
@aths

was ist eine SFU FPU? Eine handvoll Funktionen die DX9 verlangt kann man nicht mit anderen Funktionen nachbilden (bzw. könnte das nur mit sehr vielen Takten) weshalb diese direkt implementiert sind. Andeutungsweise ist das im NV40-Artikel drin, konkreter wird es bald in einer Ergänzung.

robbitop
2004-06-15, 11:48:57
@AiL @Stickedy

ok, das sehe ich ein. Danke für deine Argumentationskette AiL :)

@aths
wann darf man den Artikel denn erwarten?
bin ja reichlich gespannt

ice cool69
2004-06-15, 14:34:37
Was bedeutet bei euch denn "ein bischen Geduld"? So in Tagen ausgedrückt (nur ungefähr).

stickedy
2004-06-15, 14:42:30
DAS würde mich auch brennend interessieren!
Die Gerüchte haben ja von Ende Mai / Anfang Juni gesprochen. Heut ist der 15. also ist nach meinem Verständnis Anfang Juni vorbei..

robbitop
2004-06-15, 14:52:49
am Donnerstag kommt die.

ActionNews
2004-06-15, 15:33:37
Original geschrieben von robbitop
am Donnerstag kommt die.

Der Witz ist langsam ausgelutsch meinst du nicht ;).

CU ActionNews

Gast
2004-06-15, 15:37:00
Original geschrieben von ActionNews
Der Witz ist langsam ausgelutsch meinst du nicht ;).

CU ActionNews

Der Meinung bin ich auch. Also bitte in Zukunft auf Freitag verschieben. ;)

robbitop
2004-06-15, 15:48:52
sicher, aber er passte gerad so gut.
Für blöde Fragen, gibts doch schliesslich die blöden Antworten ;)

[ncp]EasyChiller
2004-06-15, 22:46:41
Ich müsste mal nachschauen, wann ich mir meine K2 gekauft hatte - und wie lange ich nun schon auf einen neuen leistungsfähigen Chip von PVR warte .. aber seit dem hab ich meine Graka schon 3 mal ersetzt (nicht mit einer PVR-getriebenen leider - Ti4200-64MB, R8500LE-128MB, R9500pro)! :-( *traurig*

Mit eines der wichtigsten Details die ich von einem zuküftigen PVR-Chip erwarte (sofern er überhaupt für nen PC kommen sollte) ist ein moderater bis geringer Leistungsbedarf! ... dies würde es auch den Kartenherstellern (sofern es denn in dem Falle welche geben sollte) ermöglichen, billigere Karten als mit ATI oder NV Chips zu produzieren, da auf eine teure und aufwendige Kühlung verzichtet werden könnte! ( oder?! )

... ganz im Ernst... als Wakü-Inhaber und -Fan würd ich eh lieber ne Graka ganz ohne Kühler kaufen und dafür vielleicht 30,- Euro weniger bezahlen - wieso nur hat noch kein Hersteller - zumindest bei High-End-Grakas diese Marktlücke entdeckt?! ;D

Thowe
2004-06-15, 23:21:38
Die Kühlung einer Grafikkarte ist so oder so eher kein Problem und bedarf eigentlich wenig aufwand. Das meiste ist leider reine Show und oftmals unsinnig, der Weltmeister hier ist wohl Leadtek.

Der Arctic Cooling VGA Silencer ist z.B. recht effektiv, kostet in der Herstellung vielleicht 3 Euro und leistet mehr als die meisten anderen Blender.

Der Preist ist eher eine Frage der Komplexität und damit verbunden der Ausbeute bei den Chips und natürlich auch der Platine. Ich gehe fest davon aus, das sich beides in gewissen Grenzen halten wird.

[ncp]EasyChiller
2004-06-15, 23:24:47
nunja ich meine irgendwo mal gelesen zu haben das die Kühler für die 6800'ers so um die 20,- bis 30,- kosten sollen (die CU-Konstuktionen) ... bin aber jetzt zu faul zu suchen wo das war und kann das somit nicht belegen! Das ein ALU-Kühler wie der VGA-Silencer in der Herstellung billiger ist bezweifle ich nicht - aber selbst dieser dürfte noch über 3,- liegen. ???

Thowe
2004-06-15, 23:35:19
Original geschrieben von [ncp]EasyChiller
nunja ich meine irgendwo mal gelesen zu haben das die Kühler für die 6800'ers so um die 20,- bis 30,- kosten sollen (die CU-Konstuktionen) ... bin aber jetzt zu faul zu suchen wo das war und kann das somit nicht belegen! Das ein ALU-Kühler wie der VGA-Silencer in der Herstellung billiger ist bezweifle ich nicht - aber selbst dieser dürfte noch über 3,- liegen. ???

Nein, 3,- Euro ist schon ein angemesser Wert dafür. Der Rest sind Verbreitungskosten und Gewinne, bei großer Abnahme, sind diese Kosten allerdings immer relativ gering.

Ein aufwändiger Kupferkühler wie der Zalman 7000 dürfte so bei 10,- Euro in der Herstellung liegen. Mehr auf keinen Fall.

Ailuros
2004-06-16, 04:38:07
Original geschrieben von ice cool69
Was bedeutet bei euch denn "ein bischen Geduld"? So in Tagen ausgedrückt (nur ungefähr).

"Ungefaehr" und "in Tagen ausgedrueckt" bilden ein nettes Oxymoron.

robbitop
2004-06-16, 10:27:17
du mit deinen "Oxymorons" immer (komisch, dass du nur dieses Stilmittel herrausstellst :) )

vieleicht meint er ca xx - yy Tage.
IMO ist das ungefähr, aber klar kann niemand solche Infos rausrücken

z3ck3
2004-06-16, 10:28:54
also wenn se net in den nächsten 4 Monaten auf dem Markt kommt, werd ich mir wohl ne andere Graka holen müssen (oder mit meiner alten noch vorlieb nehmen)... leider gibts keine korrekte im Moment. Wirklich keine einzige, die nicht wenigstens eine Schwäche hat die ich nicht "ertragen" kann... *heul*

HOT@Work
2004-06-16, 12:34:34
Wenn ich den Silencer so sehe, oder viele Termaltake, EKL usw. Dinger, dann kann man hier von Pfennigartikeln sprechen. Da gehört ja netmal ein grossartiger Designaufwand dazu. Totale Billig-Massenmetallware.
Und die werden dann für 20-50€ angeboten. Das sind Gewinne jenseits von gut und böse, die die Hersteller da einfahren.
Lustigerweise sorg der Konkurrenzdruck mittlerweile dafür, dass Kühler auf akzeptable Preise gesunken sind. Wenn ich so an die PentiumI Zeit denke, da hat ein P200 Kühler, der qualitativ net mal annähernd an einen heutigen NB Kühler drankommt, lächerliche 200,- DM gekostet.

Ailuros
2004-06-16, 12:42:02
Original geschrieben von robbitop
du mit deinen "Oxymorons" immer (komisch, dass du nur dieses Stilmittel herrausstellst :) )

vieleicht meint er ca xx - yy Tage.
IMO ist das ungefähr, aber klar kann niemand solche Infos rausrücken

Wenn jemand als Beispiel sagen wuerde in 4-6 Tagen, dann waere es so praezise wie ueberhaupt moeglich und nicht ungefaehr.

robbitop
2004-06-16, 12:56:47
kommt auf die Abstände von xx und yy an
Wenn ich sage 40-120 Tage ist das nicht mehr genau.

Zur Not in Monaten =)

Peavey
2004-06-16, 13:14:23
Finde es auch etwas seltsam, dass sie hier nicht etwas durchblicken lassen. Ich denke, wenn wirklich was kommt, dann wissen es die Konkurrenten sicher schon und viele Freaks, die jetzt gerade am Grübeln über ATI/NVDA sind, würden jegliche "offizielle" Info gerne zur Überbrückung nutzen und eher warten, wenn nicht sogar jetzt schon sicher aud die "Ente" setzen.


Deshalb denke ich leider auch, dass da eigentlich doch nix mehr kommt.

Aeros405
2004-06-16, 15:49:10
Gibt es vielleicht die Möglichkeit, dass die Series 5 als M3D II erscheint?

ActionNews
2004-06-16, 16:59:30
Original geschrieben von Peavey
Finde es auch etwas seltsam, dass sie hier nicht etwas durchblicken lassen. Ich denke, wenn wirklich was kommt, dann wissen es die Konkurrenten sicher schon und viele Freaks, die jetzt gerade am Grübeln über ATI/NVDA sind, würden jegliche "offizielle" Info gerne zur Überbrückung nutzen und eher warten, wenn nicht sogar jetzt schon sicher aud die "Ente" setzen.


Deshalb denke ich leider auch, dass da eigentlich doch nix mehr kommt.

Im Grunde hattest du über Nvidia und Atis neue Generation auch keinerlei Infos und nur Gerüchte bis sie offiziell vorgestellt wurden (auch keinen Releasetermin).
Und im Prinzip hat PowerVR mit der Veröffentlichung der PS/VS 3.0 Demos und der ausssage, dass sie ihre neue "very highend next gernation graphics technologie" bald vorstellen wollen einiges über die Serie 5 "verraten" IMHO.

CU ActionNews

z3ck3
2004-06-16, 17:03:03
Original geschrieben von Aeros405
Gibt es vielleicht die Möglichkeit, dass die Series 5 als M3D II erscheint?


Verwechsel ich was oder meinst de die Matrox? (http://www.matrox.com/mga/products/m3d/home.cfm)

StefanV
2004-06-16, 17:10:21
Original geschrieben von z3ck3
Verwechsel ich was oder meinst de die Matrox? (http://www.matrox.com/mga/products/m3d/home.cfm)

Nö, aber ev. ist der Zsammenhang nicht so gaoganz klar.


Die M3D ist die einzige neuere MGA Karte, die keinen MGA Chipsatz besitzt.,

z3ck3
2004-06-16, 17:18:57
also soll ich jetzt (dessen Hirn wirklich sehr lange arbeitet nach 8 Stunden Arbeitstag), jetzt schlussfolgern, das Matrox und PVR gemeinsames Ding machen und mir eine Surroundgamingkarte mit PWR-Leistung zur Verfügung stellen? :D evt. sogar dann eine mit ner Dualchiplösung? :D

robbitop
2004-06-16, 17:30:21
MGA als Partner von PVR...das wäre vieleicht denkbar.
MGA hat genau die Leute dazu, die PVR braucht und die könnten ein sehr feines PCB basteln.

z3ck3
2004-06-16, 17:34:50
doch wie sähe dann der Preis für die Karten aus? Ich weiß nicht, einerseits zimlich genial das Ganze... aber irgendwie.. irgend etwas stört bei dem ganzen...

Spake
2004-06-16, 18:05:06
ich denke wenn matrox die karten veröffentlichen würde wäre dass nett so gut für PVR weil dann der konkurendruck fehlt
->denn war es nett so dass matrox ähnlich wie 3Dfx ihre karten selbst herstellt und ausliefert???

stickedy
2004-06-16, 18:17:39
Ich glaube der Name "Matrox" ist nicht wirklich relevant in dieser Diskussion!

Peavey
2004-06-16, 18:29:11
@ctionnews:

Gut, ist in etwa vergleichbar.

Bei ATI/NVDA wusste man aber zumindest, dass, wenn nicht irgendwas schief geht, sicher was kommt. Und sehr viele Gerüchte, auch weit vor Release haben sich dann doch bestätigt. Von PVR fehlt hier eben diese Aussage: "Ja, wir wollen es und werden alles dransetzen."
Sie sind eben nicht ganz so drauf angewiesen, leider.

Ich halte es eben, wenn da doch sehr viel dran ist, für die falsche Strategie, gerade zu diesem "Parade-Zeitpunkt".

Gruss

stickedy
2004-06-16, 18:31:28
Naja, bei PowerVR kommt auch sicher was, wenn nicht irgendwas schief geht...

stav0815
2004-06-16, 18:41:55
Original geschrieben von stickedy
Naja, bei PowerVR kommt auch sicher was, wenn nicht irgendwas schief geht...

Beweise! Wir wollen Beweise.
Imho gabs von ATi und nVidia ankündigungen und wenigstens GERÜCHTE! Aber von PowerVR kommt in letzter Zeit nichtmal mehr das... :(

ice cool69
2004-06-16, 18:51:25
Wie wärs denn mit einer Monatsangabe?
Wenn es eine Vorstellung der neuen Produkte gibt wird man doch wissen ob diese eher im Juli oder eher im Jänner 2005 sein wird.
Es gibt noch nichtmal hinweise dass es überhaupt PC-Karten geben wird. Vielleicht bleibts ja bei der Arcade-Version. :(

Aeros405
2004-06-16, 20:34:14
Ich meinte nur M3D II, weil ich das irgendwo in nem Matrox-Foprum gelesen habe (war aber IMO ein Scherz) und Matrox ja mit der M3D schon einmal nen PowerVR-Chip (HARDWARE SPECIFICATIONS Power VR PCX2 3D controller)verbaut haben.

Gast
2004-06-16, 22:13:14
Original geschrieben von ice cool69
Wie wärs denn mit einer Monatsangabe?


in die Nesseln setz: wohl eher Juni (Hoff) spätestens aber Juli....nein kein NDA oder ähnliches leider nur Gerüchte aus zuverlässiger Quelle.

Entarger
2004-06-16, 22:44:37
Original geschrieben von Ailuros
Wenn jemand als Beispiel sagen wuerde in 4-6 Tagen, dann waere es so praezise wie ueberhaupt moeglich und nicht ungefaehr.

Ist das etwa ein Wink mit den Zaunpfahl? :D

ActionNews
2004-06-16, 23:04:14
Original geschrieben von ice cool69
Wie wärs denn mit einer Monatsangabe?
Wenn es eine Vorstellung der neuen Produkte gibt wird man doch wissen ob diese eher im Juli oder eher im Jänner 2005 sein wird.
Es gibt noch nichtmal hinweise dass es überhaupt PC-Karten geben wird. Vielleicht bleibts ja bei der Arcade-Version. :(

Also ich sehe es so:

Was wissen wir? SEGA hat die Serie 5 lizensiert. Also wird es wohl mal zumindest Chips geben die gebaut werden müssen. Ich denke der Chip ist so designt, dass er sowohl in Acrade, Konsolen und PC Bereich gleichermassen eingesetzt werden kann. ImgTec hat mit Pure Digital einen Hersteller für Grafikkarten im eigenen Hause. Was schluss folgere ich daraus? ImgTec könnte wenn es hart auf hart geht auch Teile der produzierten Chips von SEGA kaufen und auf eigenen PC-Grafikkarten einsetzen.
Vielleicht liege ich total daneben, aber aber es wäre IMHO eine Möglichkeit. Immerhin versprach ImgTec, dass soetwas wie bei STMicro und Serie 4 nicht mehr vorkommen wird und man Vorkehrungen getroffen habe.

Vorteil bei PowerVR: Normalerweise gibt es dort keine "Paperlanches". Ankündigungen werden erst gemacht, wenn das Produkt breit ist an die Händler ausgeliefert zu werden. Zumindest war das bisher PowerVRs Philosophie.

CU ActionNews

loewe
2004-06-16, 23:32:23
Mehr zur Technologie?
Bis zur offiziellen Ankündigung eher NEIN!

Wann es soweit ist?
Ihr werdet es merken, ohne Zweifel und Versprochen! ;)

Ob Serie 5 kommt?
Ja, auch ohne Zweifel und auch für PC!

Ich hasse Gerüchte. :)

Thowe
2004-06-16, 23:49:26
Die ultimative Frage ist dann, wieviele Würfel braucht man um die Anzahl der Tage bis zur Ankündigung auszuknobeln. Wobei hier die Augen addiert und nicht als kombinierte Zahl abgelesen werden.

Tannjew
2004-06-17, 00:10:41
Hm, als alter Rollenspieler würde mich das nicht unbedingt beruhigen... da gibt es vierseitige Würfel, zwanzigseitige Würfel, zehnseitige Würfel mit den Werten 00 bis 90, und und und *g*

Ailuros
2004-06-17, 00:11:26
Original geschrieben von ice cool69
Wie wärs denn mit einer Monatsangabe?
Wenn es eine Vorstellung der neuen Produkte gibt wird man doch wissen ob diese eher im Juli oder eher im Jänner 2005 sein wird.
Es gibt noch nichtmal hinweise dass es überhaupt PC-Karten geben wird. Vielleicht bleibts ja bei der Arcade-Version. :(

*klickt zweimal auf die Uhrzeit in der taskbar und bewegt pointer auf ein spezielles Datum*

hrhrhr :weg:

Ailuros
2004-06-17, 00:13:21
Original geschrieben von stav0815
Beweise! Wir wollen Beweise.
Imho gabs von ATi und nVidia ankündigungen und wenigstens GERÜCHTE! Aber von PowerVR kommt in letzter Zeit nichtmal mehr das... :(

Es war schon immer so bei PowerVR und/oder Videologic.

Ailuros
2004-06-17, 00:15:05
Vorteil bei PowerVR: Normalerweise gibt es dort keine "Paperlanches". Ankündigungen werden erst gemacht, wenn das Produkt breit ist an die Händler ausgeliefert zu werden. Zumindest war das bisher PowerVRs Philosophie.


Hmmmm wann wurde die Neon nochmal angekuendigt? ;D

robbitop
2004-06-17, 00:32:11
M3D hatte Serie2 an Board und AFAIR sogar einen externen TNL Chip (gabs für die V2 auch, der TNL Chip war aber sehr langsam)

Aeros405
2004-06-17, 01:28:04
Original geschrieben von Ailuros
Hmmmm wann wurde die Neon nochmal angekuendigt? ;D
Ich hab da mehrere Termine gefunden, einer war 24.6.1999 ein anderer ECTS 1999, wobei noch mehr rumschwimmen und ich wahrscheinlich nicht den richtigen finden kann.

ice cool69
2004-06-17, 01:34:29
Diese Unwissenheit macht mich echt fertig!!!

kuj0n
2004-06-17, 02:47:09
Wenn man das hier so hört scheint es ja sooo lange nicht mehr zu dauern...
Schön bald wieder eine PowerVR Karte in den Händen zu halten...

*träum*

Ailuros
2004-06-17, 04:44:44
Original geschrieben von Aeros405
Ich hab da mehrere Termine gefunden, einer war 24.6.1999 ein anderer ECTS 1999, wobei noch mehr rumschwimmen und ich wahrscheinlich nicht den richtigen finden kann.

*ahem*

http://www.accelenation.com/?ac.id.123.1

ActionNews
2004-06-17, 06:22:03
Original geschrieben von Ailuros
Hmmmm wann wurde die Neon nochmal angekuendigt? ;D

Ok stimmt, da hatte PowerVR wirklich etwas lange gebraucht :(. Naja bei KyroI/II waren sie besser :D. Aber stimmt so pauschal kann ich das nicht stehen lassen.

CU ActionNews

stickedy
2004-06-17, 08:18:55
Original geschrieben von robbitop
M3D hatte Serie2 an Board und AFAIR sogar einen externen TNL Chip (gabs für die V2 auch, der TNL Chip war aber sehr langsam)

M3D war PowerVR Series1, um genau zu sein NEC PCX2.

Die einzige Grafikkarte mit einem Series2-Chip war die Neon 250 von VideoLogic!

Modulor
2004-06-17, 09:17:07
Original geschrieben von stickedy
M3D war PowerVR Series1, um genau zu sein NEC PCX2.

Die einzige Grafikkarte mit einem Series2-Chip war die Neon 250 von VideoLogic!

Richtig.
Ein grober Abriss der PVR Chips für PC findet sich hier (http://www.tilebase.de/index/chips.html).

robbitop
2004-06-17, 11:59:56
achso?
ich dachte der PCX2 war Serie2.
War also nur hochgetaktet im Gegensatz zur PCX?

Gast
2004-06-17, 12:04:02
Original geschrieben von kuj0n
Wenn man das hier so hört scheint es ja sooo lange nicht mehr zu dauern...
*träum*

Vielleicht 2-3 Jahre bis Serie6 soweit ist.:D

kuj0n
2004-06-17, 12:13:29
Original geschrieben von Gast
Vielleicht 2-3 Jahre bis Serie6 soweit ist.:D


Naja wenn die Series 5 wirklich soviel Wums hat wie hier teilweise angemerkt dürften 2-3 Jahre Warten auf Series 6 ja nicht so das Problem sein oder? Man muss sich ja nicht jedes Jahr die neueste Grakageneration zulegen oder?

Jedenfalls scheint mir die Series 5 auf lange Sicht auch zukunftstauglicher als die Kyro 2.

stickedy
2004-06-17, 12:14:32
Original geschrieben von robbitop
achso?
ich dachte der PCX2 war Serie2.
War also nur hochgetaktet im Gegensatz zur PCX?
Naja, 10% höher getaktet, 60 statt 66 MHz und ein paar neue Features: bilineare+ trilineare Filterung, mipmap,table fog,vertex fog

robbitop
2004-06-17, 12:20:49
das ist doch schonmal was :)

zeckensack
2004-06-17, 13:26:03
Original geschrieben von robbitop
M3D hatte Serie2 an Board und AFAIR sogar einen externen TNL Chip (gabs für die V2 auch, der TNL Chip war aber sehr langsam) Die m3D hat(te) kein T&L.
(ich habe die Karte hier noch rumfliegen)

T&L wurde damals von mehreren Vendors geplant (uA Rendition bzw Hercules), aber wieder fallengelassen. Grund: es gab zu viele Direct3D-Spiele auf dem Markt, und im Vergleich zu wenig OpenGL-Spiele. Ein T&L-Chip hätte unter Direct3D nur sinnlos in der Gegend rumgesessen.

Der T&L-Chip wäre aus der "GLINT Gamma"-Familie von 3DLabs gekommen. Spezifikationen: GLINT Gamma 1 (http://www.3dlabs.com/product/oxygen/oxygen_gvx1_index.htm), GLINT Gamma 2 (http://www.3dlabs.com/product/oxygen/oxygen_gvx210_index.htm).

Tatsache ist aber, dass das nie wirklich passiert ist.

Gast
2004-06-17, 13:43:18
Original geschrieben von zeckensack
Die m3D hat(te) kein T&L.
(ich habe die Karte hier noch rumfliegen)

T&L wurde damals von mehreren Vendors geplant (uA Rendition bzw Hercules), aber wieder fallengelassen. Grund: es gab zu viele Direct3D-Spiele auf dem Markt, und im Vergleich zu wenig OpenGL-Spiele. Ein T&L-Chip hätte unter Direct3D nur sinnlos in der Gegend rumgesessen.

Der T&L-Chip wäre aus der "GLINT Gamma"-Familie von 3DLabs gekommen. Spezifikationen: GLINT Gamma 1 (http://www.3dlabs.com/product/oxygen/oxygen_gvx1_index.htm), GLINT Gamma 2 (http://www.3dlabs.com/product/oxygen/oxygen_gvx210_index.htm).

Tatsache ist aber, dass das nie wirklich passiert ist.


Das haette die Kosten der Karten aber sicher nicht unerheblich in die Hoehe getrieben. Die Glint Gamma Chips sind gewiss nicht ganz billig gewesen, da fuer den Profi-OGL Markt entwickelt.

3dlabs Consumer Chip aka Permedia ist ja auch nur eine abgespeckte Version der Glint MX Rasterizer.
Selbst das Tri-Setup war beim originalen Permedia noch extern (als Glint Delta, erst im Permedia2 war dieser integriert).

*ow*

robbitop
2004-06-17, 14:18:34
ah ok, konnte mich nicht mehr so recht errinnern.
Hat man nicht auch einen Glint auf eine Voodoo2 gesetzt als Profikarte von Q3D? AFAIR waren die immernoch zu lahm.

Und klar bei D3D geht es ja erst seit kurzem los mit TNL.

MadManniMan
2004-06-17, 14:29:52
Original geschrieben von robbitop
Und klar bei D3D geht es ja erst seit kurzem los mit TNL.

"Kurz" auf die Geschichte seit dem M3D bezogen? Dann ja X-D

robbitop
2004-06-17, 14:36:25
ähhh nein. Ich beziehe das auf D3D im Allg:

Seit UT2003. Das sind 1,5Jahre. Wie lange gibts TNL in Hardware auf gängien Desktopbeschleunigern? Seit Anfang 2000, also schon 4 Jahre. Wurde echt mal Zeit.

MadManniMan
2004-06-17, 14:50:57
Original geschrieben von robbitop
ähhh nein. Ich beziehe das auf D3D im Allg:

Seit UT2003. Das sind 1,5Jahre. Wie lange gibts TNL in Hardware auf gängien Desktopbeschleunigern? Seit Anfang 2000, also schon 4 Jahre. Wurde echt mal Zeit.

Falsch ;) UT2003 funktioniert ohne TnL noch.

Aber sagt dir Codename:Panzers was? Die Engine dieses Spiels sahen wir das erste mal bei S.W.I.N.E. :D

Gast
2004-06-17, 15:16:05
Original geschrieben von robbitop


Und klar bei D3D geht es ja erst seit kurzem los mit TNL.

Ende 1999 mit DX7 um genau zu sein.:) Sind also auch shcon fast 5 Jahre jetzt.

*ow*

robbitop
2004-06-17, 15:38:05
ich glaube jmd versteht mich falsch.
Ich weiss, dass es mit DX7 dabei ist, ich spreche aber davon, dass es bei UT2003 das erste Mal wirklich Sinnvoll für die breite Masse genutzt wird und afaik auch intensiv.
Das habe ich vorher echt vermisst.

dass man TNL auch emulieren/umgehen kann ist mir auch bewusst, aber mir geht es wie gesagt, um die Nutzbarkeit dieses Features.

Gast
2004-06-17, 16:02:10
Original geschrieben von robbitop
ich glaube jmd versteht mich falsch.
Ich weiss, dass es mit DX7 dabei ist, ich spreche aber davon, dass es bei UT2003 das erste Mal wirklich Sinnvoll für die breite Masse genutzt wird und afaik auch intensiv.
Das habe ich vorher echt vermisst.

dass man TNL auch emulieren/umgehen kann ist mir auch bewusst, aber mir geht es wie gesagt, um die Nutzbarkeit dieses Features.

Da muss etwas an dir vorbeigegegangen sein.
Jede DX7 Applikation nutzt eine HWTL Einheit sofern vorhanden (oder sagen wir: "kann nutzen", es ist AFAIK nicht Pflicht dies zu tun).

*ow*

in04
2004-06-17, 16:16:33
Ich empfehle mal diesen Artikel zu lesen:
http://www.3dcenter.de/artikel/t_und_l/
ist noch nicht so ewig her.

robbitop
2004-06-17, 16:24:26
kann sie nutzen, aber afaik war das zum ersten mal massiv bei UT2003 der Fall

StefanV
2004-06-17, 16:37:33
Original geschrieben von robbitop
kann sie nutzen, aber afaik war das zum ersten mal massiv bei UT2003 der Fall

Nö, gab da AFAIK noch das ein oder andere Spiel vor UT2003.

Frag mich aber nicht welche, die hab ich nie so recht gespielt und den Namen hab ich verdrängt.

robbitop
2004-06-17, 16:52:29
hm naja das ein oder andere.
Ich meine eben für die Massen und massiv genutzt ;)

MadManniMan
2004-06-17, 16:58:11
Original geschrieben von robbitop
kann sie nutzen, aber afaik war das zum ersten mal massiv bei UT2003 der Fall

:wink: Hattu mein Post überlest? ;)

robbitop
2004-06-17, 17:07:57
ah sorry Manni
hast du ein paar Infos über SWINE? Wann kam es und war TNL wirklich nutzbar (sprich als Resultat ein spürbarer Performanceanstieg)?

MadManniMan
2004-06-17, 17:19:34
Original geschrieben von robbitop
ah sorry Manni
hast du ein paar Infos über SWINE? Wann kam es und war TNL wirklich nutzbar (sprich als Resultat ein spürbarer Performanceanstieg)?

Hier (http://www.epilog.de/Dokumente/Spiele/Computer/Fishtank_Interactive/SWINE_K.htm), oder hier (http://pc.ign.com/articles/166/166598p1.html) ... es kam Ende 2001 raus und lief gar nicht erst ohne TnL ;)

robbitop
2004-06-17, 17:25:28
man könnte mit 3Danalyze TNL einfach mal emulieren lassen und mal schauen wie stark der Drop ist.

MadManniMan
2004-06-17, 17:28:55
Original geschrieben von robbitop
man könnte mit 3Danalyze TNL einfach mal emulieren lassen und mal schauen wie stark der Drop ist.

Sorry, hab das nicht. Und auch nie gespielt. Ich wußte nur, daß es verdammt geil aussah und bei mir dank Kyro2 eh nicht gelaufen wäre - war halt zu Zeiten, als 3DAnalyze noch kein Thema war!

robbitop
2004-06-17, 17:34:50
achso, trotzdem danke für die Infos Manni :)

Spake
2004-06-17, 19:53:04
wenn ich mich recht errinnere sollte Battlefield42 auch T&L only sein war aber auch mit einer Kyro2 spielbar dank eines tricks
über grafikfehler weiß ich jetzt nix aber ich schätze mal es gab da wohl einige wenn mans ohne T&L gespielt hat

Ailuros
2004-06-17, 19:56:47
Battlefield basiert auf der Q3a engine, ergo nix mit L sondern ein bisschen T ;)

Grafikfehler koennten auftreten wenn man texture detail zu hoch schraubt, da hier die 64MB (und vielleicht sogar AGPx2) wohl nicht mehr ausreichen.

***edit: mal wieder zurueck zum Thema:

http://www.imgtec.com/News/Release/index.asp?ID=206

EgonOlsen
2004-06-17, 20:25:09
Original geschrieben von Ailuros
Battlefield basiert auf der Q3a engineSicher? Das glaube ich eigentlich eher nicht...

Thowe
2004-06-17, 20:27:29
Original geschrieben von EgonOlsen
Sicher? Das glaube ich eigentlich eher nicht...

AFAIK Refractor

MadManniMan
2004-06-17, 20:48:37
Mit Q3 und/oder OpenGL hat die BF-Engine Null komma gar nix zu tun... wie kommst du darauf, AiL? ;)

Wir habens damals auch auf ner TNT zum Laufen gebracht, Fehler gabs nicht, "nur" ekelhaft schlechte Performance.

Ailuros
2004-06-17, 20:50:04
Original geschrieben von Thowe
AFAIK Refractor

Ooooops...grrrrrrr (nicht schon wieder; keine Ahnung warum ich stets darauf steckenbleibe).

ice cool69
2004-06-17, 21:08:11
bleibt doch ma beim topic ;)

Ailuros
2004-06-17, 21:14:22
Original geschrieben von ice cool69
bleibt doch ma beim topic ;)

Ja 7.2Mio Pfund fuer mehr Teebeutel :D (siehe Link oben).

ice cool69
2004-06-17, 22:38:04
häh?

Tannjew
2004-06-17, 23:30:40
Interessant... ImgTec mobilisiert Geld... ob die vielleicht Mittel für Investitionen benötigen?

ice cool69
2004-06-18, 00:42:27
Das will ich wohl hoffen dass sie was für Investitionen brauchen.

ice cool69
2004-06-18, 01:33:59
Wie siehts eigentlich mit einem Verfahren zur Komprimierung von Normal-Maps? Ein Pendant zu ATI oder nichts wie nvidia?

Ailuros
2004-06-18, 01:50:09
Theoretisch ist die Implementation moeglich, aber ich bezweifle dass sie dazu noch Zeit hatten im letzten Moment.

Keine Sorge die Feature-Liste ist alles andere als konservativ.

Corrail
2004-06-18, 01:52:31
Original geschrieben von Ailuros
Theoretisch ist die Implementation moeglich, aber ich bezweifle dass sie dazu noch Zeit hatten im letzten Moment.

Keine Sorge die Feature-Liste ist alles andere als konservativ.

Naja, aber wofür sollten sie sonst so viel Geld investieren (unter der Annahme dass es was mit PVR Series 5 zu tun hat; hab die Ankündigung nicht gelesen)...

ActionNews
2004-06-18, 06:45:22
Na mit irgendwas muss man ja Serie 5 Chips von SEGA kaufen ;) ;D :freak: .

CU ActionNews

Ailuros
2004-06-18, 11:29:43
Original geschrieben von Corrail
Naja, aber wofür sollten sie sonst so viel Geld investieren (unter der Annahme dass es was mit PVR Series 5 zu tun hat; hab die Ankündigung nicht gelesen)...

Weiterentwicklung; so wie es aussieht lassen royalties noch etwas auf sich warten und mit nur den Lizenz-Einnahmen koennen sie die staendige Erhoehung der Entwicklungs-kosten nicht mehr so leicht tragen.

Vor etwa 1.5 Jahr hatten sie nur eine Loesung unter Entwicklung, momentan sind es 20 und das Ziel fuer die absehbare Zukunft sind 35-40 cores.

In the financial year to 31 March 2004, Imagination’s sales grew by 60 per cent. as it began to achieve commercial results from its strategy of delivering a unique range of semiconductor designs for System-on-Chip (“SOC”) products and delivered significant growth in its pathfinder systems business, PURE Digital. Imagination now has 5 of the world’s top 10 semiconductor companies as partners and, during the last financial year, the number of customer chip designs using Imagination’s intellectual property (“IP”) has doubled to 20.

In its core technology business, Imagination has a model which requires upfront research and development followed by licence agreements with partners for the use of its designs. These agreements provide licence and customisation fees for delivery of the designs followed by royalty income when the customer begins delivery of the semiconductor device containing Imagination’s IP. In the last financial year, royalty revenues were modest with only one chip shipping throughout the year, but as the 20 chip designs referred to above progressively come into production over the next 18 months the Board expects that the royalty revenues will begin to grow rapidly and generate cash. However, in the very short term Imagination remains heavily dependent on licensing income to finance the development activities to support its rapidly expanding partnership base. Whilst the Board is optimistic about the closure of further licensing business, both with existing and new partners, the timing of signing license agreements and hence cash flows remains difficult to predict in the short term.

Imagination has an active and growing pipeline of licensing prospects across all of its IP offerings which should enable Imagination to secure new partnerships and repeat business. Whilst the Board expects royalty revenues to build up significantly over the coming 18 months and PURE Digital system revenues to continue to grow, in the near term the financial performance of Imagination is still dependent on licence revenues, the exact timing of which cannot be accurately predicted.

The continued high level of interest in Imagination’s technologies provides a strong base for future progress and reinforces the Board’s confidence in the future of the business.

Ich hab mir die Cazenove Analyse schon durchgelesen und u.a. kommen sie zur Schlussvolgerung dass der Aktien-Preis noch viel zu niedrig liegt.

Vollendung der angekuendigten Transaktion:

It is expected that Admission will become effective at 08.00 (London time) on 22 June 2004 and that dealings will commence at that time.

Modulor
2004-06-18, 12:39:47
Original geschrieben von Ailuros
...
Ich hab mir die Cazenove Analyse schon durchgelesen und u.a. kommen sie zur Schlussvolgerung dass der Aktien-Preis noch viel zu niedrig liegt.
...


Ich habe im Jahr 2003 mehrfach über meinen Sparkassenbroker versucht ImgTec Aktien in London zu kaufen - ich bekam einfach keine, was mich angesichts des jetzigen und in naher Zukunft zu erwartenden Kurses ziemlich anätzt...
Die saftigen 10.- Euro Gebühren für den "Verwaltungsaufwand" durfte ich aber jedesmal an die Sparkasse abdrücken :w00t:
Naja,ich probier´s weiter - sind ja derzeit immer noch verhältnismäßig günstig :D

zeckensack
2004-06-18, 15:58:35
Original geschrieben von ice cool69
Wie siehts eigentlich mit einem Verfahren zur Komprimierung von Normal-Maps? Ein Pendant zu ATI oder nichts wie nvidia? "3Dc" ist kein must-have.
Ein Spiel kann problemlos 3Dc unterstützen, und trotzdem auf Karten ohne 3Dc-Support identisch aussehen. Der wirkliche Kompressionsfaktor ist ja nur 1:2. Die Expansion des zwei-Kanal-Formats kann sowieso jede Karte mit Shadern (sinnvoll ab PS2.0).

Corrail
2004-06-18, 16:03:58
Original geschrieben von zeckensack
"3Dc" ist kein must-have.
Ein Spiel kann problemlos 3Dc unterstützen, und trotzdem auf Karten ohne 3Dc-Support identisch aussehen. Der wirkliche Kompressionsfaktor ist ja nur 1:2. Die Expansion des zwei-Kanal-Formats im Shader kann sowieso jede Karte mit Shadern (sinnvoll ab PS2.0).


Ist 3DC nicht theoretisch auch auf anderen Karten realisierbar? Man müsste sich halt seinen Codierungs- und Decodierungscode selbst schreiben, aber wo ist das Problem bei anderen Karten?

Xmas
2004-06-18, 16:23:50
Original geschrieben von Corrail

Ist 3DC nicht theoretisch auch auf anderen Karten realisierbar? Man müsste sich halt seinen Codierungs- und Decodierungscode selbst schreiben, aber wo ist das Problem bei anderen Karten?

Du meinst, 3Dc-komprimierte Texturen im Shader dekomprimieren? Geht nicht, da du dafür Integer/Bitoperationen bräuchtest, und außerdem immer Blockweise lesen musst. Selbst wenn es theoretisch möglich wäre, würde es sich nicht lohnen.

zeckensack
2004-06-18, 17:07:50
Es ging mir um die Rekonstruktion des fehlenden dritten Kanals, wenn man eine (unkomprimierte) Zweikanal-Textur als normal map benutzt.

ATI schreibt im übrigen selbst (http://www.ati.com/developer/NormalMapCompression.pdf), dass dies auf jeder "DX9 class hardware" möglich ist. Unabhängig von "3Dc" (das schreibt nicht ATI, das schreibe ich; "3Dc" ist in diesem PDF überhaupt kein Thema).

"3.2 8_8
These formats are only useful for normal maps in tangent space. Their precision is equivalent to the 8_8_8_8 formats, but they use only half the storage. Since the tangent space calculation needs only a few instructions in the vertex shader this representation may be preferable as a general case. Denormalisation is only available through an additional texture map. These formats may be widely supported in DX9 class hardware, but still only offer marginal compression (2:1) – developers are generally wanting a higher compression ratio."

Quasar
2004-06-18, 17:11:38
Das PDF ist vom 12.8.2003 - das wird bestimmt bald "aktualisiert".


Zum Thema:
Habe ich das oben richtig gelesen - jeder shaderfähige Karte (auch 1.1) würde dafür reichen?

Corrail
2004-06-18, 17:18:23
Original geschrieben von Quasar
Zum Thema:
Habe ich das oben richtig gelesen - jeder shaderfähige Karte (auch 1.1) würde dafür reichen?

Nein, das nicht. Für die Rückrechnung des dritten Kanals bräuchtest du eine Wurzel Operation, die erst ab ShaderModel 2.0 verfügbar ist.

Corrail
2004-06-18, 17:21:58
Original geschrieben von Xmas
Du meinst, 3Dc-komprimierte Texturen im Shader dekomprimieren? Geht nicht, da du dafür Integer/Bitoperationen bräuchtest, und außerdem immer Blockweise lesen musst. Selbst wenn es theoretisch möglich wäre, würde es sich nicht lohnen.

Nein, das meinte ich nicht. Ich meine eher allgemein Normal Map Compression. Also 3 Kanäle auf 2 runterschrauben, genau das, was Zeckensack oben geschrieben hat...

zeckensack
2004-06-18, 17:29:21
Original geschrieben von Corrail
Nein, das nicht. Für die Rückrechnung des dritten Kanals bräuchtest du eine Wurzel Operation, die erst ab ShaderModel 2.0 verfügbar ist. Wurzelfunktion und deren Kehrwert sind mit akzeptabler Präzision auch über einen dependent read implementierbar. Bei PS1.x muss man sich nur überlegen, ob man sich das vom I-Count her leisten kann. Man will mit dem Ergebnis ja auch weiterrechnen.

"Sinnvoll ab PS2.0" habe ich mit voller Absicht geschrieben ;)

edit: man kann sogar gleich einen 2D-DR machen, dann erhält man aus einer Zweikanal-Textur sofort eine Normale im tangent space. Die Ergebnisse müssten ab 64x64 bereits brauchbar sein.

Corrail
2004-06-18, 17:55:14
Original geschrieben von zeckensack
Wurzelfunktion und deren Kehrwert sind mit akzeptabler Präzision auch über einen dependent read implementierbar. Bei PS1.x muss man sich nur überlegen, ob man sich das vom I-Count her leisten kann. Man will mit dem Ergebnis ja auch weiterrechnen.

"Sinnvoll ab PS2.0" habe ich mit voller Absicht geschrieben ;)


Ok, ok, überredet... ;)
Da ich aber die Wahrscheinlichkeit, dass sowas sinnvoll ist, extrem gering sehe wäre mir das auch nicht wirklich in den Sinn gekommen.

Xmas
2004-06-18, 18:14:39
In dieser Hinsicht auch interessant:
D3DFMT_CxV8U8
16-bit normal compression format. The texture sampler computes the C channel from: C = sqrt(1 - U2 - V2).

Sollte eigentlich ab NV20 unterstützt werden.

Brillus
2004-06-18, 18:58:40
Original geschrieben von robbitop
ich glaube jmd versteht mich falsch.
Ich weiss, dass es mit DX7 dabei ist, ich spreche aber davon, dass es bei UT2003 das erste Mal wirklich Sinnvoll für die breite Masse genutzt wird und afaik auch intensiv.
Das habe ich vorher echt vermisst.

dass man TNL auch emulieren/umgehen kann ist mir auch bewusst, aber mir geht es wie gesagt, um die Nutzbarkeit dieses Features.

Einspruch schon 2000 mit Giants ohne TnL fehlte immer in Haufen an Effekten

ice cool69
2004-06-18, 19:20:27
Und wozu ist 3Dc dann da? Wollt ihr mir weismachen dass das total unnütz ist? Zum Spaß und aus Jux und Laune wird ATI das ja nicht implementiert haben...

Quasar
2004-06-18, 19:24:11
Original geschrieben von Brillus
Einspruch schon 2000 mit Giants ohne TnL fehlte immer in Haufen an Effekten

IMO weil Giants Dot3-Bump Mapping an das Vorhandensein einer TnL geknüpft hat. :bonk:

So ähnlich dämlich, wie SSE-Unterstützung durch Suche nach "genuine intel" zu checken...

zeckensack
2004-06-18, 19:59:56
Original geschrieben von ice cool69
Und wozu ist 3Dc dann da? Wollt ihr mir weismachen dass das total unnütz ist?Nein. 3Dc spart bei normal maps 50% Speicherplatz und Bandbreite. Nicht mehr, nicht weniger.Zum Spaß und aus Jux und Laune wird ATI das ja nicht implementiert haben... Haben sie sicher nicht, aber es ist nicht das "Killer-Feature", als das das ATI-Marketing es gerne verkaufen würde. Die vorher/nachher-Bilder zB sind schlicht gelogen. 50% Ersparnis reicht nicht aus, um auf beiden Textur-Achsen doppelt fein aufzulösen. Dafür bräuchte man schon 75% Ersparnis, und die liefert "3Dc" nicht.

Und richtiggehend neue Effekte ermöglicht "3Dc" auch nicht.

ice cool69
2004-06-18, 20:06:06
Aber anscheinend sind höhere Auflösungen möglich und wenn man mit 3Dc die 256MB der Grafikkarte auslastet dann ist eine nicht-3Dc-Karte überfordert und man muss die Texturdetails zurückschalten.

zeckensack
2004-06-18, 20:24:17
Original geschrieben von ice cool69
Aber anscheinend sind höhere Auflösungen möglich und wenn man mit 3Dc die 256MB der Grafikkarte auslastet dann ist eine nicht-3Dc-Karte überfordert und man muss die Texturdetails zurückschalten. Habe ich doch schon geschrieben. Du sparst die Hälfte. Statt 512x512 kannst du dir 1024x512 leisten.

Und zwar gilt das nur für die Texturmenge, die für normal maps draufgeht. Für alles andere existieren bereits Kompressionsverfahren, die auch noch effektiver arbeiten als 3Dc. Das altbekannte DXT1 komprimiert zB 1:4, bzw 1:6, je nachdem welcher Religion man angehört :freak:

Plumpes Rechenbeispiel:
*40MB framebuffer (1600x1200x32, triple buffered+Z/Stencil, 2xMS)
*10MB vertex buffer
*40MB "normale" Texturen
*40MB normal maps
________
130MB ohne "3Dc"
110MB mit "3Dc"

Duh ...

edit: Will meinen: dadurch dass man sich nie ausschliesslich um normal maps kümmern kann (weil man dann schlicht nichts mehr rendern könnte), ist die Gesamteinsparung an Speichermenge immer <<50%.
Du kannst gerne auch eine andere Zahlenbasis nehmen, wenn du der Meinung bist dass ich da mit Absicht manipuliert habe. Das wird aber nichts an den mathematischen Tatsachen ändern.
*hust*
c+x/2 > (c+x)/2, für alle c, x >0

Demirug
2004-06-18, 20:33:18
Zecki du hast bei DXT1 1:8 vergessen. ;)

zeckensack
2004-06-18, 20:34:28
Original geschrieben von Demirug
Zecki du hast bei DXT1 1:8 vergessen. ;) Bei Alignment-Restriktionen: ack :freak:

Demirug
2004-06-18, 20:44:35
Original geschrieben von zeckensack
Bei Alignment-Restriktionen: ack :freak:

Ich bezog mich eigentlich auf 1 Bit Alpha Encoding

ice cool69
2004-06-18, 20:53:46
zeckensack ich zweifle doch gar nicht daran, wie soll ich jemanden bei etwas kritisieren wo er viel mehr Ahnung hat als ich? (den Fußball ausgenommen ;).

Trotzdem kann man auch mit dem von dir beschriebenen Zustand ein Szenario kreieren mit dem eine 256MB-Karte nur mit 3Dc nicht übrefordert ist:

*80MB framebuffer
*20MB vertex buffer
*80MB "normale" Texturen
*80MB normal maps

Du kommst hier auf insgesamt 260MB ohne 3Dc, eine Geforce6800Ultra/GT wäre also überfordert, eine X800pro/XT hätte keine Probleme da sie mit nur 40 MB an Normalmaps nicht über ihr 256MB-Limit hinausschießen würde.

Ailuros
2004-06-19, 00:47:10
Original geschrieben von ice cool69
zeckensack ich zweifle doch gar nicht daran, wie soll ich jemanden bei etwas kritisieren wo er viel mehr Ahnung hat als ich? (den Fußball ausgenommen ;).

Trotzdem kann man auch mit dem von dir beschriebenen Zustand ein Szenario kreieren mit dem eine 256MB-Karte nur mit 3Dc nicht übrefordert ist:

*80MB framebuffer
*20MB vertex buffer
*80MB "normale" Texturen
*80MB normal maps

Du kommst hier auf insgesamt 260MB ohne 3Dc, eine Geforce6800Ultra/GT wäre also überfordert, eine X800pro/XT hätte keine Probleme da sie mit nur 40 MB an Normalmaps nicht über ihr 256MB-Limit hinausschießen würde.

Das obrige Beispiel erscheint mir sowieso schon so radikal eng, dass selbst wenn man auf 80+20+80+40= 220MB kommt (im Vergleich zu 260MB), dass es auch nicht mehr viel nutzen wird.

Oder mal einfacher; ein Spiel dass mir momentan bekannt ist dass 3dc unterstuetzen wird, ist die Serious Sam 2 engine (siehe ATI's Werbe-Material). Nun falls das Spiel die Mengen die zecki beschrieb verbrauchen sollte, dann waere wohl locker 1600*1200*32 mit 2xMSAA durchaus spielbar; wie sieht es aber in Deinem Beispiel aus? Ach ja wenn jetzt z.B. ein R420 dann 20 fps hier liefert und die andere 17 fps (rein hypothetisch), dann ist es im Grunde wieder egal.

Der Unterschied zwischen 20/130MB und 40/260MB, ist in beiden Faellen genau bei 15%. Das soll jetzt nicht heissen dass 3dc eine schlechte Idee ist, aber es klingt mir auch nicht nach dem 8. Weltwunder.

zeckensack
2004-06-19, 01:13:36
Original geschrieben von Demirug
Ich bezog mich eigentlich auf 1 Bit Alpha Encoding Brauchst du garnicht. Alle meine versammelten Grafikkarten können kein "richtiges" RGB888, sondern arbeiten stattdessen mit RGBA8888 (bzw wie die DXler sagen würden RGBx8888). Also braucht eine RGB888-Textur tatsächlich 32 Bit pro Texel, und nicht 24 Bit.

Man könnte also fast schon ohne zu Grinsen sagen, dass DXT1 1:8 komprimiert, wenn man vorher einer von denen war, die sagten es wäre 1:6. Die 1:4-Fraktion braucht sich darum nicht zu kümmern :freak:

z3ck3
2004-06-21, 20:39:02
noh ma ne Sache zum Mitrax Artikel Numemr 5 lebt: DDD-Antrib was könnte des sein? nur ne Verarsche weil 3D ;) naja 3D-Antrib ist ja normal. Oder DualCore möglichkeit? hmmm naja, was auch immer, lass ma bissel spekulieren....

ach ja hat jemand was neues?

ActionNews
2004-06-21, 23:14:49
Naja das mit dem DDD kommt mir auch spanisch vor. Wenn ich mich jetzt mal von meinem Wunschdenken leiten lasse und doch etwas sehr wild spekuliere, dann erinnern mich die drei Ds an eine andere Abkürzung mit drei Buchstaben: PPP (Programmable Primitive Prozessor). Aber da der erst mit DirectX Next Einzug halten soll ist das wohl etwas weit hergeholt :).
Najaaaaa .... ImgTec würde immerhin über in entsprechendes Patent verfügen: http://www.kyroworld.de/apboard/useraction.php?action=direct_goto_post&postid=26441

Oder sehe ich das falsch?

CU ActionNews

robbitop
2004-06-21, 23:39:56
hm nicht so abwegig, bedenke, dass das Design 2 Jahre halten muss und dass die OnChip Tesslation sicher zu eines der wichtigsten Features in den nächsten Jahren werden könnte. Und dort ist ein PPP unabdingbar.

Ailuros
2004-06-22, 00:12:01
Original geschrieben von ActionNews
Aber da der erst mit DirectX Next Einzug halten soll ist das wohl etwas weit hergeholt :).


:ratlos:


:heilig2:

Demirug
2004-06-22, 07:17:41
Original geschrieben von ActionNews
Naja das mit dem DDD kommt mir auch spanisch vor. Wenn ich mich jetzt mal von meinem Wunschdenken leiten lasse und doch etwas sehr wild spekuliere, dann erinnern mich die drei Ds an eine andere Abkürzung mit drei Buchstaben: PPP (Programmable Primitive Prozessor). Aber da der erst mit DirectX Next Einzug halten soll ist das wohl etwas weit hergeholt :).
Najaaaaa .... ImgTec würde immerhin über in entsprechendes Patent verfügen: http://www.kyroworld.de/apboard/useraction.php?action=direct_goto_post&postid=26441

Oder sehe ich das falsch?

CU ActionNews

Tesselation ist eine mögliche Anwendung eines PPPs. Ein PPP kann allerdings noch mehr.

Ailuros
2004-06-22, 11:44:37
Um ehrlich zu sein hab ich mir das Patent nie wirklich ganz durchgelesen; dass es sich mit Tesselation beschaeftigt wusste ich von Dir Demirug.

Kann es nicht sein dass es sich um die Kurven von MBX handelt? So "einfach" sind die Kurven auf diesem nun auch wieder nicht....*hust*

Ein PPP kann allerdings noch mehr.

Hatte ich auch schon erwaehnt im Thread auf den ActionNews gelinkt hat.

Demirug
2004-06-22, 11:52:36
Original geschrieben von Ailuros
Um ehrlich zu sein hab ich mir das Patent nie wirklich ganz durchgelesen; dass es sich mit Tesselation beschaeftigt wusste ich von Dir Demirug.

Kann es nicht sein dass es sich um die Kurven von MBX handelt? So "einfach" sind die Kurven auf diesem nun auch wieder nicht....*hust*



Hatte ich auch schon erwaehnt im Thread auf den ActionNews gelinkt hat.

Könnte sein das es was mit dem MBX zu tun hat. Da ich aber über den MBX kaum details in dieser Tiefe habe lässt sich das schwer sagen.

Gaestle
2004-06-22, 12:20:59
Original geschrieben von ActionNews
Naja das mit dem DDD kommt mir auch spanisch vor. Wenn ich mich jetzt mal von meinem Wunschdenken leiten lasse und doch etwas sehr wild spekuliere, dann erinnern mich die drei Ds an eine andere Abkürzung mit drei Buchstaben: PPP (Programmable Primitive Prozessor). Aber da der erst mit DirectX Next Einzug halten soll ist das wohl etwas weit hergeholt :).
Najaaaaa .... ImgTec würde immerhin über in entsprechendes Patent verfügen: http://www.kyroworld.de/apboard/useraction.php?action=direct_goto_post&postid=26441

Oder sehe ich das falsch?

CU ActionNews

*mitspekulier*
und wenn was passiert, wenn Du ein P um 180° drehst? Genau. Es wird ein d. "D" wie "Duck" oder "Double" oder "Drive"...

;D

Grüße

Aeros405
2004-06-23, 19:39:52
Ruhe vor dem Sturm ????

z3ck3
2004-06-23, 22:02:02
weiß nicht... ich finde einfach keinen wirklichen hinweis auf ein evt. kommen der S5... alles nur specu. wirklich alles... ich will se ja, aber ich weiß nicht so recht... Ist wie ne Frau das teil... man weiß einfach net woran man ist...


Wir sollten sie "Kyra" taufen :D

ActionNews
2004-06-24, 06:52:37
Vielleicht ist das hier ganz interessant:
http://www.imgtec.com/Investors/AnalystPresentation/index.asp

http://www.imgtec.com/Investors/AnalystPresentation/25.jpg

PowerVR spricht wieder von "Very high performance und features". Letztes Jahr hiess es noch "nur" "Highend". Wenn PowerVR da nicht übertreibt, dann wird es wohl ein harter Konkurent für Nvidia und ATi :). Ausserdem wird der Markt präzesiert. PC und Arcarde :). Von Konsole ist dort momentan nicht die Rede ;D.

CU ActionNews

PS: muss mir nachher mal das ganze Document zu gemüte führen :).

ActionNews
2004-06-24, 08:26:41
Vielleicht auch ganz interessant:
http://www.imgtec.com/Investors/AnalystPresentation/31.jpg

PowerVR scheint die Zukunft in Programmierbarkeit der Grafikkerne zu sehen. Also kein Wunder, dass sie wohl anscheinend auf PS/VS3.0 setzen.

CU ActionNews

Ailuros
2004-06-24, 11:31:31
PowerVR scheint die Zukunft in Programmierbarkeit der Grafikkerne zu sehen.

Sie waeren ja schoen bloed wenn es nicht so waere.

Demirug
2004-06-24, 11:39:33
Original geschrieben von ActionNews
PowerVR scheint die Zukunft in Programmierbarkeit der Grafikkerne zu sehen. Also kein Wunder, dass sie wohl anscheinend auf PS/VS3.0 setzen.

CU ActionNews

Aufgrund von WGF können sie ja überhaupt keinen anderen Weg gehen oder sie könnten bei Longhorn überhaupt keinen Stich machen.

ActionNews
2004-06-24, 14:08:41
Ja stimmt! Eigentlich logisch ... ich überlege auch gerade, warum es mir so interessant bei der Präsentation vorkam :freak: !

CU ActionNews

Ailuros
2004-06-24, 14:38:12
Hmmmm......?

http://www.beyond3d.com/forum/viewtopic.php?t=13506&postdays=0&postorder=asc&start=0

Tannjew
2004-06-24, 15:04:03
...


Das ist nicht gerade aufschlussreich :)
Wer weiß was da wohl hinter steckt *g*

Ailuros
2004-06-24, 15:12:24
Hoffentlich nicht meine komischen Maeuse ;D

ActionNews
2004-06-24, 15:24:44
Original geschrieben von Ailuros
Hmmmm......?

http://www.beyond3d.com/forum/viewtopic.php?t=13506&postdays=0&postorder=asc&start=0

Na ich hoffe Dave spannt uns nicht all zu lange auf die Folter :D! "It returns" kann vieles bedeuten ;D. Aber scheinen ja mehrere der Ansicht zu sein es hätte was mit PowerVR zu tun :). Anscheinend wird die Sache langsam spannend :).

CU ActionNews

Ailuros
2004-06-25, 01:26:08
Falscher Alarm hehehe....na ich will nichts davon wissen und nein ich sage auch nicht um was es sich handelt *gaehn*

ice cool69
2004-06-25, 16:56:06
sag lieber einen termin dann wären alle hier glücklicher

ColdColt
2004-06-25, 17:44:40
genau wir wollen daten

Ailuros
2004-06-25, 20:22:54
Original geschrieben von ice cool69
sag lieber einen termin dann wären alle hier glücklicher

Ich waere selber gluecklicher wenn ich einen genauen Termin wuesste. Ich hab mich auf den 23. fixiert weil es Grund genug gab eine Ankuendigung zu machen und ja es war Spekulation. Die wichtigsten Vorraussetzungen sind ja schon da.

Ich glaub ich haenge einfach wieder mein "do not disturb" Kaertchen auf meine Tuer und wenn was zeitig kommt dann schoen.

Thowe
2004-06-25, 21:08:51
Noch 3 Tage ;)

ist auch spekulativ.

ice cool69
2004-06-26, 01:30:44
Gibts ja nicht dass das so geheim sein soll. Mal ehrlich was hat PVR davon? Wollen sie dermaßen wie Phöniox aus der Asche treten? Soll das gut fürs Image sein?
Oder steht die PC-Series5produktion noch auf unsicheren Füßen und man will keine falschen Versprechungen machen?
Ich hoffe mal es ist ersterer Grund aber ich befürchte bei allem Optimismuus 2teren. :(

robbitop
2004-06-26, 01:43:58
man hat aus Fehlern gelernt

aber so langsam bin ich wieder skeptisch :)

Ailuros
2004-06-26, 01:59:33
Original geschrieben von ice cool69
Gibts ja nicht dass das so geheim sein soll. Mal ehrlich was hat PVR davon? Wollen sie dermaßen wie Phöniox aus der Asche treten? Soll das gut fürs Image sein?
Oder steht die PC-Series5produktion noch auf unsicheren Füßen und man will keine falschen Versprechungen machen?
Ich hoffe mal es ist ersterer Grund aber ich befürchte bei allem Optimismuus 2teren. :(

Ehrlich keine Ahnung.

ActionNews
2004-06-26, 09:22:09
Original geschrieben von Ailuros
Hmmmm......?

http://www.beyond3d.com/forum/viewtopic.php?t=13506&postdays=0&postorder=asc&start=0

Um noch mal auf den Tread bei Beyond3D zurück zu kommen:

Baron meint ja Nvidia würde einen NV40-ähnlichen Chip für den mobilen Markt mit Gigapixel Technologie in Planung haben: NVM1.

Ähm ..... :o

Nur was meint Baron damit :o :
Jemand fragt wann denn dieser mobile Nvidia Wunderchip NVM1 erscheint und er antwortet:

Heh. Monday.

But not for NVM1, as it doesn't exist. However, aspects of that theoretical chip most certainly describe another soon-to-be-released chip...

Jetzt bin ich verwirrt? Meint es es wird bald ein TBDR-Chip vorgestellt, aber es ist nicht dieser Mobile NVM1 mit Gigapixel TBDR-Technologie? Da fällt mir aber nur noch PowerVR ein! Robbitop es wird anscheinend kein Donnerstag ;) ;).

Drei Posts weiter schreibt er dann:
The wait honestly is almost over...

Und dann dieser Kommentar von Sonic:
There are three videos floating around the office on one disc. It's a DVD and from what I can tell it is MPEG2 and the quality is very high. One is of a blue ninja in a very detailed evironment. This ninja is Kage and the detail on him alone is much higher than it was in VF4. Just looking at the environments (remember this is Kage doing a kata) are incredible. Best looking I have ever seen from within this company, and that is saying a lot! This is but a small glimpse of VF5 and what it will look like. Naomi3 is the arcade board of choice, but who knows what Sammy will push on. I haven't seen actual hardware myself and don't really know for sure if it's even in the hands of developers here, but I would assume so now.

The other was a car racing game akin to Daytona but just a small demo of a circuit. The other I will not mention.

Sammy? Naomi 3? Da soll doch auch die Serie 5 verwendet werden. Sammy und SEGA sind ja fusioniert.

CU ActionNews

z3ck3
2004-06-26, 12:23:38
Donnerstag, 5. August 2004 :D

Edit: Bis dann oder garnicht *g*

ice cool69
2004-06-26, 15:22:03
@ actionnews

Und was schließt du daraus? Ich kann nichts besonderes erkennen, war ja klar dass series5/naomi3 die neue Hardware von Sega ist, hier handelt es sich ja um das Selbe.

Klärt mich ma über den NVM1 auf, ein TBDR von nvidia? Hab ich was verpasst???

Ailuros
2004-06-26, 15:24:26
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=151153

robbitop
2004-06-26, 15:30:16
unsinnig.

loewe
2004-06-26, 19:01:57
Original geschrieben von robbitop
unsinnig.

:up:

ColdColt
2004-06-26, 19:14:24
ich will endlich wieder eine kyro karte haben. das ist wenigstens noch qualität im gegensatz zu nv und ati ;-)

ice cool69
2004-06-27, 20:00:26
Die Kyro war schon ne klasse Karte, aber richtig beeindruckend fand ich immer was SEGA aus NAOMI1+2 herausgeholt haben.
Spiele auf Model3 von SEGA waren technisch und grafisch der Konkurrenz deutlich vorraus.

GRiNSER
2004-06-27, 21:25:47
dafür waren/sind die spiele selber teilweise leider der letzte dreck :(

ice cool69
2004-06-28, 00:50:35
Findest du? Ich halte die SEGA-Arcade Games zum Großteil für deutlich überdurchschnittlich.

Virtua Fighter, Sega Rally, Scud Race, House of the Dead etc. sind alles großartige Arcades.

Aeros405
2004-06-28, 16:08:56
Toll, jetzt haben wir SLI, aber wo beibt S5???

robbitop
2004-06-28, 16:16:00
@AiL

wenn es wirklich SLI ist, könnten 2xNV45 dann nicht 8x sparsed schaffen?
Die VSA 100 konnte auch ihre Samplingmasken skallieren

ice cool69
2004-06-28, 17:17:56
Klar, 2xNV40, Geld scheißen ist echt mein Hobby.

z3ck3
2004-06-28, 18:44:57
aber nicht schlecht.. so kann man später wenn man will und die Preise ok sind einfach 2 Schicke Karten reinhängen. :D

Aber es gibt noch eine Möglichkeit die ich finde es auch für den Graka markt geben sollte: Austauschbare CHips wie bei den CPUs. Genau wie der Ram. Warum nich alles auf Sockel und fertig. So kann man die Platine weiter verwenden und kann Speicher aufrüsten bzw. die GPU wechseln. Wenn eines abraucht braucht man auch net alles nachkaufen. Das währe doch mal was schickes für die S5.

Damit hätte ich dann schon folgendes auf der Wunschliste:

Platinen für Single und Dual GPUs, austauschbare SpeicherChips, Trippleheadfunktionen und nen vernünftigen TV-Out ohne Macrovisioneinschränkung, Super Filter für den Analogausgang, die man nicht weglöten muss, damit es auch schick in hohen auflösungen am CRT rauskommt. Natürlich alles schon für max. 300 € ;)

pancho
2004-06-28, 19:02:21
Die Idee mit den gesockelten GPUs hatten schon andere vor dir: Klick (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=135387&highlight=sockel)

aber leider ists nicht ganz so einfach...

ice cool69
2004-06-28, 19:12:49
300€? Quatsch das Teil ist natürlich gratis, das ist ja die Wahnsinnsüberraschung!!!

GRiNSER
2004-06-28, 19:27:01
Original geschrieben von ice cool69
Findest du? Ich halte die SEGA-Arcade Games zum Großteil für deutlich überdurchschnittlich.

Virtua Fighter, Sega Rally, Scud Race, House of the Dead etc. sind alles großartige Arcades.
ich sagte ja teilweise ;)
ich mag auch z.b. Virtua Tennis voll gerne, aber manche Spiele sind zwar grafisch super, aber von der KI und Spielbarkeit einfach doof...

robbitop
2004-06-28, 19:46:46
schön kannst du spammen Ice, gibt es heute noch gehaltvolle Beiträge von dir?

BTW: dieses SLI arbeitet sehr anders als das ursprüngliche SLI und somit ist kein 8x Sparse drin.

ice cool69
2004-06-28, 22:44:02
@ robbitop

Sorry, aber wenn hier einige Leute ihren persönlichen Wunderchip zusammenbasteln muss sie irgendjemand wieder von ihrer Wolke runterholen.

Series5 wird ein toller Chip, aber was sich hier einige erträumen kann und wird nicht der Realität entsprechen.

robbitop
2004-06-28, 22:51:48
das wird man sehen.

Ailuros
2004-06-29, 02:36:55
Original geschrieben von robbitop
@AiL

wenn es wirklich SLI ist, könnten 2xNV45 dann nicht 8x sparsed schaffen?
Die VSA 100 konnte auch ihre Samplingmasken skallieren

Hab noch gar nicht nachgefragt; ich sehe keinen besonderen Grund warum es mit etwas extra Treiber-Liebe nicht moeglich sein sollte, aber sicher bin ich auch nicht. Quantum Systeme die NV boards benutzen sind ja auch multi-board configs und die Independant System sind ja auch (durch einen patentierten Algorithmus von Quantum) ueber 16xRGSS faehig.

VSA-100 SLI ist multi-chip auf einem PCB und Scalable Link Interface ist ein multi-board config, so in etwa wie V2 SLI eigentlich (solltest Du in der Zwischenzeit schon wissen).

Solange es sich um keine AFR aehnliche Methode handelt, sehe ich keinen Grund warum die Anzahl von AA samples mit der Anzahl von boards nicht analog skalieren sollte.

Falls aber algorithmische Aenderungen notwendig sind, lieg ich natuerlich total falsch.

robbitop
2004-06-29, 10:13:51
habe mich geirrt, es handelt sich hierbei nicht um SLI.
Das scheint nur ein Marketing Begriff zu sein. Somit glaube ich nicht, dass die Samplingmasken skalliert werden können.

Wie kann man denn mit NV Chips 16xRGSS schaffen?
Kein NV Chip bot bisher RGSS.

q@e
2004-06-29, 10:15:10
Original geschrieben von Ailuros
(durch einen patentierten Algorithmus von Quantum) ueber 16xRGSS faehig.

^^ damit vielleicht?
(meine Hervorhebung)

Demirug
2004-06-29, 10:23:52
Die Quantum NV-Multichip Lösungen arbeiten anders. Da werden mit Zusatzchips die Ausgangsignale von mehrern GPUs zusammen gemischt.

robbitop
2004-06-29, 11:04:51
@Quasar

lesen kann ich selbst, danke.

Ich meinte wie das technisch in etwa funktionieren soll

q@e
2004-06-29, 11:36:34
Siehe Demirug.

Jeder Chip könnte ganz normal ein Sample berechnen und 16 Bilder werden dann zusammengemischt... bsw.

robbitop
2004-06-29, 12:12:24
also 16 Chips?

Die Erklärung von Demi war mir noch etwas zu spärlich, vieleicht hätte er oder jmd anderes das ja noch vertiefen können.

Dein Ansatz z.B. wäre für mich eine erste richtig brauchbare Info. THX :up:

q@e
2004-06-29, 12:25:36
AFAIK müssen es nicht 16 Chip sein - vielleicht reichen auf 4 oder nur zwei - je nach Erfordernissen des Käufers.

Mit den VSA-100 Chips müsste Q3D eigentlich ziemlich glücklich gewesen sein, weil die ja schon 2xRGSS* pro Chip boten, aber irgendwann reichte dann die Leistung wohl doch nicht mehr.

*AFAIK ist MSAA in den Bereichen, wo solche Lösungen eingesetzte werden, kaum eine Option. ;)

Demirug
2004-06-29, 12:44:00
http://www.quantum3d.com

Dort gibt es einige Produktbeschreibungen und auch Techpapers.

Aeros405
2004-06-29, 13:03:59
Um mal wieder zum eigentlichen Thread-Titel zurückzukommen... gibt es denn noch berechtigte Hoffnung, dass wir in nächster Zeit was von PowerVR Series 5 sehen?

Pirx
2004-06-29, 13:13:07
Original geschrieben von Aeros405
Um mal wieder zum eigentlichen Thread-Titel zurückzukommen... gibt es denn noch berechtigte Hoffnung, dass wir in nächster Zeit was von PowerVR Series 5 sehen?
Genau, seit Jahrzehnten versuchen die Fan-mittlerweile-Opas uns hier bei der Stange zu halten, doch es kommt einfach nix.:( Gibts denn mal irgendwelche Neuigkeiten, die über Spekulationen hinausgehen? Und wieso wird hier über dieses monströse SLI á la nV diskutiert?

Gast
2004-06-29, 13:46:37
Original geschrieben von Aeros405
Um mal wieder zum eigentlichen Thread-Titel zurückzukommen... gibt es denn noch berechtigte Hoffnung, dass wir in nächster Zeit was von PowerVR Series 5 sehen?

NEIN! ....leider :(

loewe
2004-06-29, 14:31:24
Original geschrieben von Aeros405
Um mal wieder zum eigentlichen Thread-Titel zurückzukommen... gibt es denn noch berechtigte Hoffnung, dass wir in nächster Zeit was von PowerVR Series 5 sehen?

Was heißt "nächste Zeit" und was verstehst du unter "sehen"? :)

MadManniMan
2004-06-29, 14:44:35
Original geschrieben von loewe
Was heißt "nächste Zeit" und was verstehst du unter "sehen"? :)

Für mich: bevor die neue Generation von ATi und nV breit(!) verfügbar ist und die finalen Specs offiziell herausgegeben sind.

Gast
2004-06-29, 15:22:13
Original geschrieben von MadManniMan
Für mich: bevor die neue Generation von ATi und nV breit(!) verfügbar ist und die finalen Specs offiziell herausgegeben sind.

Was meinst du damit? *ow*

Aeros405
2004-06-29, 15:29:40
Original geschrieben von loewe
Was heißt "nächste Zeit" und was verstehst du unter "sehen"? :)
Also darunter verstehe ich, dass irgendwas offizielles von seiten PowerVR veröffentlicht (Specs, Partner oder Ähnliches) wird. Und das in ca. 4-6 Wochen.

MadManniMan
2004-06-29, 15:45:27
Original geschrieben von Gast
Was meinst du damit? *ow*

Nun, eben bevor R420XT und NV40GT/U wirklich in den meisten Shops lagern. Dann sehe ich noch eine Chance für eine potentielle Series5, wenn offizielle Infos rauskommen. Ansonsten haben die ganzen Freaks schon ATi und nV zur Genüge :ratlos:

Gaestle
2004-06-29, 15:55:22
Was an einem Vergleich dieses Threads mit den Speku-Threads zu NV40 und R420 auffällt, ist die Tatsache, dass (neben der mittelprächtigen Beteiligung) bei NV40/R420 vor allem darüber diskutiert wurde, wieviel Pipes, Quads, MHz und Stencil-Rate es geben wird, und hier wird im wesentlichen darüber spekuliert, ob überhaupt IRGENDWAS kommt.

Das ist schon bezeichnend (im Sinne von schlechter Marktakzeptanz, zumindest im hier relevanten Markt). Aber auch kein Wunder. Ich würde mich nicht wundern, wenn einige Gerüchte zu R420/NV40 von ATi/NV selbst geleakt wurden, um die Diskussion und die Spannung am Laufen zu halten. Aber eine solche Politik verfolgt PVR offensichtlich nicht.

Naja, was soll's, dann wandere ich als Kunde eben ab. Ich habe keinen Bock mehr zu warten, bis irgendwann mal irgendwas kommt, wenn die R9800pro's gerade so (relativ) billig zu haben sind und ich gerade zwanzig cent auf der Kante haben und der Rechner einfach fällig ist.

Grüße

Gast
2004-06-29, 16:00:51
Original geschrieben von MadManniMan
Nun, eben bevor R420XT und NV40GT/U wirklich in den meisten Shops lagern. Dann sehe ich noch eine Chance für eine potentielle Series5, wenn offizielle Infos rauskommen. Ansonsten haben die ganzen Freaks schon ATi und nV zur Genüge :ratlos:

Da sehe ich aber schwarz.
Den NV40 kriegt man meines Wissens nach schon fast ueberall problemlos zu kaufen.
X800Pro gibt es auch in ausreichender Stueckzahl. Nur vom X80XT wurde bislang nichts gesichtet. Aber auch das duerfte PVR kaum weiterhelfen.

*ow*

loewe
2004-06-29, 16:18:27
Original geschrieben von Aeros405
Also darunter verstehe ich, dass irgendwas offizielles von seiten PowerVR veröffentlicht (Specs, Partner oder Ähnliches) wird. Und das in ca. 4-6 Wochen.

Das ist doch schon mal konkret. :)

Ich bin sicher das von Seiten PowerVR irgendetwas offizielles veröffentlicht wird.

Zeit, das ist so eine Sache bei PowerVR. Bekanntlich ist Zeit relativ und vom Inertialsystem abhängig, weiß jemand wie schnell sich die Insel von uns weg oder auf uns zu bewegt, dann könnte man vielleicht ausrechnen wann für ImgTec 4-6 Wochen um sind? :D
Kann ja sein das sie immer noch denken sie lägen voll im Plan! :)

loewe
2004-06-29, 16:20:58
Original geschrieben von Gaestle
Naja, was soll's, dann wandere ich als Kunde eben ab. Ich habe keinen Bock mehr zu warten, bis irgendwann mal irgendwas kommt, wenn die R9800pro's gerade so (relativ) billig zu haben sind und ich gerade zwanzig cent auf der Kante haben und der Rechner einfach fällig ist.


Ich wiederhole das schon immer mal wieder.

Wenn du mit einer R9800pro oder so zufrieden bist, dann kauf dir eine.

Serie 5 spielt nicht in der Klasse, in keiner Beziehung, und sie wird für den Preis auch nicht zu kaufen sein.

Gast
2004-06-29, 16:26:24
Original geschrieben von loewe
Ich wiederhole das schon immer mal wieder.

Wenn du mit einer R9800pro oder so zufrieden bist, dann kauf dir eine.

Serie 5 spielt nicht in der Klasse, in keiner Beziehung, und sie wird für den Preis auch nicht zu kaufen sein.

Zu dem Posting faellt mir nur folgendes ein:

[Zitat by Pirx, s.o.]
"Genau, seit Jahrzehnten versuchen die Fan-mittlerweile-Opas uns hier bei der Stange zu halten, doch es kommt einfach nix."

Ailuros
2004-06-29, 16:27:22
Es gibt so manche die auf dicken Sesseln hocken, die einen Tritt in den Hintern verdienen, aber das ist eher generell gemeint.

MadManniMan
2004-06-29, 17:01:22
Original geschrieben von Gast
Da sehe ich aber schwarz.
Den NV40 kriegt man meines Wissens nach schon fast ueberall problemlos zu kaufen.
X800Pro gibt es auch in ausreichender Stueckzahl. Nur vom X80XT wurde bislang nichts gesichtet. Aber auch das duerfte PVR kaum weiterhelfen.

*ow*

X800Pro ... ist für mich zwar performancemäßig dicke dabei und ob der potentiellen Modbarkeit auch ein Geheimtipp, aber für mich genau wie die 6800 nich das, auf was der Markt wartet.

Bei 400€ für die X800Pro und 350€ für die 6800 haben sich R420 und NV40 natürlich noch nicht wirklich auf dem Markt gefestigt.
Wenn die Topkarten für 500€, die X8Pro für 350€ und die GT für <400€ breit zu erhalten ist, kann man imho vom Zeitpunkt reden, in dem eine Series5 einen guten Zeitpunkt verpaßt hat.

Ailuros
2004-06-29, 17:08:08
Im gegebenen Fall wuerde ich uebereinstimmen wenn wir schon eine offizielle Ankuendigung eines PC Produkt's haetten.

Eine gewisse Toleranz-zeit was die Verfuegbarkeit von ATI/NV ultra high end Modellen betrifft gibt es schon, aber die ist nun auch wieder nicht unendlich. Ueberhaupt wenn sich der PC Grafik-Markt so atemraubend schnell bewegt.

Gast
2004-06-29, 20:12:10
Ich behaupte jetzt mal, dass die Serie 5 auch wenn sie noch dieses Jahr rauskommen sollte ein finanzieller Flop werden wird. Und zwar wegen der Informationspolitik von Imgtec. Von den Leuten die in diesem Forum posten würden sich zwar relativ viele so eine Karte kaufen, wenn sie wirklich so gut wird wie mache andeuten, aber die "daus" kaufen sie sowas bestimmt nicht.

Die geben nämlich nur für ein "Markengerät" viel Geld aus (die Serie 5 soll ja high end werden) und die Marken Imgtec oder Powervr kennen die nicht.

jasihasi
2004-06-29, 20:56:04
Und ein einziger Chip ist auch 'n bisschen wenig,da lohnt eine Massenproduktion gar nicht,ein Konzept so mit Series6 und Roadmap(die es irgendwo bestimmt gibt),jetzt gibt es ja S3 und XGI,aber son bisschen so zwischendurch ist doch auch zuwenig.Aber ich bin über PVR und Imgtech überhaupt nicht informiert.

loewe
2004-06-29, 21:23:34
Das die Uhren bei PowerVR etwas anders gehen hatten wir ja schon.
Sie haben aber sicher auch andere Vorstellungen als wir hier. Ich traue einigen Leuten dort auch zu, gar nicht so sehr auf eine Massenproduktion erpicht zu sein. Das Risiko ist ihnen zu hoch und sie sehen wohl eher den Aktionär als den Käufer ihrer Hardware.

Mit ATI und NVidia werden sie auch nach Serie 5 nicht vergleichbar sein und ich meine hier nicht was die Fähigkeiten ihrer Hardware anbelangt.
Sie haben Serie 5 an Sega für Arcade verkauft, somit werden Chips produziert, aber wieviele? Einige zig tausend? Ich bin immer noch sehr sicher, dass wir Serie 5 auch für PC sehen werden, wer die Karten fertigt sei noch dahin gestellt.

Sie sollten sicher auch mal wieder was verkaufen, nur von DAB kann ImgTec auf Dauer nicht leben und das Geld für den Verkauf der Lizenzen ist schon auf gebraucht. Wenn nicht bald mal einer auch Produkte mit ihren Chips oder ihrem Knowhow verkauft sieht es nicht so doll aus. Ich weiß nicht wie oft man solche Geldbeschaffungsaktionen wie vor zwei Wochen machen kann. Sicher wären echte Einnahmen besser. :)

Gast
2004-06-29, 23:23:58
Wenn ich dich richtig verstehe Loewe dann meinst du, dass Imgtech die Serie 5 vor allem aus Prestigegründen entwickelt um mit MBX und Co. umso mehr Kohle machen zu können.

Wenn das so sein sollte läßt mich das aber für den Treibersupport bei der Serie 5 schwarz sehen.
Der würde nämlich eine Menge Arbeit erfordern, sich aber kaum marketingmäßig ausschlachten lassen.

Zumindestens mir sind stabile Treiber wichtiger als Performance. Hoffentlich kalkuliert Imgtech nicht so wie ich es befürchte...

loewe
2004-06-29, 23:34:50
In den Treibern sehe ich noch das geringste Problem.

Für die Treiber gibt es kaum Befürchtungen, auch heute wird KYRO noch entwickelt und Serie 5 ist "nichts weiter" als eine andere Compileroption und schon hast du einen Treiber für S5 oder eben selbst S6.

Die Treiber von PowerVR sind sehr gut, das es mit KYRO Probleme gibt liegt nicht am Treiber, sondern an der fehlenden Hardwareunterstützung.
KYRO kann mit Hilfe das Treibers nahezu alles emulieren, selbst Doom3 läuft auf KYRO, es ist s e h r langsam und sieht auch nicht so toll aus, aber es läuft. (Man braucht natürlich den richtigen Treiber)

zeckensack
2004-06-29, 23:51:32
loewe,

Ich habe so den Eindruck, dass die Kyro-Treiber nicht mehr weiterentwickelt werden, bzw dass zumindest keinen neuen Versionen mehr veröffentlicht werden.
Als ich im April '03 einen Treiberfehler gemeldet habe, hat mir Nick zumindest noch geantwortet. Der Fehler wurde nicht mehr behoben, was mich auch nicht störte, da es einen sehr einfachen (und vollkommen akzeptablen) Workaround gibt.

Im März '04 habe ich zwei weitere Bugs gemeldet. Darauf habe ich bis heute keine Antwort erhalten. Ich denke mal Kyro-Treiber sind EOL.

Ailuros
2004-06-30, 02:19:56
Original geschrieben von Gast
Wenn ich dich richtig verstehe Loewe dann meinst du, dass Imgtech die Serie 5 vor allem aus Prestigegründen entwickelt um mit MBX und Co. umso mehr Kohle machen zu können.

Ja so in etwa sollte es tatsaechlich sein.

Wenn das so sein sollte läßt mich das aber für den Treibersupport bei der Serie 5 schwarz sehen.
Der würde nämlich eine Menge Arbeit erfordern, sich aber kaum marketingmäßig ausschlachten lassen.

Zumindestens mir sind stabile Treiber wichtiger als Performance. Hoffentlich kalkuliert Imgtech nicht so wie ich es befürchte...

Jeden Monat hatten sie auch nie in der Vergangenheit neue Treiber veroeffentlicht; nach einer gewissen Zeit wurden KYRO Treiber zB. noch seltener.

Ein sehr guter Post eigentlich nur gibt es ein kleines Loch in der Logik oben. Prestige kann nur mit einer guter Kombination von Hardware und Software erreicht werden. Was bringt Dir gute HW mit miesen Treibern?

z3ck3
2004-06-30, 09:09:50
Mag mir einer das mal übersetzen? :) Bitte? :)

"Intel Corporation has licensed the PowerVR MBX graphics / video core for incorporation into Intel Integrated Circuits."

"SEGA, the leader in the arcade market, will use a new high-performance PowerVR graphics processor as the basis of its future arcade systems. SEGA may also supply system boards based on this processor to other leading amusement game companies."



Original geschrieben von Gast
Wenn ich dich richtig verstehe Loewe dann meinst du, dass Imgtech die Serie 5 vor allem aus Prestigegründen entwickelt um mit MBX und Co. umso mehr Kohle machen zu können.


Ja so in etwa sollte es tatsaechlich sein.



Währe es dann nicht sinnvoller für den Workstationmarkt was zu bringen. Da sind ja auch Karten in der Preislage >1000 € überhaupt keine Seltenheit. Siehe 3DLabs...

Gast
2004-06-30, 09:27:04
Original geschrieben von z3ck3

Währe es dann nicht sinnvoller für den Workstationmarkt was zu bringen. Da sind ja auch Karten in der Preislage >1000 € überhaupt keine Seltenheit. Siehe 3DLabs...

Im Falle von PVR wohl kaum.
Bislang gab es noch keinen Chip von denen, der auch nur annaehernd Workstation-tauglich gewesen waere. Die Darstellung von Drahtgittermodellen (Wireframe) liegt den Kyros nicht. Hoher Polygondurchsatz ebenfalls nicht.

Gast
2004-06-30, 12:35:43
Original geschrieben von z3ck3
Mag mir einer das mal übersetzen? :) Bitte? :)

"Intel Corporation has licensed the PowerVR MBX graphics / video core for incorporation into Intel Integrated Circuits."


Intel hat MBX lizensiert, um ihn in eigenen PDA/Handheld/Handy-Chips zu verwenden.
siehe: http://www.hartware.net/news_27250.html

Original geschrieben von z3ck3
"SEGA, the leader in the arcade market, will use a new high-performance PowerVR graphics processor as the basis of its future arcade systems. SEGA may also supply system boards based on this processor to other leading amusement game companies."

Es wird vermutet, dass SEGA an 'ner neuen Konsole bastelt. Der Grafikkern dieser Konsole wird S5 sein. Das ist erstmal&ouml; alles relativ gesichert. Unklar ist, ob S5 auch für PC erscheint. Es gibt zwar anzeichen - so deutet Ailuros z.B. an, dass es keinen Unterschied zwischen potentiellen PC-Chips und den Konsolen-Chips vorhanden sei, loewe schrieb er sei sich sicher, das was für den PC-Markt kommt und auch PVR hat in einer Pr&auml;sentation ein diesbezügliches Zeichen gegeben - allein es fehlt offensichtlich ein Zeitplan. Und wenn es zu sp&auml;t ist, dann kann es auch sein, dass eine Serie nie erscheint. So geschehen mit dem "Vorg&auml;nger" von S5, wo nach ziemlicher Versp&auml;tung kurz vor der Ver&ouml;ffentlichung der Deal mit dem Produzenten geplatzt ist, und somit der Chip als solches nie das Licht der Welt erblickte (Teile der Technik stecken jetzt im MBX).

Grü&szlig;e

Gaestle - ohne Kekse

---

Rock and Roll... na - Ihr wisst schon...

ice cool69
2004-06-30, 14:38:44
@ Gast

Wenn man in deinem Post "Konsole" gegen "Arcade" oder "Spielhallenautomaten" auswechselst hast du recht.

z3ck3
2004-06-30, 15:06:09
Das Intel sich auch im Grakamarkt breitmachen will ist total ausgeschlossen? Onboardlösungen haben sie ja. Ihnen fehlt nur ein Core der auch auf Graks funzt.

Gaestle
2004-06-30, 16:32:15
Original geschrieben von ice cool69
@ Gast

Wenn man in deinem Post "Konsole" gegen "Arcade" oder "Spielhallenautomaten" auswechselst hast du recht.

Ja.

Gaestle
2004-06-30, 16:34:46
Original geschrieben von z3ck3
Das Intel sich auch im Grakamarkt breitmachen will ist total ausgeschlossen? Onboardlösungen haben sie ja. Ihnen fehlt nur ein Core der auch auf Graks funzt.

Es wurde explizit vom MBX geschrieben. Der reicht nicht von der Leistung her im Vergleich zu aktuellen Desktop-Lösungen.

Und alles andere liegt im nebulösen Nebel der Zukunft, die im Nebel liegt...


Grüße

DasToem
2004-06-30, 17:28:21
Original geschrieben von z3ck3
Das Intel sich auch im Grakamarkt breitmachen will ist total ausgeschlossen? Onboardlösungen haben sie ja. Ihnen fehlt nur ein Core der auch auf Graks funzt.

Ein Wiedereinstieg in den Grafikkartenmarkt wäre schon interessant. Der i740 (?) war ja seinerzeit auch nicht ganz schlecht.

Gast
2004-06-30, 18:40:58
Original geschrieben von DasToem
Ein Wiedereinstieg in den Grafikkartenmarkt wäre schon interessant. Der i740 (?) war ja seinerzeit auch nicht ganz schlecht.


Ich denke nicht, dass Intel an einem Wiedereinsteg in den Grafikchip-Markt interessiert ist.

z3ck3
2004-06-30, 18:57:15
Original geschrieben von Gaestle
Es wurde explizit vom MBX geschrieben. Der reicht nicht von der Leistung her im Vergleich zu aktuellen Desktop-Lösungen.

Und alles andere liegt im nebulösen Nebel der Zukunft, die im Nebel liegt...


Grüße


Was man schreibt und sagt und was ist, sind immer 2 Dinge... siehe NVidia mit "nein das ist kein SLI" Und wie man Intel kennt brauchen die nur ein Miniatomkraftwerk und ne Stickstoffkühlung auf das PCB verlöten und schon haben die aus der MBX ne PMX gemacht ;D

z3ck3
2004-06-30, 18:59:28
Original geschrieben von Gast
Ich denke nicht, dass Intel an einem Wiedereinsteg in den Grafikchip-Markt interessiert ist.


Die haben Kohle, die wollen Martanteile... warum nicht? Würde doch gut kommen wenn die mal wieder was wirklich richtig gutes auf den Markt bringen würden. S5 währe da die Lösung :)

ice cool69
2004-06-30, 21:49:13
Ich behaupte jetzt einmal dass intel mit einer lizenzierten PVR-Technik in der Lage wäre die Nr.1 auf dem Graka-Sektor zu werden.
Natürlich müsste das ein langjähriger Vertrag werden und auch S6 und S7 etc. miteinschließen.

ActionNews
2004-06-30, 22:29:14
Intel ist doch längst Marktführer :D. Oder? Irgendwo hab ich gelesen, dass Intel mit seinen integrieren Grafikkernen mehr Marktanteile haben als Nvidia und Ati.

CU ActionNews

z3ck3
2004-06-30, 22:40:18
Es geht hier nicht um Onboardschnickschnack ;) @AN

Intel ist bestimmt irgendwo Marktführer, aber bestimmt nicht im ConsumerGrakaMarkt. ICh glaub auch net das sie dieses schnell schaffen würden, doch könnten sie mit einer guten Stretegie unter den TOP3 alle mal kommen ;) sind ja nur 2 h3h3 hmmm naja und verlieren würden die da bestimmt nichts. Außerdem würde das Intel als Marke festigen. Was ich bisher von Intel an Grafik gesehen habe war echt *urgs*

stickedy
2004-07-01, 02:55:10
Intel ist Markführer im gesamten Grafikmarkt, was aber nur von den integrierten Chipsätzen herrührt. Ich glaub aber nicht, dass Intel da ernsthaftes Interesse hat, sonst hätte man den i740 damals konsequent weiterentwickelt...

Ailuros
2004-07-01, 03:41:25
Original geschrieben von ice cool69
Ich behaupte jetzt einmal dass intel mit einer lizenzierten PVR-Technik in der Lage wäre die Nr.1 auf dem Graka-Sektor zu werden.
Natürlich müsste das ein langjähriger Vertrag werden und auch S6 und S7 etc. miteinschließen.

INTEL ist tatsaechlich momentan "Marktfuehrer" im Grafikmarkt, aber konzentriert sich bis jetzt:

a) auf Haus-eigene Entwicklung
b) nur integrierte Grafik-chipsets

Fall sich INTEL in der Zukunft entscheiden wuerde nach dem zeitigen PS2.0 integrierten Zeug, einen potentielleren Grafikkern (=/>SM3.0) fuer die weitere Zukunft zu lizenzieren, dann gaebe es natuerlich eine Chance fuer IMG aber dann nur fuer integriertes Zeug.

Bei zeitigem Laufstand hab ich bis noch nichts gehoert, dass INTEL vorhat ihre eigene Entwicklung aufzugeben oder dass sie vorhaben standalone Grafik-Loesungen zu veroeffentlichen. Falls ihr mehr wisst, bin ich ganz Augen und ich verpasse meistens auch viel ;)

Ailuros
2004-07-01, 03:43:05
Was ich bisher von Intel an Grafik gesehen habe war echt *urgs*

shhhhhhh.....hehehe :D

Ailuros
2004-07-01, 03:54:46
Original geschrieben von Gast
Im Falle von PVR wohl kaum.
Bislang gab es noch keinen Chip von denen, der auch nur annaehernd Workstation-tauglich gewesen waere. Die Darstellung von Drahtgittermodellen (Wireframe) liegt den Kyros nicht. Hoher Polygondurchsatz ebenfalls nicht.

Dafuer waren KYROs aber erstmal budget-Gamer Loesungen und kosteten daher auch nur 150$. Fuer Workstation-Leistung muss man zumindest das 10x-fache auf den Ladentisch legen.

Vom heutigen P20-Monster bin ich auch nicht gerade begeistert uebrigens; da sehen NV4x-Quadros um einiges attraktiver aus.

=[Noi]= IKillerzelle
2004-07-02, 16:42:41
Ich war mal großer Fan dieser Firma, doch die Betonung dürfte auf WAR gesetz sein, denn seit einem Jahr habe ich zu Radeon gewchselt und bin glücklich!!!

Diese Deppen machen sich doch mit ihrer Informationspolitik alles kaputt, kein Wunder dass sie im Endkunden-Grafiksegment kein Fuß fassen konnten. Und diverse Spekulationen über eine Series5 sind sind sinnlos, da diese nie das erwünschte Produkt sein wird, was sich viele User(dazu gehöre auch ich) erhoffen. Mit solch einem Propaganda (nämlich keinem :D :D :D ) kann man nun heutzutage keinen Partner finden, ihr holt euch doch auch net jeden scheiß das ihr aufm markt vertickt bekommt!!! Und vor allem holt ihr euch nicht das, was in der dunkelsten ecke rumsteht :chainsaw:

Gaestle
2004-07-05, 13:50:45
Original geschrieben von loewe
Ich wiederhole das schon immer mal wieder.

Wenn du mit einer R9800pro oder so zufrieden bist, dann kauf dir eine.

Serie 5 spielt nicht in der Klasse, in keiner Beziehung, und sie wird für den Preis auch nicht zu kaufen sein.

Genau das ist ja das Problem... Ich wäre eben mit einer R9800pro nicht zufrieden, wegen der mangelhaften BQ. Da ich aber im höheren Leistungssektor nirgends volle BQ bekomme, muss ich derzeit halt Kompromisse eingehen. Das will ich aber nicht. Ich bin auch bereit ein bißchen mehr hinzulegen (schließlich kauf' ich mir nur alle 4-5 Jahre neue HW), wenn es was gäbe, was mir in dieser Leistungsklasse (oder eben darüber) bessere BQ gibt. Aber das ist ja Fehlanzeige.
Da der DC aber eine Liga tiefer spielt und mir dessen Leistung nicht ausreicht, bin ich nach derzeitiger (und wahrscheinlich auch zukünftiger) grün/roter Marktlage gezwungen, auf die maximale BQ zu verzichten. Denn der DC bringt zwar die BQ, kann sie aber nicht bei höheren Auflösungen bringen. Andere schaffen zwar höhere Auflösungen, bringen aber nicht volle BQ.
PVR könnte offensichtlich dieses persönliche Dilemma lösen. Aber nein, die Herren kommen ja nicht aus dem Knick. Und das finde ich total besch***.
Sicher, die Firma schuldet dem Konsumer nichts, sie kann machen was sie will, sie wird auch ohne dass S5 im PC-Markt verkauft wird überleben. Aber ich denke, es gibt mehr Leute wie mich, die hoffen, dass es mal was vernünftiges gibt und die aus ihrer Hoffnung heraus gern auf Züge wie S5 und die Versprechungen von Leuten, die wahrscheinlich mehr wissen als man selbst, aufspringen und dann einfach nur enttäuscht sind dass es 1.) WIEDER MAL ewig dauert und 2.) die Möglichkeit, dass es ZU LANGE dauert immer größer wird und damit 3.) die Option, dass im Endeffekt das Projekt komplett (für den PC-Markt) gestrichen wird, auch wahrscheinlicher wird.

Ich finde, das solltest Du mit beachten wenn Du solche Statements wie oben zitiert loslässt. Außerdem hatte Ailuros Andeutungen gemacht, dass sich aus S5 eine komplette Pallette entwickeln könnte, die dann sicherlich auch Mainstrem abdecken würde.

Grüße

loewe
2004-07-05, 23:45:45
Original geschrieben von Gaestle
Genau das ist ja das Problem... Ich wäre eben mit einer R9800pro nicht zufrieden, wegen der mangelhaften BQ. Da ich aber im höheren Leistungssektor nirgends volle BQ bekomme, muss ich derzeit halt Kompromisse eingehen. Das will ich aber nicht. Ich bin auch bereit ein bißchen mehr hinzulegen (schließlich kauf' ich mir nur alle 4-5 Jahre neue HW), wenn es was gäbe, was mir in dieser Leistungsklasse (oder eben darüber) bessere BQ gibt. Aber das ist ja Fehlanzeige.
Da der DC aber eine Liga tiefer spielt und mir dessen Leistung nicht ausreicht, bin ich nach derzeitiger (und wahrscheinlich auch zukünftiger) grün/roter Marktlage gezwungen, auf die maximale BQ zu verzichten. Denn der DC bringt zwar die BQ, kann sie aber nicht bei höheren Auflösungen bringen. Andere schaffen zwar höhere Auflösungen, bringen aber nicht volle BQ.
PVR könnte offensichtlich dieses persönliche Dilemma lösen. Aber nein, die Herren kommen ja nicht aus dem Knick. Und das finde ich total besch***.
Grundsätzlich kann dir hier mit S5 sicher geholfen werden. Sie werden auf jeden Fall, wie nicht anders gewohnt (was ist gewohnt bei PowerVR) auch BQ ohne Optimierungen bieten. Ob sie der Versuchung grundsätzlich widerstehen werden, wer weiß!
Original geschrieben von Gaestle
Sicher, die Firma schuldet dem Konsumer nichts, sie kann machen was sie will, sie wird auch ohne dass S5 im PC-Markt verkauft wird überleben. Aber ich denke, es gibt mehr Leute wie mich, die hoffen, dass es mal was vernünftiges gibt und die aus ihrer Hoffnung heraus gern auf Züge wie S5 und die Versprechungen von Leuten, die wahrscheinlich mehr wissen als man selbst, aufspringen und dann einfach nur enttäuscht sind dass es 1.) WIEDER MAL ewig dauert und 2.) die Möglichkeit, dass es ZU LANGE dauert immer größer wird und damit 3.) die Option, dass im Endeffekt das Projekt komplett (für den PC-Markt) gestrichen wird, auch wahrscheinlicher wird.
Natürlich gibt es für jeden Chip ein Zeitfenster wo er Sinn macht.
Das Ende ist hier aber für S5 noch lange nicht erreicht. Wir wissen alle was die Konkurrenz zu bieten hat und noch ist hier nichts wovor man sich fürchten müßte. Sicher wird es im Herbst Refresh-Chips geben, aber mehr als ein neuer Aufguß mit ein klein wenig mehr Geschwindigkeit wird es nicht werden. Ein Sprung wie mit NV40 ist dieses Jahr nicht noch einmal zu erwarten, und immer daran denken, NV hat den Sprung von GF4 zu NV30/NV40 auch nicht problemlos geschafft. Vergleiche mal die Resourcen von NV mit denen von PowerVR. :)
Original geschrieben von Gaestle
Ich finde, das solltest Du mit beachten wenn Du solche Statements wie oben zitiert loslässt. Außerdem hatte Ailuros Andeutungen gemacht, dass sich aus S5 eine komplette Pallette entwickeln könnte, die dann sicherlich auch Mainstrem abdecken würde.
Grüße
Wir sind nicht glücklich mit der gegenwärtigen Situation, wir können sie aber auch nicht ändern. Ob Serie 5 für PC erscheinen wird weiß ich nicht, aber es ist sehr wahrscheinlich und ich bin sicher, wenigstens die nächsten 6 Monate wird S5 im Highend-Bereich ein interessantes Produkt sein.

robbitop
2004-07-06, 12:15:51
dann müsste sie aber auch bald mal kommen

aths
2004-07-06, 12:34:32
Original geschrieben von loewe
Sicher wird es im Herbst Refresh-Chips geben, aber mehr als ein neuer Aufguß mit ein klein wenig mehr Geschwindigkeit wird es nicht werden. Na sagen wir, in der Größenordnung von +40%.

Original geschrieben von loewe
Vergleiche mal die Resourcen von NV mit denen von PowerVR. :)Genau das lässt mich bezweifeln, dass PowerVR eine Highendlösung anzubieten haben könnte, welche die beiden Platzhirsche ins Schwitzen bringen würde.

Gast
2004-07-06, 12:36:21
Original geschrieben von robbitop
dann müsste sie aber auch bald mal kommen

Und wenn nicht wird es die Serie 6 schon richten.;)

Gast
2004-07-06, 13:13:28
Original geschrieben von loewe
Ob Serie 5 für PC erscheinen wird weiß ich nicht, aber es ist sehr wahrscheinlich und ich bin sicher, wenigstens die nächsten 6 Monate wird S5 im Highend-Bereich ein interessantes Produkt sein.
Ich glaube diesen Satz musst du wohl umformulieren.

Wie wäre es mit ...aber es ist sehr unwahrscheinlich das der S5 in den nächsten 6 Monaten erscheint...

IMG wird also wieder einmal zu spät kommen, wenn überhaupt. Momentan ist es ja sehr viel wahrscheinlicher das der S5 nur für SEGA fertig entwickelt wird und der PC-Bereich außen vor bleibt.

robbitop
2004-07-06, 13:14:24
40%?
Von was träumst du nachts?
Ich gehe einfach mal davon aus, dass es in den "Refreshes" diesmal bei keinem der beiden IHVs Chipinterne Änderungen gibt, sondern nur Takt.

Und um auf +40% zu kommen müssten Speicher und Chip 40% höher getaktet sein.

NV48: 560 / 770
R480: 728 / 784

Ich weiss zwar nicht, ob die GDDR3 Hersteller in ein paar Monaten 800MHz Speicher bieten, aber dass man diese Chiptakte schafft, wage ich ernsthaft zu bezweifeln.
Bei beiden ist derzeit keine Änderung der Fertigungstechnologie abzusehen...wo sollen diese Taktungen herkommen? Mit reifender Fertigung und optimierten Design ist sicher etwas mehr drin als zZ aber nicht 40%.

NVIDIA denke ich mal wird bei ~475MHz Chiptakt liegen ATi vieleicht bei 560-580Mhz. Beim Speicher wählen beide sicherlich den best verfügbaren, aber an 800MHz glaube ich, so wies zZ ausschaut, nicht wirklich.

just my 2 cents

q@e
2004-07-06, 13:29:40
Original geschrieben von robbitop
Ich weiss zwar nicht, ob die GDDR3 Hersteller in ein paar Monaten 800MHz Speicher bieten, [...]

Ist AFAIK gecancelt worden.

reunion
2004-07-06, 13:34:44
Original geschrieben von aths
Genau das lässt mich bezweifeln, dass PowerVR eine Highendlösung anzubieten haben könnte, welche die beiden Platzhirsche ins Schwitzen bringen würde.

ACK, auch PowerVR kann nicht zaubern, und genau deshalb erwarte ich auch nicht mehr wie von S3 oder XGI...

robbitop
2004-07-06, 13:36:32
danke für den Hinweis Quasar :up:

Ich denke mal der Sprung wird nur ein leichter sein.
so wie die 5950/R9800XT.

Für anderes müssten schon einige mannigfaltige Änderungen chipintern vorgenommen werden, und irgendwie glaube ich nicht, dass diesmal auch nur einer der beiden IHVs was ändern wird (vieleicht ein bisschen auf Leckströme optimieren).
Bisher hat nur NVIDIA echte Refreshes gebracht (also mit chipinternen Änderungen die wirklich was gebracht haben) und diesmal haben sie keine riesen großen Defizite im Design.

MadManniMan
2004-07-06, 19:41:18
Original geschrieben von robbitop
Bisher hat nur NVIDIA echte Refreshes gebracht (also mit chipinternen Änderungen die wirklich was gebracht haben) und diesmal haben sie keine riesen großen Defizite im Design.

Vielleicht gibts ja noch nen Schalter für Old-School-AF ;)

robbitop
2004-07-06, 20:13:32
@MMM
glaube ich leider nicht dran. Die AF Logik im NV40 Kern ist eine sehr viel einfachere. In einem Refresh wird man das wohl kaum ändern (und damit ATi's Balkenlänge noch weiter weg laufen lassen)..

@reunion
der Unterschied zw S3/XGI und PVR ist die Ausrichtung.
S3 und XGI müssen viele Leute beschäftigen, die unwichtig für die Entwicklung des Grafikchips sind.
Sales&Marketing/ PR / Dev Relation / Focus Group usw usf.
Das muss PVR nicht, denn sie verkaufen ja nur IP.
Somit hängen bei PVR nur Ingenieure rum (oder fast nur) und man kann IP aus anderen Departments von IMG "leihen".
Man kommt auf gut und gern rund 200Ingenieure für die Entwicklung einer VPU.
S3 und XGI können von solchen Zahlen nur träumen.
Somit sind alle 2 Jahre auch deutlich komplexere Projekte drin als bei XGI/S3. Somit hat man immerhin schon die Größe von 1 (von insgesamt 3)Entwicklungsteams von ATi/NV.
Die Entwicklungsfrequenz ist zwar geringer, man hat aber ähnliche Möglichkeiten für einen Chip.

Einziger Nachteil: der Produktionspartner den IMG Tech braucht (Verkauf, Vertrieb, PR, Produktion, zur Serienreife bringen) ist in jedem für eine Verzögerung zuständig.
Jedoch sind die potentiell möglichen Designs nicht mit S3/XGI zu vergleichen

loewe
2004-07-06, 21:56:29
Original geschrieben von robbitop
der Unterschied zw S3/XGI und PVR ist die Ausrichtung.
S3 und XGI müssen viele Leute beschäftigen, die unwichtig für die Entwicklung des Grafikchips sind.
Sales&Marketing/ PR / Dev Relation / Focus Group usw usf.
Das muss PVR nicht, denn sie verkaufen ja nur IP.
Somit hängen bei PVR nur Ingenieure rum (oder fast nur) und man kann IP aus anderen Departments von IMG "leihen".
Man kommt auf gut und gern rund 200Ingenieure für die Entwicklung einer VPU.
S3 und XGI können von solchen Zahlen nur träumen.
Somit sind alle 2 Jahre auch deutlich komplexere Projekte drin als bei XGI/S3. Somit hat man immerhin schon die Größe von 1 (von insgesamt 3)Entwicklungsteams von ATi/NV.
Die Entwicklungsfrequenz ist zwar geringer, man hat aber ähnliche Möglichkeiten für einen Chip.

Einziger Nachteil: der Produktionspartner den IMG Tech braucht (Verkauf, Vertrieb, PR, Produktion, zur Serienreife bringen) ist in jedem für eine Verzögerung zuständig.
Jedoch sind die potentiell möglichen Designs nicht mit S3/XGI zu vergleichen

Das ist in fast allen Punkten falsch. :)

ImgTec beschäftigt alles in allem etwa 340 Leute und dazu gehört dann auch schon PURE.

robbitop
2004-07-06, 22:13:23
das war aber ne sehr sehr mirkrige Kritik loewe.
Geht das auch ausführlicher?
XGi hat nicht mal 80 Ingenieure, S3 afaik noch weniger.

AiL sagte mal was von 200Ingenieuren bei PVR.
Also bitte ...leg los ;)

loewe
2004-07-06, 23:43:35
@robbitop
Das war keine Kritik. :)

Ich werde mich dazu nicht weiter äußern und alles weitere werden wir sehen wenn es denn soweit ist.

Ansonsten habe ich jetzt erst einmal Urlaub, ab dem Wochenende, und werde etwas kürzer treten. Aber im Sommer passiert sowieso nicht so viel, ist also nicht so schlimm.:D

Ailuros
2004-07-07, 05:37:15
Original geschrieben von robbitop
40%?
Von was träumst du nachts?
Ich gehe einfach mal davon aus, dass es in den "Refreshes" diesmal bei keinem der beiden IHVs Chipinterne Änderungen gibt, sondern nur Takt.

Und um auf +40% zu kommen müssten Speicher und Chip 40% höher getaktet sein.

NV48: 560 / 770
R480: 728 / 784

Ich weiss zwar nicht, ob die GDDR3 Hersteller in ein paar Monaten 800MHz Speicher bieten, aber dass man diese Chiptakte schafft, wage ich ernsthaft zu bezweifeln.
Bei beiden ist derzeit keine Änderung der Fertigungstechnologie abzusehen...wo sollen diese Taktungen herkommen? Mit reifender Fertigung und optimierten Design ist sicher etwas mehr drin als zZ aber nicht 40%.

NVIDIA denke ich mal wird bei ~475MHz Chiptakt liegen ATi vieleicht bei 560-580Mhz. Beim Speicher wählen beide sicherlich den best verfügbaren, aber an 800MHz glaube ich, so wies zZ ausschaut, nicht wirklich.

just my 2 cents

Und mein Applaus. :)

Ailuros
2004-07-07, 05:40:49
Original geschrieben von robbitop
AiL sagte mal was von 200Ingenieuren bei PVR.
Also bitte ...leg los ;)

Heute 230....aber auf alle 3 Subdivisionen verteilt und vergiss nicht dass selbst das Management aus Inginieuren besteht und dass auch zB. ein DevRel Angestellter leicht als Inginieur betrachtet werden kann.

Das ist aber bei den anderen auch nicht anders. Man schmeisst eben mit Zahlen normalerweise immer nur so rum. Im gegebenen Fall heisst das aber bei weitem nicht dass sich alle 230 mit S5 beschaeftigt haben oder werden. Es werden - wie Du schon selber erkannt hast - eine Vielzahl von Maerkten bedient genau durch diese 3 Divisionen.

robbitop
2004-07-07, 10:33:55
gut aber ein Entwicklungsteam bei NV/ATi ist ca 120Mann stark, dass schafft PVR m.E. wohl auch.
Nur eben, dass ATi/NV 3 davon haben, die je eine Generation beackern. (Ich glaube das dritte Team war für Chipsets?).

Und selbst an diese Größe kommt XGi/S3 nicht ran.
PVR hat eben für ihre Größe einen erheblichen Vorteil, was entwicklung betrifft.

Das ist bei der Firma von meinem Vater auch so. Sie besteht aus 7 Leuten. 6 davon hoch erfahrene Ingenieure (uA mein Vater). Sie Entwickeln Windkraftanlagen auf Lizenzbasis.
Im Prinzip auch nur Chalkboarddesigns..kümmern sich aber auch darum dass der Prototyp läuft und helfen den Herstellern/Lizenznehmern natürlich auch.
Ehemals kamen einige der Leute von Nordex Energy. Die haben ca 1000 Mitarbeiter. Davon vieleicht 20 - 30 Ingenieure. Und die bekommen es nicht hin, deutlich mehr/technisch überlegene Windkraftanlagen zu entwickeln, wie die Firma meines Vaters.
Allerdings gibs natürlich Verzögerungen, da man nicht selbst baut und verkauft. Aber man kann für eine kleine Größe an Manpower unglaublich große Projekte schaffen.
Und ich denke so ist es auch mit PVR.

HOT
2004-07-07, 10:50:08
Original geschrieben von robbitop
gut aber ein Entwicklungsteam bei NV/ATi ist ca 120Mann stark, dass schafft PVR m.E. wohl auch.
Nur eben, dass ATi/NV 3 davon haben, die je eine Generation beackern. (Ich glaube das dritte Team war für Chipsets?).

Und selbst an diese Größe kommt XGi/S3 nicht ran.
PVR hat eben für ihre Größe einen erheblichen Vorteil, was entwicklung betrifft.

Das ist bei der Firma von meinem Vater auch so. Sie besteht aus 7 Leuten. 6 davon hoch erfahrene Ingenieure (uA mein Vater). Sie Entwickeln Windkraftanlagen auf Lizenzbasis.
Im Prinzip auch nur Chalkboarddesigns..kümmern sich aber auch darum dass der Prototyp läuft und helfen den Herstellern/Lizenznehmern natürlich auch.
Ehemals kamen einige der Leute von Nordex Energy. Die haben ca 1000 Mitarbeiter. Davon vieleicht 20 - 30 Ingenieure. Und die bekommen es nicht hin, deutlich mehr/technisch überlegene Windkraftanlagen zu entwickeln, wie die Firma meines Vaters.
Allerdings gibs natürlich Verzögerungen, da man nicht selbst baut und verkauft. Aber man kann für eine kleine Größe an Manpower unglaublich große Projekte schaffen.
Und ich denke so ist es auch mit PVR.

Wenn ich 3 Teams hätte würd ich eins (das beste) an die Entwicklung neuer Technik setzten, eins für Refresches+Chipsets und eins für Nebenarbeiten, Implemetation, Treiber etc. ;)

robbitop
2004-07-07, 11:27:17
Treiberteams waren noch nicht mitgezählt.
Es ging um reine hardwareteams.
Aber schön zu wissen, was du damit anstellen würdest ;)

HOT
2004-07-07, 12:57:35
Original geschrieben von robbitop
Treiberteams waren noch nicht mitgezählt.
Es ging um reine hardwareteams.
Aber schön zu wissen, was du damit anstellen würdest ;)

War mir schon klar ;) Aber hab mich unklar ausgedrückt :D
Das Team ist schon das Hardwareteam aber soll quasi die Schnittstelle zwischen Treiberteam und Hardware darstellen.

robbitop
2004-07-07, 13:05:30
wäre ein bisschen viel ;)
ich denke das Treiberteam bekommt das gut hin.

Worauf ich hinauswollte, ist dass man theoretisch alle 2 Jahre ähnliche Kraft wie NVIDIA/ATi hat, die man in einen Chip stecken kann, nur kann man halt bei den Entwicklungszyklen nicht mithalten.

HOT
2004-07-07, 15:01:46
Original geschrieben von robbitop
wäre ein bisschen viel ;)
ich denke das Treiberteam bekommt das gut hin.

Worauf ich hinauswollte, ist dass man theoretisch alle 2 Jahre ähnliche Kraft wie NVIDIA/ATi hat, die man in einen Chip stecken kann, nur kann man halt bei den Entwicklungszyklen nicht mithalten.

Das war bei PowerVR immer so. Sie waren technisch gesehen auch immer Konkurrenzfähig (na ja die Rerie4 vielleicht nur speedtechnisch). Die Serie3 war ja schon über 1 Jahr vor dem Erscheinen des Kyro für PC fertig soweit ich weiss. Ich kann mich noch daran erinnern, wie firingsquad eine 100MHz Serie3 Karten schon über ein halbes Jahr vor dem Kyro Release gebencht hat (war da shon halbwegs konkurrenzfähig). ST wollte die aber net für den PC Markt produzieren damals (war denen wahrscheinlich zu teuer für Mainstream).

robbitop
2004-07-07, 16:04:15
kannst du mir mal den Link geben?

wobei es heutzutage schwieriger ist einen vernünftigen DX9 Chip zu bauen als damals einen konkurenzfähigen DX6 Chip

Ailuros
2004-07-08, 04:48:30
Original geschrieben von robbitop
gut aber ein Entwicklungsteam bei NV/ATi ist ca 120Mann stark, dass schafft PVR m.E. wohl auch.
Nur eben, dass ATi/NV 3 davon haben, die je eine Generation beackern. (Ich glaube das dritte Team war für Chipsets?).

Und selbst an diese Größe kommt XGi/S3 nicht ran.
PVR hat eben für ihre Größe einen erheblichen Vorteil, was entwicklung betrifft.

Das ist bei der Firma von meinem Vater auch so. Sie besteht aus 7 Leuten. 6 davon hoch erfahrene Ingenieure (uA mein Vater). Sie Entwickeln Windkraftanlagen auf Lizenzbasis.
Im Prinzip auch nur Chalkboarddesigns..kümmern sich aber auch darum dass der Prototyp läuft und helfen den Herstellern/Lizenznehmern natürlich auch.
Ehemals kamen einige der Leute von Nordex Energy. Die haben ca 1000 Mitarbeiter. Davon vieleicht 20 - 30 Ingenieure. Und die bekommen es nicht hin, deutlich mehr/technisch überlegene Windkraftanlagen zu entwickeln, wie die Firma meines Vaters.
Allerdings gibs natürlich Verzögerungen, da man nicht selbst baut und verkauft. Aber man kann für eine kleine Größe an Manpower unglaublich große Projekte schaffen.
Und ich denke so ist es auch mit PVR.

Ziemlich nuechterne Darstellung was IP generell betrifft. Nein viel anders ist es bei IMG nicht, nur werden eben mehrere als nur ein Markt bedient und PURE bringt ja auch die paar eigene Produkte auf die Ladentische.

kannst du mir mal den Link geben?

Ich weiss jetzt nicht mehr wie lange ST genau brauchte bis sie Serie3 fertigstellte, aber es gab tatsaechlich viel zu grosse Verzoegerungen. Es gab mal zu der Zeit einen KYRO preview von Kristof selber fuer B3D (ich glaube dass er damals noch gar nicht bei denen arbeitete); ans Datum des Previews kann ich mich nicht mehr erinnern und man kann es auf B3D auch nicht mehr finden.

Den Eindruck den ich damals bekam war dass Potenzial in dem Design steckte, aber ihm doch noch das gewisse etwas fehlte; Preis-Leistungsniveau war trotz allem hoch. Ein paar OGL Treiber bugs gab es damals, die aber bei der Veroeffentlichung von der ersten KYRO damals glaube ich auch behoben wurden.

KYRO war an fuer sich nur eine quasi schnellere + Verbesserungen Serie2 Variante IMO; die beiden waren an fuer sich ziemlich verwandt, ueberhaupt was Algorithmen generell betrifft.

wobei es heutzutage schwieriger ist einen vernünftigen DX9 Chip zu bauen als damals einen konkurenzfähigen DX6 Chip

Ja und nein. Programmierbarkeit hat ihre Vor- und Nachteile, ist aber keine neue Feststellung fuer uns alle. Haetten die erfahrenen Inginieure keine Ahnung was CPU Entwicklung generell betrifft, dann wuerde es duester aussehen. ATI/NV haben aber tatsaechlich in der vorigen Generation so einige Erfahrung gesammelt und da hat PVR natuerlich "entry-level" dx9.0 praktisch verpasst. Intern hat man sich sehr wohl auch mit diesem Zeug beschaeftigt, nur kam man nicht allzu weit mit der Entwicklung, da man sehen konnte dass solche Designs weniger "zukunftssicher" sein koennten.

Serie1 und 2 waren aber auch von so manchen Kompatibilitaetsproblemen geplagt, die dann erst in S3 zur Mehrzahl oder voll behoben wurden.

Von all der Theorie abgesehen, IMG koennte wirklich den Bloedsinn mit der Geheimnistuerei mal aendern und mal ein paar Spezifikationen des S5 Designs freigeben. Selbst wenn das Ding nur im Arcade steckenbleibt, sehe ich keinen besonderen Grund so zu uebertreiben.

HOT
2004-07-08, 09:31:24
Original geschrieben von robbitop
kannst du mir mal den Link geben?

[...]

Tja, das wär schön ;) Ich glaub soweit gehen die Archive von firingsquad leider net zurück...

stickedy
2004-07-08, 09:55:09
Also ich hab nur das gefunden:
http://www.firingsquad.com/hardware/kyropreview/default.asp
http://www.firingsquad.com/hardware/kyropreviewupdate/default.asp

HOT
2004-07-08, 10:51:48
Original geschrieben von stickedy
Also ich hab nur das gefunden:
http://www.firingsquad.com/hardware/kyropreview/default.asp
http://www.firingsquad.com/hardware/kyropreviewupdate/default.asp

21.Juni 2000. Wann kam der Kyro/2 offiziell? Anfang 2001 oder? Ui zu dem Zeitpunkt hatte ich meine Diamond ViperII noch :D

stickedy
2004-07-08, 15:34:58
Nein, Kyro II wurde im März 2001 vorgestellt, Kyro wurde schon am 5.6.2000 vorgestellt: http://www.powervr.com/News/Release/index.asp?ID=11

Mit der Lieferbarkeit sah es allerdings damals afair nicht so rosig aus. Hercules war ja noch nicht an Board und es wurden nur Karten von PowerColor (die EvilKyro) und natürlich von VideoLogic produziert. Ich hab meine EvilKyro im Januar 2001 gekauft, es gab sie aber schon vorher!