PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : KyroIII killt sie ALLE!!!!


HOT
2001-06-23, 11:42:44
Wer sich jetzt ne G3 holt, weil er denkt eine gute DX8 Karte zu haben, hat leider Pech gehabt: Am Ende des Jahres erscheint der KyroIII(STG5500) in 0,13 Mikron mit DX7T&L, (frei programmierbare) Vertexshader und Pixelshader! 1000MPixel Fillrate mit TBR und kein Bandbreitenlimit! Das war heute einer News bei www.3dconcept.ch zu entnehmen. Na ja, meine KyroI wird betimmt noch solange durchhalten :D

Kai
2001-06-23, 11:44:33
*prust* ... wie wär's wenn Du mal nicht so voreilig bist ... die Kyro2 hätte sie nämlich auch "alle killen" sollen ...

The<VIPER>
2001-06-23, 11:58:59
die kyro2 killt ja auch ne geforce2gts und selbst ne geforce3 hinkt bei spielen auf der unreal engine und bei ss vollkommen hinterher. uups hab vergessen bei spielen aufer unreal engine basierend is ja sogar ne radeon schneller als ne geforce3 hehe.

Andre
2001-06-23, 12:08:08
Ich sage wie immer - ABWARTEN !!!!
Die Erfahrungen mit z.B. der angeblich so dominierenden G550 sollten einigen doch eine Lehre sein, was vor dem offiziellen Release spekulierte Specs angeht.

@ Viper

Und die Voodoo 5-5500 ist in den Unreal-Engine Games auch schneller als die Geforce - ist sie deswegen insgesamt die bessere Karte ???
Die Games mit der alten Unreal oder UT-Engine erscheinen kaum noch, die Engine wird nicht mehr lange verwendet werden, also fällt der Vorteil ziemlich schnell weg.
Trotzdem ist die Kyro II eine ziemlich gute Karte, vor allem für den Preis...

Kai
2001-06-23, 12:51:00
Ich hab mir die GF3 ja auch nicht gekauft um damit Unreal usw. zu zocken, sondern um damit Unreal2 zu zocken :D (Ich freue mich jedenfalls auf die neuen DX8 Games)

Ahja ... um wieviel FPS geht es hier? 7? 10? Ich will die Karte mal in Serious Sam auf 1280x1024 erleben ... da dürften sich die Geister aber scheiden, gelle?

Und ansonsten kann ich mich Andre nur anschliessen. Mich hat vor kurzem noch jeder ausgelacht als ich mir ne GF3 holen wollte. Auch die, die jetzt selber eine ownen hatten mich derbe belächelt. Ganz zu schweigen von der Fraktion die sich auf die Geforce3-Killer Karte G550 gefreut haben wie die kleinen Kinder ;)

Holger
2001-06-23, 12:51:02
hehe,
ich bin ja eigentlich eher immer zurückhaltend, aber die daten der kyro III sind genauso wie ich sie vor etwas längerer zeit schon mal erwähnt hatte.

wenn jetzt gewisse leute darauf hoffen, dass die karte massiv zu spät kommt, dann wird euch STm/imgTEc wohl enttäuschen, die karte gibt es schon etwas länger nicht nur auf dem papier :)

selbst wenn die karte nicht mehr in diesem jahr sondern evtl. im ersten Quartal 2001 kommt ist das genau rechtzeitig, denn selbst zu diesem zeitpunkt wird man dx8-spiele noch an zwei händen abzählen können.
vorher brauchen wohl die wenigstens user eine karte einer gf3.

ausserdem hat niemand behauptet, dass die kyro II ein GF2 Ultra-Killer wird, oder will jemand im ernst die aussagen einer chip, compu-bild als gehaltvoll ansehen :)

so long
holger

Kai
2001-06-23, 12:57:04
Äh Holger? Warum sollten hier einige *hoffen* das die Karte zu spät kommt?

Ich weiß ja nicht wie es euch geht, aber ich hab's schon tausendmal erwähnt - jeder soll sich das kaufen was er für richtig hält.

Diese Wettrüsterei und Neiderei geht mir persönlich auf den Sack ... geht ja schon zu wie im kalten Krieg hier!

Thowe
2001-06-23, 17:30:09
Kyro3 wird den Grafikkartenmarkt stark bereichern

-B@lu-
2001-06-23, 18:57:28
nice! endlich mal eine WIRKLICHE konkurrenz für Nvidia Karten. Eine Karte die die selben Features bietet wie eine Gef3 ( wenn nicht sogar mehr ) wird auch dem Otto-Normal Verbraucher ins Auge fallen ( -> siehe AMD <-> Intel ). Fragt sich nur ob Nvidia kontern kann... Brute Force währe damit überhohlt und man kann sich ernsthafte Sorgen um den Monopolisten machen. Ich hoffe Nvidia endet nicht so wie 3DFX -> Dann würde bald der PowerVR-Hass anfangen LOL

@KAI

Mittlerweile kommt es mir so vor als würde jeder seinen eigenen Lieblingshersteller haben den er in Fussballfanmanier verteidigen muss. Stefan sein Matrox ( gabs schon ein Statement zur G550 ;-) ? ). Kai sein Nvidia. n paar mit PowerVR. u.s.w.

Unregistered
2001-06-23, 19:14:28
ich hab ne Herc. 4500 gekauft und nach 2 tagen gegen eine GF3 ausgetauscht.

bei unreal - engine spielen ist die kyro2 wirklich spitze ( bis auf die bildqualität, die ist im vergleich zur gf3 wirklich zu kotzen!! )


aber hoffentlich kann STM die schwächen der 1er und 2er kyro ausmerzen.

Frank
2001-06-23, 19:27:45
OK KAI...

es reicht. Wenn du "nebenläufig" über Karten ablästerst, trifft es immer Matrox. Und das denke ich voll zu Unrecht!! Wer über die G550 spekuliert hat wie wild und dachte die haut ne GF3 vom Sockel tut mir leid. Das sollte wohl aber nicht dazu führen Matrox schlecht zu machen. Schon gar nicht das Produkt, welches in JEDEN nicht SELBSTZUSAMMENgeschraubten Rechner für Nicht-Häufig Spieler eine Exitenzberechtigung hat. (hab ich schon Netfinity & Co Serien erwähnt?? - ja Computer mit denen man Geld verdient...) Also ich werd mir wahrscheinlich eine holen. Schonmal weil ich hier nen CRT rumstehen hab und mir dann dazu nen TFT hole.

Die Kyro 3 könnte wohl locker ne GF3 schlagen. Wenn man sich die Daten anschaut und dann ein bisschen über Äquivalenzen hin und her rechnet ist das wohl locker drin. Allerdings zu behaupten eine Kyro 2 putzt ne GF2 weg ist wohl eher falsch.

Kai
2001-06-23, 19:44:36
Nvidia mit den Grafikkarten vorlegen zu lassen und schön im Hintergrund abwarten um dann ne bessere Karte rauszubringen kann jeder ...

Ich sag ja nix gegen die Kyro3 - nur gehts hier schon wieder mit dieser allgemeinen Euphorie los.

Ich werde mich ab jetzt aus allen GF3 vs. Kyro3 Threads raushalten. Ich spekuliere nicht über Dinge die ich nicht kenne, basta!

Im übrigen - diese Aussage "Die Kyro3 könnte locker A B oder C schlagen" ... was heißt bei euch locker? In welchen Dimensionen denkt ihr denn nach? Locker in der Geschwindigkeit - locker 20 fps schneller, locker in den Features, locker im Einbau-Aufwand ??? ??? Welche Systeme bis dahin aktuell sind weiß bei aller Bescheidenheit noch kein Schwanz - und bis dahin kann nvidia schon laaaaaang gekontert haben.

Im übrigen wette ich noch das die Kyro3, wenn sie denn mit der Latte an Features kommen soll, mindestens mal soviel kosten wird wie ne GF3 ...

Kai
2001-06-23, 20:45:29
*räusper* ... nochmal ich :D Ich denke, ich bewerfe euch jetzt mal mit ein paar Fakten, da ich mich mal schlau gemacht hab ...

Ich finde über 1000 Mpixel heute einfach noch zu unrealistisch - und in der nächsten Zeit auch erstmal. Welches Spiel wird die denn mal ausnutzen? 1000 Mpixel wären eher ein "Idealfall". Beim Tile Based Rendering der Kyros ist die Füllrate doch abhängig von der Anzahl der Polygone. Bei mehr als 32 Polygonen pro Tile schafft man also eben kein Pixel mehr pro Takt - und bei mehr als 64 Polygonen benötigt man wohl mindestens 3 Takte pro Pixel.

Sicher, Tile Based Rendering ist eine sehr gute Sache - aber bei dieser Technik kann es wesentlich öfter zu sogenannten "state changes" im Rasterizer kommen - vor allem beim benutzen eines Pixel Shaders.

Also wartet doch erstmal ab was draus wird :) Die Sache ist einfach noch zu frisch ...

Savant
2001-06-23, 21:24:57
Was du noch vergessen hast der Chip wird dann nicht mehr so ein schnäppchgen sein ! Da der Chip erheblich grösser sein muss da die hälfte bei GeF3 für den Vertexshaeder drauf geht ! Und wenn der Kyro 3 raus kommt gibt es von nvidia schon fast den 4er davon mal ganz zu schweigen wird es aufjeden fall eine PRO eine ULTRA und ein MX geben also wir es Imgtec verdammt schwer haben !

Nero
2001-06-23, 21:51:58
Kann sein das ich (wahrscheinlich) die KyroIII oder RadeonII holen werde aber ich will sagen wartet doch auf die offizele Vorstellung. Ich sage warten, warten, warten.
Und keine Vorschussberren schon geben.

CU
Nero

Leonidas
2001-06-23, 22:28:29
Cool bleiben.


Specs sind die eine Sache, die Performance eine andere. Aus guten Specs sollte man nicht mehr ableiten, was was sie sind - gute Vorzeichen. Deswegen ist die K3 noch lange kein GF3-Killer. Dies hängt letztlich vor allem davon ab, wie ImgTec die K3 positionieren möchte - über oder gleich der GF3. Und so wie man ImgTec kennt, werden die vor allem an die Masse der Käufer denken - und eine Karte mit GF3-Niveau basteln. Die wird schon teuer genug (500-600 DM), ein GF3-Killer würde 1000 DM kosten und das will ImgTec sicher weniger.


Zum Fall GF4: Ganz starkes Abwarten. nVidia wird eine höher getaktete GF3 bringen, um auf die Radeon II zu reagieren, aber eine GF4 sehe ich in weitester Ferne. MS würde es schließlich extrem blöd finden, wenn zum Release ihrer angeblichen State-of-the-Art-Konsole X-Box mit GF3-Chip schon der Nachfolger der GF3 in den PCs steckt. Demzufolge erwarte ich momentan keine GF4 und auch kein DX9. Beides steht extrem konträr zum Ziele von MS, die X-Box durchzusetzen. Und MS ist mächtig genug, seine Interessen auch gegenüber nVidia durchzuboxen, ganz besonders wenn MS einen großen Auftrag bei nVidia laufen hat.

Kai
2001-06-23, 22:35:21
Ehrlich ... nur 1 % von Leo's Durchblick würde mir genügen. Seine Artikel und die News haben die Site meiner Ansicht nach ganz nach oben gehievt.

Savant
2001-06-23, 22:40:00
Achja an die Xbox habe ich ja im moment gar nicht gedacht....

Thowe
2001-06-23, 22:44:08
War die XBox nicht NV25a ?

Bleibt aber noch genügend Raum für Spekulationen.

Für ImgTec ist es bis dahin auch eine Frage wie gut der Treibersupport aussieht, von der "Überkarte" erwartet man ja letzendlich das diese auch überall funktioniert. Das Potential Nvidia zu überrunden traue ich der PoverVR Technologie schon zu.

Die Kyro3 wird aber definitiv allen einen Vorteil bringen, je nach den wie die plaziert wird entweder eine günstige Einstiegskarte in der oberen Riege oder aber billigere Preise für die GF3.

Voodoo3Killer
2001-06-23, 22:57:16
Die Kyro III wird sicher keine Hi End Karte sein, wenn sie dann da ist...

Sowas wolln die gar nicht, Kyros werden auf Preis/Leistung getrimmt...

Kai
2001-06-24, 00:16:42
Die NV25a soll etwas mehr Power haben, allerdings ist das eher zu belächeln wenn man sich die Auflösung an so nem TV mal ansieht :D An die Darstellungsqualität von einem PC wird die Xbox meiner Ansicht nach schwer rankommen.

Vor allem sehe ich den riesen Vorteil der Kyro3 in der Realisierung von DX8 als Standard! Die Spielehersteller werden sicher mehr DX8 Titel produzieren!

Frank
2001-06-24, 00:28:23
@Kai

Was heisst "locker"? Ich gebe zu das dieser Begriff nicht eindeutig ist. - Ja ich hasse auch solche Wörter. Gemeint war wohl aber sowas um die 20-30%. Was natürlich noch kein Grund zum Neukauf wäre. (Der liegt bei mir bei c.a. 100% aufwärts)


..."Welches Spiel wird die denn mal ausnutzen? "...
Warum hast du ne GF 3??? Fehlkauf oder was?

Kai
2001-06-24, 13:00:37
Warum ICH ne GF3 habe? Also, wenn Du das noch nicht mitbekommen hast tut's mir leid. Sicher wird einiges Leistungspotential brach liegen, aber dafür will ich mal behaupten das die Kyro3 in HEUTIGEN Spielen (also alten OpenGL Games usw.) sucken wird!

Die Geforce3 ist die genialste Zwischenlösung für mich. Hammerhart in momentanen Games und sehr gut in kommenden DX8 Games.

Holger
2001-06-24, 13:29:28
@Kai,

warum verteidigst du dich eigentlich mit deiner GF3?
steh doch endlich drüber....

den kalten krieg verursachst du doch selber mit solchen aussagen, aber net bei mir..
finde deine aussage mit den den alten openGL games ehrlich gesagt lächerlich...

und wenn wirklich richtig phette DX8 Games kommen suckt die GF3 gewaltig :hehe:....aber da kaufst du dir ja dann die GF4....

upss.. vorsichtig bitte nicht zu ernst nehmen :)

so long

holger

Leonidas
2001-06-24, 14:07:23
Zur X-Box: Der Chip darin hat als Unterschied zur GF3 den doppelt ausgelegten Vertex Shader. Wenn nVidia dies uns dann auf dem PC als GF4 verkauft - ok, dann habe ich nix gesagt. Nur echte neue Features wird es bei nVidia sobald nicht geben. Man kann schließlich dem Partner MS nicht eine noch höherwertigere PC-Technologie ausgerechnet zum Start der X-Box vorsetzen - dies wäre dem X-Box-Geschäft extrem abträglich.

Aus selbigen Grund erwarte ich auch, das DX9 sehr sehr lange auf sich warten lassen wird. Immerhin ist die X-Box nicht nachrüstbar - und MS will sich ja nicht selber das Wasser abgraben. Letzte Möglichkeit: MS releast ein DX9 passend zur X-Box und verkauft dieses dann als State-of-the-Art. In diesem DX9 sind dann aber nur minimale Änderungen (die Hardware ist ja unverändert!), Spielereien also, das ganze wäre nur ein Marketing-Release, um die X-Box zu puschen. Ein echtes neues DirectX wäre das nicht - und dies ist der springende Punkt. Ganz unabhängig von der Namensgebung - echte neue, großartige Effekte gibt es in DirectX nicht vor Mitte 2002 (wenn überhaupt so früh), dementsprechend gibt es vor diesem Zeitpunkt auch keine technisch überlegenen PC-Beschleuniger (ohne DX-Unterstützung keine Spiele-Unterstützung). Dies ist mit einem Gruß an VIA/S3 versehen, die jetzt schon in internen Roadmaps von einer angeblichen DX9-Unterstützung ihrer meist Billig-Chips sprechen - dabei ist DX9 IMHO noch nicht einmal angedacht.

Thowe
2001-06-24, 15:05:38
Originally posted by Leonidas
Zur X-Box: Der Chip darin hat als Unterschied zur GF3 den doppelt ausgelegten Vertex Shader. Wenn nVidia dies uns dann auf dem PC als GF4 verkauft - ok, dann habe ich nix gesagt.

Genau so sehe ich das aber, wenn Nvidia will werden die uns den als GeForce4 mit höheren Takt und gebugfixt aufs Auge drücken wollen.

Die GF3 wird dann vielleicht zur MX degradiert.

Vorraussetzung ist halt das die Konkurenz passende Produkte plaziert.

Sollte tatsächlich stimmen was Ricardo Gomez in einen Diskutionsbeitrag auf 3dconcept über die Kyro 3 geäussert hat, was ich persönlich aber kaum glauben will, dann würde die Kyro 3 so aussehen:

Zitat: Die Kyro 3 bzw. STG5000, wird nicht nur die gewönliche T&L unterstützen, sondern wird sie 2 frei programierbaren T&L einheiten wie der XBOX im Kern drin haben(GeForce 3 hat nur 1), und neben Vertex Shader, Curved Surfaces, Polynomialen Oberflächen und True Lighting stehen noch die 3D Texturen und STXC unterstützung und noch die IFSAA (Integrated Full Scene Anti Aliasing). Mit dem IFSAA wird die STG5000 beim Spielen 8x/8x antialiasing berechnen können ohne ein alzugrosse frame einbruch. Die STG5000 chip wird das erste chip sein die nicht die gewönlichen supersampling oder Quincunx hat sonder ein im Kern integrierte FSAA einheit mit 6,8Millionen Transistoren. Die STG5000 besitzt insgesammt 78Millionen Transistoren, dass heisst das dieser Chip nicht für die kleine geldbeutel passen wird.

In diesem Fall müsste Nvidia sogar agressiver reagieren, egal was MS davon hält.

Kai
2001-06-24, 16:16:57
Originally posted by Holger
finde deine aussage mit den den alten openGL games ehrlich gesagt lächerlich...


Hä? Was meinst Du denn jetzt? Ich werd doch noch wissen was ich zocke, oder nicht?

Falls Du das mit der Kyro III und OpenGL meinst --> Du wirst es erleben.

Ich verteidige hier im übrigen gar nix. Es regt mich nur immer wieder auf, das --> EGAL wer sich welche Karte kauft, die anderen die Nase drüber rümpfen müssen jeden noch so kleinen Bug hochzupuschen ... nur um dann, falls mal ne bessere Karte rauskommen sollte wieder loszulachen "Wie konntest Du Dir so einen Scheiss andrehen lassen?".

Das manche Leute ZUFRIEDEN mit dem sind, was sie haben, kapieren hier einige scheinbar nicht.

Frank
2001-06-24, 20:15:39
@Kai

Warum hast du ne GF3?? Das hab ich gefragt, weil du bei der Kyro3 die brachliegende Leistung bemängelt hast. Dein Zitat:
..."Welches Spiel wird die denn mal ausnutzen? "...

Welches Spiel nutzt jetzt deine GF3 schon aus??? -> Eigentor.

..."Das manche Leute ZUFRIEDEN mit dem sind, was sie haben, kapieren hier einige scheinbar nicht."...

Also ich hab in meinen Kastenrechnerklotz ne Matrox G400 drin. Und die reicht mir auch. Also ich kapier das schon.

JFZ
2001-06-24, 21:10:12
Originally posted by Killerwahn
Welches Spiel nutzt jetzt deine GF3 schon aus???


Ich denke mal jedes Spiel bei 1280er Auflösung mit 32 Bit und FSAA. Genauso wird auch die Kyro III in der Leistung ausgenutzt werden. Dann schraubt man einfach die Settings höher. 4x FSAA wird dann halt zum Standard, genauso wie höhere Auflösungen, und schon ist ein guter Teil der Mehrleistung weg.

Außerdem sollte man erstmal die finalen Specs abwarten. Die Kyro III wird bestimmt mindestens GF3 niveau erreichen aber es wird dann sicherlich auch eine GF3 Ultra geben. Mal abwarten, wie die sich dann positioniert, das hängt ja schlußendlich auch von den entgültigen Taktraten ab. (ich persönlich tippe aus (RAM-)Preisgründen mal auf 175MHz-200MHz).

@Kai
Wieso meinst du, daß die Kyro 3 in heutigen OpenGL-Spielen so absucken wird ? ???
IMHO werden alle Spiele, die gut auf eine Kyro 2 laufen auch gut auf einer Kyro 3 laufen, ältere Spiele, die auf Kyro 1/2 dagegen schon Probleme haben werden dann auch auf der Kyro 3 Probleme haben, das betrifft aber doch keine der heutigen Spiele und noch weniger die heutigen OpenGL-Spiele generell.

Thowe
2001-06-24, 22:04:25
Originally posted by JFZ
1. @Kai Wieso meinst du, daß die Kyro 3 in heutigen OpenGL-Spielen so absucken wird ? ???

2. IMHO werden alle Spiele, die gut auf eine Kyro 2 laufen auch gut auf einer Kyro 3 laufen, ältere Spiele, die auf Kyro 1/2 dagegen schon Probleme haben werden dann auch auf der Kyro 3 Probleme haben, das betrifft aber doch keine der heutigen Spiele und noch weniger die heutigen OpenGL-Spiele generell.

zu 1. Könnte sein das ich ihn darauf gebracht habe, hatte mal sowas verlauten lassen. Wobei dies nicht bedeutet das ich damit generell meine das das OpenGL der Kyro um längen schlechter als von NVidia ist.

zu 2. Richtig, da ich jetzt seit Dez2000 zur Kyro-Gemeinde gehöre kann ich sehr gut beurteilen wie sauber und gut mitlerweile OpenGL funktioniert.

Das eigentliche Problem sind halt CAD und ähnliche Applikationen wo das Funktionsprinzip der Kyro nicht greifen kann. Hier muss diese ja um vieles mehr leisten als übliche Karten. Da wir hier ja zu 99% von Spielen reden ist das aber fast egal.

Untern Strich gehe ich aber davon aus das in Zukunft das meiste für DX8 entwickelt/programmier wird, allein schon wegen der XBox. Somit hat die Kyro eh kein Problem mit eventuellen Einbussen durch leichte Inkompatibilitäten durch OpenGL.

Da warte ich halt gebannt bis zur Kyro3 erste Infos kann man ja auch Anhand der Naomi2 sich denken.

HOT
2001-06-24, 22:12:34
Wenn das Teil wirklich 78Mio Transistorn hat (was ich im übrigen für nicht besonders unwahrscheinlich halte), dann wird er denk ich mal teurer als der Geforce3 zum Zeitpunkt des Releases des STG5500 sein... und dementsprechend Mehrleistung bieten. Die niedricge Taktfrequenz des 0,18Mikron Chips STG5000 würde übrigens auch dafür sprechen. Für eine solche Karte würde sich dann auch 4 oder 3,5ns DDR-SDRAM lohnen; vielleicht sogar die ATI/ArtX Lösung 1TSRAM! Bei einer theoretischen Leistung von 2500-3500 MTexeln ohne Bandbreitenbeschränkung wäre im übrigen Doppelvertexshader NOTWENDIG um Reibungsloses Rendern zu ermöglichen. Auch eine entsprechend Leistungsfähige T&L Einheit ist dann wirklich notwendig! Das einzige was mich an diese Aussage wirklich stört ist:
1.) Echtes HardwareFSAA ist eine Sache, aber gleich 8x8FSAA halte ich doch für reichlich übertrieben :D
2.) Wenn der Chip in der Form erscheint.... Was soll man da noch besser machen??? Dann hätten wirs über kurz oder lang auf jeden Fall mit einem Monopolisten zu tun!

Also wie auch immer... wenn das Teil erscheint findet es sich in meinem Rechner wieder, soviel ist sicher :D ;D :D

Kai
2001-06-24, 22:39:43
Thowe - Du hast mich zwar drauf gebracht, aber ich hab noch mit jemandem geredet der sich damit mehr als auskennt, da der in der Branche arbeitet :) (Mein Onkel um genau zu sein ...)

Er hat selber eine Kyro2 und ist mit der GL-Leistung noch nicht sehr zufrieden, murmelte etwas davon das ImgTec aufpassen müssen das das mit der Kyro3 und deren Funktionsprinzip nicht noch schlimmer ausgehen wird.

HOT
2001-06-24, 22:52:57
Zitatanfang:

Ich finde über 1000 Mpixel heute einfach noch zu unrealistisch - und in der nächsten Zeit auch erstmal. Welches Spiel wird die denn mal ausnutzen? 1000 Mpixel wären eher ein "Idealfall". Beim Tile Based Rendering der Kyros ist die Füllrate doch abhängig von der Anzahl der Polygone. Bei mehr als 32 Polygonen pro Tile schafft man also eben kein Pixel mehr pro Takt - und bei mehr als 64 Polygonen benötigt man wohl mindestens 3 Takte pro Pixel.

Sicher, Tile Based Rendering ist eine sehr gute Sache - aber bei dieser Technik kann es wesentlich öfter zu sogenannten "state changes" im Rasterizer kommen - vor allem beim benutzen eines Pixel Shaders.

Zitatende

Da hast du definitif was flasch verstanden :D
Dieses Argument wird bei TBR immer angeführt, ist aber nicht rlevant. Du solltest zu diesem Thema die KyroII Review auf www.3dconcept.ch (Seite5/6/7) nachlesen. ram hat das wirklich klasse erklärt :D

Der KyroIII ist dank seiner Speichereffizienz (deferred Texturing & Wegfall des Z-Buffers) wirklich endlich mal dazu in der Lage überhaupt 1000MPixel zu rendern! Mit einem konventionellen Rederer bekommst du das nie hin :D

In Wirklichkeit sind TBR/Deferred Renderer einfach besser als herkömmliche SGI Renderer für Spiele geeignet, da sich die Komplexität der Scene nur im Detailreichtum und damit automatisch auf der Z-Ebene abspielt (steigender Overdraw).
Je mehr kleine Details gezeigt werden, desto mehr andere Details oder Objekte werden davon bedeckt. Gerade bei Vertexshadern ist dies vorteilhaft, da man eben flexibler arbeiten kann als mit bisherigen Methoden. Für den Professionellen Bereich jedoch ist eine TBR Lösung nicht geeignet, hier hat ja auch SGI Rendern ihren Ursprung und ist auch eigentlich nur hierfür entwickelt worden.
TBR hat sich PowerVR eben ausschliesslich für Spiele und ähnliche interaktive 3D Anwendungen einfallen lassen; der Professionelle Bereich war niemals Zielgebiet der Engländer :D
Das heisst natürlich nicht, dass man in Spielen zukünftig den Overdraw ignorieren kann, denn T&L oder die CPU wissen ja nicht, welches gerenderte Polygon vorne liegt und haben deshalb auch nur eine sehr beschränkte Leistung.

StefanV
2001-06-24, 23:20:19
Wenn ich das richtig verstanden habe, dann hat die Kyro III eine extra einheit, die den 'Anti Aliased' wert OHNE Speicherzugriff 'berechnet'...

Thowe
2001-06-24, 23:42:48
Originally posted by HOT
0.) Wenn das Teil wirklich 78Mio Transistorn hat (was ich im übrigen für nicht besonders unwahrscheinlich halte), dann wird er denk ich mal teurer als der Geforce3 zum Zeitpunkt des Releases des STG5500 sein... und dementsprechend Mehrleistung bieten.


1.) Echtes HardwareFSAA ist eine Sache, aber gleich 8x8FSAA halte ich doch für reichlich übertrieben :D
2.) Wenn der Chip in der Form erscheint.... Was soll man da noch besser machen??? Dann hätten wirs über kurz oder lang auf jeden Fall mit einem Monopolisten zu tun!


zu 0. Denke genau das ist abhängig davon wie weit der Kyro II bzw. II Ultra den Markt vorbereiten können und somit Geldreserven bei ImgTec/ST vorhanden sind. Zutrauen würde ich denen das schon. Entweder wird es was in der Richtung oder halt etwas kleiner, je nach den was der Markt hergibt.

zu 1. Denke das lässt sich schon hinbekommen, könnte auch sein das die etwas machen was wie echtes 8x8 aussehen mag. Das gibt doch Raum für Spekulationen?!

zu 2. Da hat Nvidia bis dahin denke auch den Weg weg von BrutoForce gefunden und setzt auf intelligente Technologie. Nach eigenen Angaben entwickeln die ja schon an der nächsten und übernächsten Karte.

Denke "only time would tell" aber, und das ist die Kernaussage die ich treffen möchte, die haben das Zeug dazu etwas in der Richtung uns zu bescherren.

Auf jeden Fall ist das der Weg das wir bald Spiele in Qualität und hoher Geschwindigkeit spielen können mit völlig neuer Realitätsnähe.

Holger
2001-06-25, 08:52:13
ich denke dass thema ogl hat thowe eigentlich ganz gut abgehandelt.

die kyro III wird keinesfall in preisregionen über 600dm kommen.
imgTec hat ganz klare vorgaben und ein budget dass ihnen zur verfügung steht für die entwicklung des chips.
leider..:)


grosser vorteil ist natürlich dass man nicht auf allzu teuren speicher setzen muss und ddr-ram mittlerweilen in der leistungsklasse von 250MHz sehr günstig ist und bis zum erscheinen der kyro III kaum mehr zu buche schlägt.

Kai
2001-06-28, 10:12:56
Seht ihr? Jetzt wurde erstmal die Hälfte der Features wieder dementiert. Daher streite ich mich ungerne über unklare Spezifikationen. Als die GF3 angekündigt wurde hab ich da auch noch kein Wort von geglaubt ...

Wolfmann
2001-06-28, 13:09:40
Hi Also nur weil ein Hersteller schreibt das seine Karte 1*10^9 (HAUSNUMMER!!!) Polygone berechnen kann, heißt das noch lange nicht das diese Leistung erreicht wird.

Warum ?
Da sich die Angaben aufs Auswerten sogenannter TriangleStrips (oder QuadStrips) Bezieht, das heißt die Polygone kommen in einem "Stream". Das wird allerdings nur in den seltesten Fällen erreicht (Einfach sehr kompliziert) zu Programmieren.

Ich verwende übrigens eine Geforce 2MX und bin überaus zufrieden damit (Mein Traum wär allerdings eine Intense3D Wildcat 5110) :-))

machts gut

Wolfmann

Unregistered
2001-06-28, 14:18:48
Hallo Jungs, mal ganz im Ernst...
Ist es nicht völlig egal, was für eine Karte, mit wieviel PS und welchem Spoiler wer in der Zukunft rausbringt.
Und wie man die dann aufbohren kann und frisieren, damit man noch ein paar Km/h schneller damit auf der Polygonrennstrecke fahren kann...
Ich habe mir gerade eine V5 5500 geholt - für läppische 200 Eier.
Und bevor ich nun zu hören bekomme (bla, bla, aber die Unreal Engine etc.pp... das ist doch alles auf dem absteigenden Ast und so weiter...) die Karte sei doch der letzte Dreck und ich solle mal sehen, wie ich da mit DX8 Spielen zurechtkomme...
Erstens macht es die V5 dank dem nun in manchen Spielen bereits funktionierendes HSR (bsp. Q3A, schaut nur mal bei www.x3dfx.com) und der hohen Füllrate schon noch ein Weilchen und dann ist es doch einfach so, daß all diese neuen Technologien immer bereits nach einem halben oder einem Jahr ziemlich billig werden.
Und dann hat die V5 natürlich das nachweislich schönere Bild (da viele Geforces eben von irgendwelchen Billig-Anbietern mit Drecksfiltern und so versehen werden).
Und wenn es einem nicht - wie es hier bei einigen Leuten den Anschein hat - um pures Prestige ginge (eben wie bei Autos auch!!!), würde es hier nicht so viele geben, die rumtönen, was sie nicht für eine tolle Grafikkarte mit der neuesten Engine hätten... Sei es nun Geforce, Kyro oder Radeon...
Und auch wenn Kai sich hier selbst mit seiner Geforce3 etwas zu sehr brüstet. Er hat immerhin in einem recht: Das ewige Geneide und Angeben hier ist doch nicht wirklich Sinn eines sochen Forums.
Ich dachte eigentlich, es ginge darum, Fragen zu stellen und hilfreiche Antworten zu bekommen. Oder täusche ich mich da?
Klärt mich doch mal auf :)
Gruß,
Bakunin3

HOT
2001-06-28, 14:23:34
Da hat sich bei Imagetech wohl jemand verplappert ;) Na ja, seis drum, warten wir auf die offizielle Vorstellung Ende des Jahres :D bin mal gespannt was das Teil in Wirklichkeit leistet.
@Wolfmann
das schöne an NVs T&L Strategie ist, dass sich recht schnelle OpenGL Beschleuniger (Geforce2 MX bzw. umgebaut zu Quadro 2MXR) für unter 300 Eier zu haben sind ;) Bei der Entwicklung/Einsatz von OpenGL basierten mehr oder weniger professionellen Anwendungen sind die NV Karten hervorragend zu gebrachen. Aber zugegebenermassen ist hier die 3DLabs Wildcat 5110 das Mass aller Dinge. Kostet ja auch nett Knete ;D .... etwa 50-100 mal mehr als ne MX???

Wolfmann
2001-06-28, 15:22:04
Stimmt !
Fürs Low End Entwickeln von OpenGL basierten Programmen gibts wirklich nix besseres als die "kleinen" Geforce2MX

Wenn man so ab und zu ein kleines OGL Programm schreibt ist eine Geforce wirklich sehr fein

ach ich liebe meine Geforce :-))

(Auch wenn sie unter Win2K am Anfang nur Zoff gemacht hat, ich nehm an wegen dem ALI-V )

Frank
2001-06-28, 18:19:47
@Bakunin3
*aufdieschulterklopf*

Unregistered
2001-07-01, 14:06:04
bevor man eine kyro3 baut sollte man erst mal ne
anständige kyro2 herstellen !

Voodoo3Killer
2001-07-01, 15:01:00
Originally posted by Unregistered

bevor man eine kyro3 baut sollte man erst mal ne
anständige kyro2 herstellen !


...in wie fern ist die Kyro II denn unanständig?!?

Bitte bringe doch einmal ein paar stichhaltige Argumente vor...

Frank
2001-07-01, 17:42:03
wahrscheinlich meint er die fehlende T&L Einheit.

Fragt sich bloß, ob die jemand vermissen würde?

StefanV
2001-07-01, 17:48:36
Originally posted by Killerwahn
wahrscheinlich meint er die fehlende T&L Einheit.

Fragt sich bloß, ob die jemand vermissen würde?

Ich hab sie vermisst...

Bei meinem Intel Pentium (ohne MMX)@150MHz...

Und auch noch bei meinem K6-2/400...

Da hätte ich soetwas gebrauchen können :D...