Archiv verlassen und diese Seite im Standarddesign anzeigen : PowerVR Series5
robbitop
2004-05-26, 16:49:36
Geld kann man verdienen aber R & D nicht.
Wie oft noch, das ist kein fabless IHV, sondern eine reine IP Firma. Somit trägt man kein großes Risiko kann sich aber auch keine so großen Sprünge leisten.
Und eine Umstellung auf einen fabless IHV und ein gewaltiges Wachstum wäre dazu nötig, um DAUERHAFT mithalten zu können. Und da der Markt so gesättigt ist, sollte das doch sehr unwahrscheinlich sein.
Aber man wird ja noch träumen dürfen...
Original geschrieben von robbitop
ich würde mich diesbezüglich nicht so weit aus dem Fenster lehnen. Wir haben seit Jahre nichts von PVR gehört. Und Ressourcen hätten sie auch nicht genug in einem ständigen Kampf mit NV/ATi. Sie verkaufen eben IP.
Im Gegenteil. PowerVR macht ja nichts anderes als Grafikdesigns zu entwickeln. Sie bringen den Evolutionsprozess ihrer effizienteren Technologie weiter vorran (zugegebenermassen mit grösseren Entwicklungszeiträumen, dafür aber auch mit mehr Power, da sie ja das effizientere Grunddesign haben). ATI und NV (NV mehr als ATI) sind schon lange an dem Punkt angekommen, ab dem man unbedingt den besten Fertigungsprozess haben muss um IMRs effektiv zu beschleunigen. Am Speicher hakt es dann noch zusätzlich (Da hat PowerVR zum Beispiel schonmal weit weniger Probleme mit). Es ist zwar doll, dass ATI und NV ach so viel Entwicklungsressourcen haben, aber die brauchen sie auch, um ihre IMRs zu verbessern, da geht nämlich bei jetziger Fertigungstechnik (sowohl GPU als auch RAM) nicht mehr viel. PowerVR hatte noch nie das Problem! Hier hängen nämlich ATI und NV viel früher fest, da sie zwar eine IMR Evolution hinter sich haben und eben nicht so schnell mal eben wechsln können auf ein effizienteres Design.
3dfx hatte das ja vor mit dem Fear, aber daraufs wurde ja leider nichts.
ATI und NV müssen wohl im Moment weitaus mehr Ressourcen aufwenden, um sehr grosse und damit teure Chips im perfekten Fertigungsprozess zu produzieren!
Ich würde es nicht unterschätzen, dass NV und ATI am Fertigungslimit arbeiten müssen, da ich mir sicher bin dass PowerVR das eben nicht muss.
Ob uns das jetzt auf dem PC Markt hilft, kann man schlcht abschätzen, aber in anderen Märkten ist PowerVR so ziemlich die beste Designschmiede.
ice cool69
2004-05-26, 17:07:36
Sollte ein Hersteller das Risiko nicht scheuen mit PVR eine High-End Karte auf den Markt zu werfen und sollte dieser ein Erfolg werden dann kannst du dir sicher sein dass wir regelmäßig Produkte von PVR sehen werden und zwar bessere als von ATI und NV!!!
robbitop
2004-05-26, 17:15:44
Heutige IMRs sind keine IMRs mehr wie vor ein paar Jahren. Durch immer komplexer werdendes Z Culling, einen Speichercontroller ist es eher ein Zwischending. Und die modernen Pixelshader sind für einen TBDR kein so schönes Terrain mehr wie damals zu DX6/7 Zeiten.
Von damaliger Hardware auf heutige zu schliessen ist imo sehr gewagt. Ich bin gern bereit mich eines Besseren belehren zu lassen, aber meine Skepsis habe ich dennoch.
Die Effizienz sollte nicht mehr soweit auseinander liegen wie damals.
ice cool69
2004-05-26, 17:23:48
Trotzdem scheinen weder ATI noch NV in der Lage zu sein auf TBR umzusteigen.
Dass das ganze auch mit Shadern funktioniert ist Fakt da auch die Series5 über S3.0 verfügt.
Ich denke PVR kann bessere Chips designen weil sie nichts anderes machen, ATI/NV müssen sich um viele andere Dinge kümmern.
ActionNews
2004-05-26, 17:25:25
@robbitop:
Da unterstellst du aber PowerVR, dass sie keinerlei (bzw kaum) Verbesserungen an ihrer Technologie gemacht haben. Sicher haben ATI und Nvidia Fortschritte gemacht, aber ich denke nicht, dass PowerVR geschlafen hat.
CU ActionNews
ice cool69
2004-05-26, 17:26:50
Im Gegenteil, ich behaupte dass PVR mit der S5 deutlich größere Schritte gemacht hat als NV/ATI mit ihren Chips. ;)
robbitop
2004-05-26, 17:47:44
Original geschrieben von ActionNews
@robbitop:
Da unterstellst du aber PowerVR, dass sie keinerlei (bzw kaum) Verbesserungen an ihrer Technologie gemacht haben. Sicher haben ATI und Nvidia Fortschritte gemacht, aber ich denke nicht, dass PowerVR geschlafen hat.
CU ActionNews
das habe ich nicht SO gesagt.
Ich wollte nur betonen, dass IMRs nicht mehr so hinterherhinken.
robbitop
2004-05-26, 18:51:41
in Punkto effizienz nicht in Punkto absoluter Performance.
IMO haben sie es zu DX7 Zeiten eindeutig bewiesen.
Mit 1/2 der Transistoren, der Bandbreiteun der Füllrate und keiner TnL Unit konnte man gegen die GF2GTS gut bestehen, den damalig schnellsten IMR.
Die NV11 hatte sehr ähnliche Specs wie die Kyro2 auch vom Takt und wurde versägt.
Aber seit PS/VS könnte das anders sein, ich habe mal gehört, dass gewisse Sachen dem TBDR nicht schmecken sollen und bei First Z Pass Sachen bringt ein TBDR sowieso nichts mehr. Sicher gibts da noch den Fortschritt. Aber heutzutage müssen sie sich wieder beweisen und das wird aufgrund der Komplexität von R420/NV40 recht schwer werden.
ActionNews
2004-05-26, 19:15:00
Original geschrieben von ow
Genau so sehe ich das auch. Während NV und ATi in den letzten Jahren ihre Effizienz immer steigern konnten geht dies bei einem TBDR nicht. Mehr Pixel als alle nicht sichtbaren weglassen (nicht zu berechnen) geht nunmal nicht.
Naja aber man könnte den Algorithmus vielleicht schneller/effektiver machen z.B. Viele Dinge können bei einem TBDR in Caches gemacht werden. Da wären da auch Vorteile auf anderen Gebieten wie MSAA. Und einige Optimierungen die Nvidia/Ati gemacht haben kann auch PowerVR machen, wie z.B. den unterteilten Speichercontoller. Und wer weiss was noch alles möglich ist bei einem TBDR.
Aber warum streiten wir uns darüber eigentlich ;)? Warten wir es doch ab, was die Serie 5 leisten kann :). Dann wissen wir es genau ... und wer Recht behalten hat ;).
CU ActionNews
robbitop
2004-05-26, 19:37:45
da bin ich auch mal gespannt ich lasse mich wirklich gern eines Besseren belehren aber vorerst bin ich ein wenig skeptisch.
@ow
schön dass wir einer Meinung sind =)
loewe
2004-05-26, 19:41:25
Original geschrieben von ow
Ich und robbitop ...
tschuldigung, total OT
Genau so habe ich mir ow immer vorgestellt. :-(
loewe
2004-05-26, 19:52:55
Original geschrieben von robbitop
Und eine Umstellung auf einen fabless IHV und ein gewaltiges Wachstum wäre dazu nötig, um DAUERHAFT mithalten zu können. Und da der Markt so gesättigt ist, sollte das doch sehr unwahrscheinlich sein.
Die Frage ist doch erst einmal was sie wollen?
Ich denke nicht, dass imgtec grundsätzlich ihr Geschäftsmodell umstellen will und wird. Für sie ist die Sache recht erfolgreich und diesen Kampf zwischen NV und ATI kann sowieso keiner Gewinnen.
Sie versuchen ihre Technologie in so vielen Märkten wie möglich an den mann zu bringen, außer im PC Bereich ist das bisher wohl auch ganz gut gelungen. Wenn ich an die Probleme mit Neon und Dreamcast denke, dort haben sie doch PC geopfert weil mit der Konsole mehr Geld zu verdienen war. Das ist ein Geschäft, ob es uns freut oder nicht ist dabei egal.
Was ist dauerhaft?
Sicher wird PowerVR nicht alle 6 Monate ein neues Design entwickeln können. Aber alle zwei Jahre eine Serie, das ist drin! Und denkt nicht das man den Aufwand von ATI und NV haben muss, es geht auch sehr viel billiger und das hat nichts mit dem Ergebnis zu tun.
loewe
2004-05-26, 20:02:21
Original geschrieben von HOT
ATI und NV (NV mehr als ATI) sind schon lange an dem Punkt angekommen, ab dem man unbedingt den besten Fertigungsprozess haben muss um IMRs effektiv zu beschleunigen. Am Speicher hakt es dann noch zusätzlich (Da hat PowerVR zum Beispiel schonmal weit weniger Probleme mit).
Wollen wir mal realistisch bleiben.
Sicher ist der Bandbreitenbedarf von PowerVR weit geringer, aber es kommen ja z.b. gerade hier zwei Probleme dazu die auch erst einmal gelöst sein wollen:
Binningspace und binning bandbreite.
Beides ist gelöst und PowerVR kann heute beliebig große Szenen verwalten ohne Bandbreitenprobleme zu bekommen, sollte aber nicht unterschätzt werden.
Original geschrieben von HOT
ATI und NV müssen wohl im Moment weitaus mehr Ressourcen aufwenden, um sehr grosse und damit teure Chips im perfekten Fertigungsprozess zu produzieren!
Ich würde es nicht unterschätzen, dass NV und ATI am Fertigungslimit arbeiten müssen, da ich mir sicher bin dass PowerVR das eben nicht muss.
Das Limit wird sicher nicht erreicht, aber ein Serie 5 Chip ist nicht mehr klein. Auch die Logik des TBDR braucht eine Unmenge Transistoren und dazu kommen die Shader, Shader sind nicht billig zu bekommen. Nicht umsonst verzichten einige Firmen auf ganze Teile und lassen das die CPU erledigen, womit dann natürlich die Geschwindigkeit im Keller ist.
Sicher wird S5 kein Monster wie GF6800, aber klein sicher nicht!
robbitop
2004-05-26, 20:02:28
full Ack loewe
loewe
2004-05-26, 20:14:29
Original geschrieben von robbitop
Aber seit PS/VS könnte das anders sein, ich habe mal gehört, dass gewisse Sachen dem TBDR nicht schmecken sollen und bei First Z Pass Sachen bringt ein TBDR sowieso nichts mehr. Sicher gibts da noch den Fortschritt. Aber heutzutage müssen sie sich wieder beweisen und das wird aufgrund der Komplexität von R420/NV40 recht schwer werden.
Man muss schon ordentliche Shader konstruieren, wenn man will das sie auch ordnetlich funtkionieren. :)
Mit dem "nicht schmecken" bezieht man sich zumeist auf die alten Serie 3 Chips, aber es ist doch völlig normal das einem Chip gewisse Sachen nicht schmecken, gilt für alle! :D
PowerVR hatte damit ein Problem, weil kaum ein Gamedesigner rücksicht auf solche Nischenprodukte nimmt. Für IMRs wird natürlich kräftig optimiert.
Also gerade bei first Z pass erwarte ich ganz ordentliche Vorteile, können wir ja bald sehen an Doom3. :)
Mit NV40 und R420 haben beide für ihre Möglichkeiten eine ganz ordentliche Vorlage geboten, da wird man sich messen lassen müssen.
loewe
2004-05-26, 20:22:13
Original geschrieben von ow
In neueren Games (mehr Polygone) versägen die Kyros übrigens keine GFs mehr. Hab das hier ausgiebig mit Kyro1 und GF2MX getestet. Der Kyro2 dürfte hier gerade noch NV11 Niveau erreichen.
KYRO verhält sich bei zu vielen Polygonen wie ein IMR mit der Füllrate von KYRO. :)
Original geschrieben von ow
Da es bislang keinen TBDR > DX6/7 gab würde ich mal nicht automatisch davon ausgehen, dass das Effizienz-Verhältnis noch wie zu eben jenen Zeiten ist.
Werden wir ja bald sehen können. :)
Darkstar
2004-05-26, 20:23:24
Original geschrieben von Thowe
Aber ich habe die ultimative Antwort, 2002 war ein Schaltjahr und somit funktionierte die Donnerstag-Theorie nicht. Große Verschwörung, eine wirklich riesige Verschwörung. Willst Du nach den julianischen und gregorianischen Kalendern jetzt den thoweschen™ einführen? :lolaway: Einen zusätzlichen Tag unentgeldlich zu arbeiten, halte ich allerdings für nicht akzeptabel. :nono:
Zu Serie 5:
Egal was in den nächsten Wochen von PowerVR für PCs präsentiert wird (wenn überhaupt), kaufbare Hardware gibt’s dann sowieso erst im nächsten Jahr. Das war immer so und wird auch immer so bleiben. Basta! :bäh2:
robbitop
2004-05-26, 20:24:52
@loewe
wegen der hohen Stencilfüllrate oder worauf spielst du an?
loewe
2004-05-26, 20:37:12
Original geschrieben von robbitop
@loewe
wegen der hohen Stencilfüllrate oder worauf spielst du an?
Ja das ist ein Aspekt.
Original geschrieben von loewe
Wollen wir mal realistisch bleiben.
Sicher ist der Bandbreitenbedarf von PowerVR weit geringer, aber es kommen ja z.b. gerade hier zwei Probleme dazu die auch erst einmal gelöst sein wollen:
Binningspace und binning bandbreite.
Beides ist gelöst und PowerVR kann heute beliebig große Szenen verwalten ohne Bandbreitenprobleme zu bekommen, sollte aber nicht unterschätzt werden.
Das Limit wird sicher nicht erreicht, aber ein Serie 5 Chip ist nicht mehr klein. Auch die Logik des TBDR braucht eine Unmenge Transistoren und dazu kommen die Shader, Shader sind nicht billig zu bekommen. Nicht umsonst verzichten einige Firmen auf ganze Teile und lassen das die CPU erledigen, womit dann natürlich die Geschwindigkeit im Keller ist.
Sicher wird S5 kein Monster wie GF6800, aber klein sicher nicht!
Dazu ist wohl nicht hinzuzufügen ;)
Original geschrieben von robbitop
@loewe
wegen der hohen Stencilfüllrate oder worauf spielst du an?
Na ja, schon der Kyro war darin gut, weil beim Kyro keine Bandbreitenbeschränkung dahingehend besteht. (oder bin ich da jetzt auf dem Holzweg?)
robbitop
2004-05-26, 23:05:23
nein
TBDRs sind einfach besonders gut in Sachen Stencilfüllrate.
Was meinst du warum sie Fablemark programmiert haben? ;)
Entarger
2004-05-27, 00:01:03
Also je mehr ich lese, glaube ich langsam, das PowerVR den Chip bremsen muß um ATI und NV nicht vom Markt zu drängen!
Ich denke da nur an FSAA4free und jetzt sagt Loewe noch, das PowerVR in der Lage ist beliebig große Szenen zu verwalten ohne Bandbreitenprobleme zu bekommen!
Original geschrieben von Entarger
Also je mehr ich lese, glaube ich langsam, das PowerVR den Chip bremsen muß um ATI und NV nicht vom Markt zu drängen!
Der war gut, und dann steht in den Mindestanforderungen: 2 PC's für eine Karte, damit die anderen auch eine Chance haben.
Ailuros
2004-05-27, 08:35:04
Original geschrieben von robbitop
Heutige IMRs sind keine IMRs mehr wie vor ein paar Jahren. Durch immer komplexer werdendes Z Culling, einen Speichercontroller ist es eher ein Zwischending. Und die modernen Pixelshader sind für einen TBDR kein so schönes Terrain mehr wie damals zu DX6/7 Zeiten.
Von damaliger Hardware auf heutige zu schliessen ist imo sehr gewagt. Ich bin gern bereit mich eines Besseren belehren zu lassen, aber meine Skepsis habe ich dennoch.
Die Effizienz sollte nicht mehr soweit auseinander liegen wie damals.
Erstmal hatte KYRO kein absolut ideales Terrain mit dx7, da Applikationen auch nicht wirklich fuer T&L optimiert waren damals. Sobald cube maps und T&L optimierter code erschien in Spielen hatte S3 so manche Probleme. Dieses passierte aber auch mehr als 1-1.5 Jahre nach der K2 Vorstellung. Das fuer mich K2 eine bloede Idee war wenn ich bedenke dass der originale K3@166MHz storniert wurde schon damals hab ich ja schon oefters gesagt und das ist ein ganz anderes Kapitel.
Was jetzt Shader betrifft, kann man tatsaechlich nicht viel sagen da es seit DX6+/Serie3 gar nichts mehr gab. Aber der Shader Kaugummi ist in etwa gleich mit dem damaligen T&L+TBDR Kaugummi; PVR muss natuerlich das Gegenteil beweisen muessen.
Zwischending? Natuerlich ist es eine unrealistische Uebertreibung aber wie klingt das hier?
Let me do an obvious one for you, where exactly do think an IMR would put the memory for 64bpp (HDR) 1024x768 64x FSAA'd image?
64x sample Supersampling for the record; JohnH at B3D.
IMRs haben selbstverstaendlich ihre Nachteile um einiges verbessert, aber woher willst Du genau wissen dass TBDRs ohne Vorteile noch heute sind und dass die bisher bekannten und/oder erwaehnten Nachteile nicht beseitigt wurden?
Vertex bandwidth ist wohl noch ein ganz grosses Fragezeichen und shader task switching eventuell, aber dafuer muesste man noch Geduld haben um zu sehen wie es da aussieht. Parameter bandwidth kann also ein Problem sein oder auch nicht, binning space auf jeden Fall nicht zu dem Grad wo es meistens praesentiert wird; ueberhaupt wenn ein heutiger IMR immer noch >100MB buffer consumption hat in hohen Aufloesungen mit 6xMSAA. Selbst wenn ich 10% von einem 256MB board dafuer abrechne, ist das Verhaeltnis immer noch 4:1.
Wenn am Ende genauso viel rauskommt mit den Spezifikationen des S5 wie bei konkurrierenden Loesungen, dann heisst es auf jeden Fall nicht dass TBDR im klaren Nachteil liegt im Durchschnitt.
Ailuros
2004-05-27, 08:43:46
Original geschrieben von robbitop
nein
TBDRs sind einfach besonders gut in Sachen Stencilfüllrate.
Was meinst du warum sie Fablemark programmiert haben? ;)
TBDRs haben auch meistens mehr Z/stencil units pro pipe. Mehr Stencil Fuell-rate =! mehr Leistung um jeden Preis.
Wichtiger ist hier dass die Stencil Fuell-raten von den Pixel Fuell-raten (auch pixel shader) unabhaengig sind; dabei muss man aber auch heutzutage auch noch MSAA+stencil mitberechnen.
Was ich hier sagen will, ist dass man mehr Faktoren mitberechnen muss und dabei ist es nicht unmoeglich dass man aehnliche Leistung bekommen koennte, selbst mit hoeherer Stencil-Fuellrate.
Ailuros
2004-05-27, 08:51:27
Original geschrieben von Entarger
Also je mehr ich lese, glaube ich langsam, das PowerVR den Chip bremsen muß um ATI und NV nicht vom Markt zu drängen!
Ich denke da nur an FSAA4free und jetzt sagt Loewe noch, das PowerVR in der Lage ist beliebig große Szenen zu verwalten ohne Bandbreitenprobleme zu bekommen!
Dann interpretierst Du entweder Sachen falsch oder manche druecken sich falsch aus so dass es zu Missverstaendnissen kommt.
Wie waere es mit einer Alternative? Vor- und Nachteile koennte man sowieso nur nach unabhaengigen Tests/Analysen nach einer Veroeffentlichung markieren.
FSAA4free wurde bis jetzt nur fuer MBX als feature vermarktet; damit wird entweder 2xSSAA oder MSAA gemeint bei mobilen Aufloesungen.
TBDRs haben tatsaechlich minimale Kosten was Fuellrate und Bandbreite betrifft mit MSAA und brauchen auch einen um einiges kleineres memory footprint fuer viele samples pro pixel. Supersampling ist nur Bandbreiten-"frei" in dem Fall, aber ist wohl wie verstaendlich eine Resource Verschwendung.
robbitop
2004-05-27, 09:38:35
naja warten wir doch einfach ab.
und bitte AiL Abkürzungen etwas reduzieren..ich weisss was du mit denen meinst, aber andere User vieleicht nicht :)
robbitop
2004-05-27, 10:53:40
der Esel nennt sich immer zuletzt :D
(Sprichwort -> Höflichkeit)
Ailuros
2004-05-27, 15:07:09
Original geschrieben von ow
:D
So schlimm wird es schon nicht werden. Beliebig grosse Szenen kannn uebrigens jeder IMR verwalten ohne da Probleme zu bekommen.
Das nenne ich im englischen vast generalisation:
http://www.anandtech.com/video/showdoc.html?i=1647&p=5
Dazu zaehlt Parhelia wohl auch dazu oder?
The resulting test we came up with was a large room that was tiled with three 2Kx2K textures, uncompressed, across the height and length of all of the walls. The end result wasn't a pretty level at all, but it was perfect for stressing the memory subsystem of the cards. We couldn't run this test on all of the cards, as those with only two rendering pipelines (and two texture units per pipeline) or less than 64MB of memory wouldn't either complete the test or would swap to main memory entirely too much.
So schlimm ist es nun auch wieder nicht. Das trifft nur zu wenn man Dinge im Wireframe Modus rendert.
Gilt genauso fuer GF2 MX, mit Aussnahme von puren T&L optimierten Spielen wo die T&L Einheit dann schon einiges der CPU abnimmt aber mit mehr als 800*600*16 ist da auch nicht drin; zeigt uebrigens das Weiterblattern im obrigen Link genauso (nur medium detail Vergleiche). Henker nichtmal Q3a war wirklich spielbar auf einer GF2MX in 1024*768*32bpp.
ice cool69
2004-05-27, 18:12:27
Auf jeden Fall habe ich herausgehört dass die S5 weniger Transistoren haben wird als der NV40, was ja auch nicht weiter verwunderlich ist.
Ich halte es so: Ich hoffe das Beste und erwarte das Schlimmste.
ActionNews
2004-05-27, 20:17:21
Original geschrieben von Ailuros
Das nenne ich im englischen vast generalisation:
http://www.anandtech.com/video/showdoc.html?i=1647&p=5
Interessant ist ja, dass im T&L-optimierten UT2003 der KyroII eine Geforce2 Ultra schlägt :freak: ! Zumindest bei hohen Details wenn ich das soweit richtig gesehen habe.
CU ActionNews
Ailuros
2004-05-27, 23:32:19
Wo ist das Problem? Ich seh es nicht.
Wenn Du immer noch denkst dass Parhelia ein Geometrie-Wunder ist mit der Bandbreite dass das Ding traegt, dann weiss ich auch nicht mehr weiter. Du sagtest "jeder" IMR und nein nicht jeder IMR ist ohne Probleme wenn es zu Geometrie kommt. Das naechste nette Beispiel ist dann NV30; noch ein "Geometrie-Wunder".
Doch Q3A laesst sich auf der MX in diese Einstellungen ganz gut spielen. Ich weiss das aus eigener Erfahrung. 1024/16 oder 800/32 sind natuerlich schneller.
Spielbarkeit ist offensichtlich subjektiv. Ich weiss aus eigener Erfahrung dass eine GTS (sogar uebertaktet) besser geeignet war damals fuer das spezifische Spiel.
Interessant ist ja, dass im T&L-optimierten UT2003 der KyroII eine Geforce2 Ultra schlägt ! Zumindest bei hohen Details wenn ich das soweit richtig gesehen habe.
a. Flybys
b. K2 laeuft die Tests nicht mit den gleichen Details wie GF2 U.
Es wird zwar unter anderem in den flybys tonnenweise polies angewendet, aber die Resultate sind nicht ausschlaggebend fuer die finale Spiel-leistung. Und es war kein Zufall dass ich mit Absicht nur auf die medium detail Resultate deutete.
Im Vergleich zu einer GF2MX200 scheint die K2 offensichtlich keine Probleme zu haben was Geometrie betrifft. Probleme hat die letztere in real-time Spielsituationen wenn die CPU dann auch noch mit bots oder waren Spielern ueberlastet wird und dabei hilft die T&L Einheit der GF2MX umso einiges in mittleren Aufloesungen.
ice cool69
2004-05-28, 00:13:18
Mit einer starken CPU an der Seite ist die Kyro2 jedoch stärker als eine Geforce2GTS.
Das Problem war unter anderem auch dass alles für Geforce optimiert wurde, diesen Luxus erfuhr die Kyro2 leider nicht.
Ailuros
2004-05-28, 00:38:35
Original geschrieben von ice cool69
Mit einer starken CPU an der Seite ist die Kyro2 jedoch stärker als eine Geforce2GTS.
Das Problem war unter anderem auch dass alles für Geforce optimiert wurde, diesen Luxus erfuhr die Kyro2 leider nicht.
Nur stellenweise und unter Bedingungen (FSAA als Beispiel).
Sobald aber cube maps und T&L optimierter code in Spielen eingesetzt wurde war es aus damit und das hat gar nichts mit Konspirations-theorien, hypothetischen Optimierungen oder jeglichen Firlefanz zu tun.
KYRO2 haette eine T&L Einheit tragen sollen um sich auch laengere Kompatibilitaet zu garantieren; oder noch besser die originale KYRO3@166MHz (STG5000) haette man nie stornieren sollen fuer die KYRO2.
K2 war ein value accelerator und war als GF2 MX Konkurrenz gedacht.
ice cool69
2004-05-28, 00:44:13
Absolut, das Ziel war es konkurrenzfähig zu sein mit möglichst billiger Hardware.
Das ist ja auch beeindruckend gelungen (Auf den GF2MX-Chips war teures DDR SDRAM verbaut, auf der Kyro2 billiges SDRAM), die Kyro2 war wohl sehr billig herzustellen.
Um jedoch ernsthaft den Markt aufzumischen darf es nicht das Ziel sein möglichst billig zu produzieren, man muss mehr auf die BENCHMARKGEWINNENKOSTEESWASESWOLLE-Mentalität aufspringen.
Dazu sind halt teurere HighEnd-Chips vonnöten.
Ailuros
2004-05-28, 00:53:53
Nur so nebenbei aber nicht alle GF2 MX-en hatten DDR.
ice cool69
2004-05-28, 01:02:56
Doch, es gab lediglich welche mit halbiertem Speicherinterface (64bit), diese waren jedoch sehr leistungsschwach und zum Spielen nicht wirklich zu gebrauchen.
Ailuros
2004-05-28, 01:12:25
Ich bin jetzt zu faul den uralten Kram wieder auszugraben, und es ist auch wirklich nicht mehr wichig.
Wichtiger ist dass ST wohl empfand dass das Preis/Leistungsverhaeltnis einer KYRO2@166MHz (ja die 9MHz mehr wurden in letzter Minute entschlossen) besser war als bei einer KYRO3@166MHz (4 pipes, DDR, T&L) was extrem kurzsichtig war. Natuerlich haette die letztere sich um die 200-250$ Grenze bewegt, aber dafuer waere sie auch zweimal schneller als KYRO2 gewesen und haette auch viel laengere und bessere Kompatibilitaet mit Spielen garantiert. Dass dieser ueber MSAA und schnelles AF faehig war ist auch nur so eine Nebensache.
Im Vergleich zu dem war die K2 eine aeusserst naive und kurzsichtige Idee.
ilPatrino
2004-05-28, 01:14:10
Original geschrieben von ice cool69
Doch, es gab lediglich welche mit halbiertem Speicherinterface (64bit), diese waren jedoch sehr leistungsschwach und zum Spielen nicht wirklich zu gebrauchen.
64 bit sdr - even worse (http://www.pcstats.com/articleview.cfm?articleid=819&page=2)
ice cool69
2004-05-28, 01:36:00
64 Bit SDR? Da bin ich aber froh dass ich das nicht mitbekommen habe/musste. :D
Egal, jedenfalls ist sowas sowieso nicht mit einer Kyro2 vergleichbar, ich wollte die gf2MX mit 128bit ddrsdram mit der kyro2 mit 128 Bit sdram vergleichen, bei zweiterer hat man halt ne menge geld gespart beim speichereinkauf.
@ ailuros
Hätte man die von dir genannte Karte gebaut hätte man sich im Preisniveau der High-Endkarten bewegt.
Desweiteren hätte man auch eine abgespeckte Version für den Mainstream entwickeln müssen, da die genannten High-End Chips nur ein winziger Bruchteil des Marktes ausmachen.
Man hätte vielleicht beide Chips bauen sollen, einen zum Benchmarks gewinnen und einen um Geld zu verdienen.
So negativ wie du sehe ich die fehlende T&L-Einheit im Nachhinein jedoch nicht, ich habe sehr lange mit meiner Kyro2 anständig zocken können, besonders mein damaliges Lieblingsspiel Jedi Knight2 ist noch immer gut gelaufen (dank meines ultraschnellen XP1600+).
Aber im Grunde hast du recht, wäre man mehr Risiko eingegangen hätte man die Chance gehabt den wohl damals besten Chip anbieten zu können (vielleicht sogar mit Abstand).
Tja wer sich anscheißt gewinnt in diesem Markt nichts.
Ailuros
2004-05-28, 01:47:16
Hätte man die von dir genannte Karte gebaut hätte man sich im Preisniveau der High-Endkarten bewegt.
Desweiteren hätte man auch eine abgespeckte Version für den Mainstream entwickeln müssen, da die genannten High-End Chips nur ein winziger Bruchteil des Marktes ausmachen.
Nein. 200-250$ sind Mainstream. Was genau entwickeln? Der KYRO haette sich gut gehalten als Value Offensive. Im Notfall haette man diese dann auch wieder auf K2 Niveau takten koennen um Value besser abzudecken; es war nur ein die shrink mit 3Mio mehr Transistoren von K1@115Mhz auf K2@175MHz.
Mainstream ist schaetzungsweise ~30%, Value ~50-60% und maximal 3-5% fuer high end (300-400$).
So negativ wie du sehe ich die fehlende T&L-Einheit im Nachhinein jedoch nicht, ich habe sehr lange mit meiner Kyro2 anständig zocken können, besonders mein damaliges Lieblingsspiel Jedi Knight2 ist noch immer gut gelaufen (dank meines ultraschnellen XP1600+).
Dass man unbedingt T&L fuer Q3a engine basierende Spiele braucht waere mir sowieso neu. :D
Wie sieht es aber mit Spielen wie UT2k3 aus? Nicht nur hatte K3@166MHz doppelt so hohe Fuellrate und Bandbreite aber auch eine ziemlich starke T&L Einheit. Ich dachte ich hab laengere Kompatibilitaet mehr als nur einmal erwaehnt.
robbitop
2004-05-28, 02:46:59
@Ice
die GF2MX besass entweder 64bit DDR-RAM ODER 128bit SD-RAM.
128bit DDR gabs nur bei der GTS/PRO/Ultra.
ice cool69
2004-05-28, 02:48:48
Kein Mensch erwartet auf einer Karte welche vor Jahren nur 100-150€ gekostet hat heute UT2003 flüssig spielen zu können.
Ich gebe dir vollkommen recht, dass die Mainstream-variante die deutlich bessere gewesen wäre, sie hätte viel mehr Nachdruck hinterlassen und PVR würde auch heute noch ernster genommen werden.
Alles was ich sagen möchte ist dass der K2 für sein Ziel hervorragend geeignet war. Dass es strategisch schlecht war nur einen technischen Low-End Chip zu bauen ist eine andere Geschichte, bei der ich dir wie ich schon erwähnte absoluit recht gebe.
Ailuros
2004-05-28, 10:13:23
Original geschrieben von ow
Ich weiss nicht worauf du hinaus willst. Es geht hier doch darum, was ein Chip zu Darstellen in der Lage ist und was nicht. TBDRs funktionieren nur bis zu einer gewissen Komplexitaet der Geometrie, danach ist Multipass angesagt. IMRs kennen diese Problem nicht. Kein IMR.
Es kommt auf den Design an und dabei kann es egal sein ob man das rendern verzoegert oder nicht. Mir ist egal woher die Probleme kommen, es gab und gibt immer noch IMRs die mit intensiver Geometrie nicht gut fertig werden. Deiner uebertriebenen Generalisierung zuliebe, bricht die Bandbreiten-effizienz einer Parhelia mit sehr kleinen Dreiecken bis auf 16% ein und der Link deutet auch darauf hin.
Im gegebenen Fall dass was eine K2 in der Lage ist darzustellen in Sachen Geometrie (mit Aussnahme von T&L optimierten code) war fuer das Jahr nach ihrer Veroeffentlichung nicht niedriger als die angepeilte Konkurrenz, im gegebenen Fall die GF2 MX.
Schmeiss doch ganz einfach N Polies auf eine K2 und dann genauso viele auf ein MX; wenn dann beide damit versagen, dann ist Dein sarkastischer Kommentar ueber wireframe wohl nicht nur uebertrieben sondern auch ueberfluessig.
Ailuros
2004-05-28, 10:14:32
Original geschrieben von ow
Full ack.
Ein paar Features mehr (Cubemaps, HWTL, MSAA) haette die Lebenszeit der Chips deutlich erhoeht.
Heutzutage kriegt man doch kaum noch ein aktuelles Spiel ueberhaupt auf der Kyro gestartet waehrend auf den GF2(MX) immer noch alles laeuft.
Leider wahr.
Original geschrieben von ow
Nein, eben nicht. Die Probleme eines TBDRs mit komplexer Geometrie kennt ein IMR nicht. Das ist durch das Renderprinzip bedingt.
Ein IMR mag andere Probleme haben, ich habe ja nicht von Performance gesprochen.
Wenn der Flaschenhals woanders liegt, als bei der HSR Engine (und das war beim Kyro der Fall) hat ein DMR die gleiche Einschränkung wie ein gleichwertiger IMR.
Das ist aber ein anderes Problem als das, welches die TBDR betrifft.
Nein, das muss net sein. Wenn die HSR Engine schnell genug ist, greift hier das gleiche Problem was auch beim IMR greift.
Das war kein sarkastischer Kommentar sondern nur die Nennung eines Faktes.
Wireframe-Darstellungen mag ein TBDR nunmal nicht. Mein Kyro1 liegt hier knapp ueber dem Niveau eines RivaTNT, taktbereinigt (115/115 zu 90/110) duerfte sich da ein Gleichstand ergeben.
Warum ist das wohl so? Es kann ja beim Wireframe nichts weg-HSRt werden. Darum entsprichen die FPS eben seiner maximalen Füllrate oder Trianglesetups.
Wenn beide Chips an der Grenze ihres Trianglesetups operieren, ist das wohl der Flaschenhals und nicht die HSR Engine. Beim Kyro wurde ja extra darauf geachtet, dass HSR selbst im allerungüstigsten Fall niemals bremsender wirkt, als die Füllrate. selbstverständlich kann man die HSR Unit nahezu auslasten, nur ist der Kyro dann sowieso mit der Füllrate genauso am Ende. Es mag zwar threoretische Fälle geben, an denen auch die HSR Einheit an ihre Grenzen gelangt, aber sowas wird man in keinem Spiel finden.
UT2003/4 werde ich überigens morgen mal auf meiner alten Kyro2 testen :D (hab sie wiederbekommen ;)).
robbitop
2004-05-28, 13:13:59
soweit ich das weiss soll die HSR Unit deutlich stärker geworden sein und ausserdem nun 32x32 Tiles nutzen.
Original geschrieben von ow
Es ist nicht alleine das HSR sondern die Tatsache, das eine TBDR alle Infos ueber die komplette Szsene erst einmal sammeln muss bevor er anfangen kann zu rechnen. Das kostet viel Speicherresourcen.
Ein IMR braucht das eben nicht.
Die paar Zeiger brauchen net viel Speicher, da kann die Scene noch so komplex sein. Es werden ja nur Zeiger gespeichert, und dafür ist nach meinen Infos genug Platz für worst Case vorhanden.
S.o.
Hier liegt eine Missverstaendnis vor. Ich rede von was anderem als der HSR Unit / dem HSR processing.
Bis hierhin richtig.
Das zweifele ich mal an. Da die HSR Einheit und Pixelfillrate unabhaengig voneinander sind, kann man sehr wohl Szenarien konstruieren in denen das HSR limitiert.
Eine Menge kleiner Polygon die hintereinander liegen koennte so ein Fall sein. Benoetigte Fillrate = Null (ausser fuer das vorderste Polygon) aber die HSR-Unit hat jede Menge Arbeit.
Ich glaube uebrigens, dass schon in den high-detail Szenen des 3DMark01 die HSR-Unit limitiert, die Kyro1 verliert hier gegenueber den low-detail Szenen ein gutes Stueck mehr Leistung als die Gf2MX (in der Summe siehts so aus: low-detail ist die Kyro vorne, high-detail das die GF2MX, der 3DMark Score ist fast gleich)
Das glaube ich mal nicht. Die Scene treibt das Trianglesetup ans Maximum. Da beide etwa das gleiche an Leistung bei gleichem Takt dahingehend schaffen, ist es also absolut kein Wunder, dass die MX und Kyro hier gleuchauf liegen. Ich mach morgen mal nen paar Tests mit MX und KyroII (mit aktuellen Treibern natürlich). Mal sehen was man da so zu Tage fördert :D.
Der Kyro kann keine Cubemaps oder? Das könnte bei UT03/04 zu einem Nachteil werden...
Original geschrieben von ow
Nein, der Platz ist das sogar sehr begrenzt (afaik nur einige MB), so dass bei komplexeren Szenen der Szenenmanager aktiv werden muss. AFAIK wird hierbei die Szene in mehrere Schritten jeweils nur teilweise gerendert. Da ist es dann aus mit den Vorteile eined TBDRs gegenueber einem IMR.
Da kommt jetzt aber was durcheinander. Der Kyro puffert Geometrie im GraRAM vor, bevor er es läd. Der Scenemanager macht nichts anderes, als den RAM-Bereich, der ansonsten standardmässig auf 1MB fest voreingestellt ist, synamisch zu verwalten, was bei sehr grossen Polygonmassen notwendig wird, weil 1MB einfach zu wenig ist dafür. Ist also ne Treibergeschichte. Aus diesem Puffer werden dann die Tiles gebildet und gegengecheckt (was sicher kein Flaschenhals ist) und dann Zeiger gesetzt, die bequem im "Z-Buffer" platz finden. Ich sehe da jetzt keinen flaschenhals, da die Speicherbandbreite sicher nicht limitierend wirkt, jedenfalss nicht bis 1024.
Noe, das Triangle Setup limitiert hier sicher nicht. Das kriegst du nur bei Wireframe Darstellungen ans Limit. IMO ist es das HSR was hier langsam an seine grenzen stoesst.
Na ja, die Scene ist nicht sonderlich Renderintensiv, hat aber einen sehr hohen Geometriedurchsatz. Der Overdraw ist auch net wirklich hoch (2-4 schätze ich maximal). Von daher muss es net unbedingt am HSR liegen. Es kann alles Mögliche sein.
Der Kyro kann keine Cubemaps, richtig.
Laesst sich aber in der ini von UT2003/4 abschalten (UseCubemaps = False...oder so aehnlich).
Danke ;) Das hilft mir sicher.
Original geschrieben von ow
Moderne polygonreiche Applikationen brauchen schon viele MB fuer die Geometriedaten. Sagen wir zB. mal 20MB.
Ein IMR muss da nix zwischenspeichern, er verarbeitet jedes Polygon wie er es bekommt sofort.
Der TBDR muss diese 20MB zwischenspeichern und AFAIK ist der Buffer, den Kyro dafuer verwalten kann zu klein (ich habe da irgendwas von 6MB im Kopf, kann mich aber auch irren).
Wenn nun also der Platz im Buffer fuer die Geometrie nicht reicht, dann sammelt der Kyro nur solange Geometrie, bis der Buffer voll ist und mit dieser "Teilszene" fuehrt er dann seinen ersten Renderdurchgang aus. Danach wird der Buffer geleert und der Rest der Geometrie verarbeitet und gerendert. Zumindest habe ich das seinerzeit so verstanden.
Das kann natürlich durchaus sein. Nur ist es ja wohl so, dass solche Games eh derart renderintensiv sind, dass es nicht unbedingt ins Gewicht fällt, da die Kyro eh nur eine sehr geringe Füllrate bietet, also mit dem Randern trotzdem länger beschäftigt ist. Es ist ja pro Takt nur ein trilinearer Texel (oder besser gesagt 2 in 2 Takten) überhaupt möglich (mit 8 Passes).
Die 3DMark Scene könnte diesen Buffer allerdings tatsächlich überforden, wie du sagst, weil die eben nicht so renderintensiv ist (ich glaub max 2 Texturlagen).
Das wird aber auf UT z.B. nicht unbedingt zutreffen.
loewe
2004-05-28, 19:34:15
Original geschrieben von ow
Ich glaube uebrigens, dass schon in den high-detail Szenen des 3DMark01 die HSR-Unit limitiert, die Kyro1 verliert hier gegenueber den low-detail Szenen ein gutes Stueck mehr Leistung als die Gf2MX (in der Summe siehts so aus: low-detail ist die Kyro vorne, high-detail das die GF2MX, der 3DMark Score ist fast gleich)
AFAIK ist hier das Problem der Speicher, sprich es springt der Szenemanager an womit die Leistung der Karte in den Keller geht.
In alten Treibern müßten dort ganze Dreiecke fehlen, die wurden da verschluckt, erst die Einführung von Macrotilling und Szenemanager hat das Problem zwar gelost, aber KYRO wird damit einfach zu langsam, mangels Füllrate.
@ow
Bitte bleibe in der Diskussion bei der Bezeichnung KYRO und nicht TBDR. Die von dir hier beschriebenen Probleme sind für KYRO Fakt, aber TBDR wurde wesentlich weiter entwickelt (auch wenn du es noch nicht weißt) und somit muß dieses Verhalten für TBDRs nicht typisch sein.
Und bitte nicht vergessen, deine KYRO hat nun mal nur 230 MP/sec Füllrate. :)
loewe
2004-05-28, 19:46:33
Original geschrieben von ow
Moderne polygonreiche Applikationen brauchen schon viele MB fuer die Geometriedaten. Sagen wir zB. mal 20MB.
Ein IMR muss da nix zwischenspeichern, er verarbeitet jedes Polygon wie er es bekommt sofort.
Der TBDR muss diese 20MB zwischenspeichern und AFAIK ist der Buffer, den Kyro dafuer verwalten kann zu klein (ich habe da irgendwas von 6MB im Kopf, kann mich aber auch irren).
Für KYRO ist davon schon einiges richtig, aber
- auch KYRO speichert nicht dies Geometriedaten, sondern nur die von den Dreiecken, welche überhaupt innerhalb von Tiles sichtbar sein könnten, sprich das Culling ist schon erledigt, womit etwa nur noch 50% bleiben
- die Daten werden transformiert gespeichert und dann auch nur noch Koordinaten in Pixelformat.
Für die modernen PowerVR Chips kommt da noch einges andere dazu, was den Speicherplatz wesentlich verkleinert.
BTW, sollte der Szenemanger auch heute noch aktiv werden müssen ist über ein z-Range Verfahren ein zusätzliches early object culling möglich.
Aber grundsätzlich bin ich der Meinung, ein moderner Tiller sollte erst einmal auch wirklich eine ähnliche Füllrate habe wie jeder IMR. :)
Original geschrieben von loewe
Aber grundsätzlich bin ich der Meinung, ein moderner Tiller sollte erst einmal auch wirklich eine ähnliche Füllrate habe wie jeder IMR. :) Das ist ja unfair :)
loewe
2004-05-28, 20:43:30
Original geschrieben von aths
Das ist ja unfair :)
Wieso, erst dann wird sich zeigen ob all die Maßnahmen der anderen wirklich so viel gebracht haben! ;)
Nein, aber sollte der Fall eintreten das all die Intelligenz nichts hilft, dann sollte schon die Füllrate für eine weitere normale Nutzung vorhanden sein. Bei KYRO war das öfter mal nicht der Fall.
Thowe
2004-05-28, 21:39:52
Gizehla 16GP wird haben
Zuckelfree Antialiasing (16x MSAA)
Faster than LightSpeed-Memory Architecture (jo)
Cheatfree Aniso (yeah)
was braucht man denn noch?
robbitop
2004-05-28, 22:35:09
nette Spekulation
Original geschrieben von ow
Moderne polygonreiche Applikationen brauchen schon viele MB fuer die Geometriedaten. Sagen wir zB. mal 20MB.
Ein IMR muss da nix zwischenspeichern, er verarbeitet jedes Polygon wie er es bekommt sofort.
Der TBDR muss diese 20MB zwischenspeichern und AFAIK ist der Buffer, den Kyro dafuer verwalten kann zu klein (ich habe da irgendwas von 6MB im Kopf, kann mich aber auch irren).
Wenn nun also der Platz im Buffer fuer die Geometrie nicht reicht, dann sammelt der Kyro nur solange Geometrie, bis der Buffer voll ist und mit dieser "Teilszene" fuehrt er dann seinen ersten Renderdurchgang aus. Danach wird der Buffer geleert und der Rest der Geometrie verarbeitet und gerendert. Zumindest habe ich das seinerzeit so verstanden.
Du gehst hier ja wirklich von ziemlich veralteten Dingen aus.
Glaubst du nicht, das IMG bei den neuen Chips ein paar Verbesserungen eingebracht hat?
Ich erinnere nur an 2 Patente : WO 03-010117 A2 und GB 2387094 A?
Bereits durch diese beiden Sachen würde sich der Speicherbedarf und der Bandbreitenbedarf stark reduzieren. Ein nettes Detail beim, wie ich es nenne "HirVertex-Verfahren" das im WO-Patent angesprochen wird ist, das IMHO ein TBDR von einem Front-to-Back Rendering noch besser profitieren würde als ein IMR, da er nur noch einen kleinen Teil an Vertex-Daten abspeichern müsste.
Es kann aber noch besser werden. Bereits der MAJC-Prozessor von SUN hatte eine Echtzeit-Vertex-Kompression mit an Board. Das war 1999! Diese nutzte laut PDF Delta- und modified Huffman encoding sowie eine quantisierte Speicherung wie sie auch im EP-Patent von IMG angesprochen wird. Diese Kompression sollte laut Datenblatt einen Kompressionsfaktor von 6-20 erreichen können.
Selbst wenn man nur den minimalen Wert von 6 benutzt, reicht das dann zusammen mit dem "Hir-Vertex", dem ich zutraue das es nochmals 33-50% der Vertex "wegschmeißt" aus um die Bandbreitenprobleme die den Kyro geplagt haben vergessen zu machen.
Nicht nur IMR werden besser, auch TBDR können noch was dazulernen.
Die eine Karte von 2000 mit einer anderen aus dem Jahre 2004 zu vergleichen hilft nicht wirklich weiter die beiden Technologien miteinander zu vergleichen.
Ailuros
2004-05-29, 02:38:18
Es ist nicht alleine das HSR sondern die Tatsache, das eine TBDR alle Infos ueber die komplette Szsene erst einmal sammeln muss bevor er anfangen kann zu rechnen. Das kostet viel Speicherresourcen.
Ein IMR braucht das eben nicht.
Es ist eher die ideale Situation fuer einen TBDR, aber nicht eine absolute Vorraussetzung selbst fuer KYRO nicht. Der binning space bei K2 war ~6MB gross. Ein IMR verschwendet wiederrum im Gegenteil Speicherresourcen wenn antialiasing eingeschaltet wird. Bei K2 waren es weniger als 10%, willst Du mir eine Rate fuer IMRs und jegliche Form von AA einschaetzen?
Nein, eben nicht. Die Probleme eines TBDRs mit komplexer Geometrie kennt ein IMR nicht. Das ist durch das Renderprinzip bedingt.
Ein IMR mag andere Probleme haben, ich habe ja nicht von Performance gesprochen.
Deferred rendering generell ist also ein problematischer Fall fuer komplexe Geometrie im Durchschnitt ja?
Ich glaube uebrigens, dass schon in den high-detail Szenen des 3DMark01 die HSR-Unit limitiert, die Kyro1 verliert hier gegenueber den low-detail Szenen ein gutes Stueck mehr Leistung als die Gf2MX (in der Summe siehts so aus: low-detail ist die Kyro vorne, high-detail das die GF2MX, der 3DMark Score ist fast gleich)
Und wie sieht es mit K2 und aehnlichem Takt einer GF2 MX aus, oder kamen diese auch mit 115MHz Taktraten?
------------------------------------------------
Die eine Karte von 2000 mit einer anderen aus dem Jahre 2004 zu vergleichen hilft nicht wirklich weiter die beiden Technologien miteinander zu vergleichen.
Leider nicht, aber was anderes zum vergleichen haben wir leider momentan nicht.
------------------------------------------------
Und jetzt mal zurueck zum Thema: die Mehrzahl sollte eigentlich froh sein was bei S5 entwickelt wurde im guten Ganzen und dass ist natuerlich nur fuer diejenigen die nicht unbegingt von IHV spezifischen Bevorzugungen getrieben werden.
Ueberdenkt mal genauer die Beschwerden in der letzten Zeit ueber Filterungs-Optimierungen, niedrige Praezision bei Filterung/LOD Werten, floating point accuracy, Winkel-abhaengigkeit, niedrige Anzahl von AA samples, niedrigere als erwartete Shader Komplianz oder weiss der Geier was noch. Ich hab guten Grund so heiss auf das Ding zu sein und das ist nicht nur mit der Tatsache verbunden, dass es ein TBDR ist.
Vorraussetzung - wie immer - eine zeitige Veroeffentlichung da gibt es keine grossen "aber".
Ailuros
2004-05-29, 02:40:14
Original geschrieben von robbitop
nette Spekulation
Oder doch nicht ;D
loewe
2004-05-29, 09:02:27
Original geschrieben von Thowe
Gizehla 16GP wird haben
Zuckelfree Antialiasing (16x MSAA)
Faster than LightSpeed-Memory Architecture (jo)
Cheatfree Aniso (yeah)
was braucht man denn noch?
Kein Ahnung was wir haben werden! :D
Aber ich bin sicher das es, sollte es Optimierungen geben, auch einen Schalter geben wird zum Aus- bzw. Einschalten. :)
BTW, wieso eigentlich nur 16xMSAA und was ist eigentlich MSAA? ;D
Ailuros
2004-05-29, 10:21:06
Mal was anderes und nein gar nicht OT.
Datum = 16.04.2002 (ich erinnere dass es noch einige Zeit vor der R300 Veroeffentlichung war):
I wouldn't worry too much about memory bandwidth. Each chip coming out in the DX9.x time frame should have sufficient memory bandwidth for their needs, though they will not necessarily use the same techniques.
Something interesting to note is that since the different technologies are available to all the competitors, what distinguishes one from the other.
For one thing, larger companies can afford less risk since they have higher fixed expenses. Therefore the newest (and the riskest) technologies are often adopted by the smaller firms first. However, larger firms bring more stablity and consistency. In addition, larger firms have the resources to devote to very thorough driver development and QA. Finally, they also have larger budgets to do more R&D and to buy outside technologies to move quickly when they need to.
One major competitive difference in the 3d chip business, however, is when some firm manages to step outside the box to significantly increase the transistor count over their competitors in a cost effective fashion. This would probably have more immediate impact than anything mentioned above.
http://www.beyond3d.com/forum/viewtopic.php?t=619&postdays=0&postorder=asc&highlight=multi+chip&start=20
Datum = 16.05.2004
When you look at the computation market, GPU manufacturers have targeted the floating point performance segment far more than the CPU manufacturers.
I agree that pretty much all of the computation intensive tasks will eventually move to what is now considered the GPU. This includes all the physcial simulation, collision detection, 3d graphics (including all the culling), etc.
This means the GPU of the future will need to gradually transform into a massively parallel general purpose floating point vector processor that can be programmed using standard programming languages like C++. This in turn means general purpose addressing, branching, and stack management. Something that looks more like a FASTMATH processor than a current GPU. However, one major difference compared to a CPU is that the vast majority of the transistors will be used for actual logic with large numbers of floating point ALUs rather than for on-die cache. Instead future GPUs/vector processors will likely continue to rely on very high external memory bandwidths with a small amount of on-die cache.
It also means scaling up frequencies significantly using dynamic logic.
http://www.beyond3d.com/forum/viewtopic.php?p=284737&highlight=#284737
robbitop
2004-05-29, 11:23:24
warum "nur" 16xMSAA?
weil es OG ist. AFAIR hatten die PVR Leutings Probleme mit der Implementierung von Sparsed..es gab damals Grafikartefakte.
nggalai
2004-05-29, 11:35:47
Original geschrieben von robbitop
warum "nur" 16xMSAA?
weil es OG ist. AFAIR hatten die PVR Leutings Probleme mit der Implementierung von Sparsed..es gab damals Grafikartefakte. loewe bezog sich wohl auf das "MSAA", nicht auf das "16x." ;)
93,
-Sascha.rb
robbitop
2004-05-29, 12:49:43
Original geschrieben von loewe
...
BTW, wieso eigentlich nur 16xMSAA ...
Original geschrieben von Ailuros
Oder doch nicht ;D
Naja, aber die 16GPixel sind imho schon ein wenig übertrieben. Ich weiß zwar wie er auf die Zahl kommt, aber der Faktor 2, den er da benutzt ist schon etwas komisch. Hellbinder hat eben doch nicht recht. ;)
loewe
2004-05-29, 19:37:57
Original geschrieben von robbitop
warum "nur" 16xMSAA?
weil es OG ist. AFAIR hatten die PVR Leutings Probleme mit der Implementierung von Sparsed..es gab damals Grafikartefakte.
AFAIK hat man bei PowerVR in keinem der bis heute bekannten Chips etwas anderes als OG SSAA implementiert. Der erste Chip mit erweitertem FSAA war der K3 und der ist nie erschienen, über das MSAA des MBX ist bisher nichts bekannt, genauso verhält es sich mit Serie 5.
Lass dich da mal einfach überraschen! ;)
Killa Tomacco
2004-05-29, 23:00:16
Meine Spekulation zur Serie 5:
8x2 Achitektur
Tri-TMUs statt Bi-TMUs
2x/4x/6x/8x RGMSAA auch 2x/4x RGSSAA wie V5 zur Antialiasing-Auswahl
Tri-Antiso und Bi-Antiso zur Antisotrope Filterung-Auswahl aber beide ohne Winkelabhängigkeit
PS 3.0/VS 3.0
Original geschrieben von loewe
Wieso, erst dann wird sich zeigen ob all die Maßnahmen der anderen wirklich so viel gebracht haben! ;)
Nein, aber sollte der Fall eintreten das all die Intelligenz nichts hilft, dann sollte schon die Füllrate für eine weitere normale Nutzung vorhanden sein. Bei KYRO war das öfter mal nicht der Fall. Solche Intelligenz kostet Transistoren. Vermutlich mehr, als LMA bzw. HyperZ. So ganz kostenlos gibts das TBDR-Plus demnach wohl nicht.
Ailuros
2004-05-30, 01:24:10
Original geschrieben von robbitop
warum "nur" 16xMSAA?
weil es OG ist. AFAIR hatten die PVR Leutings Probleme mit der Implementierung von Sparsed..es gab damals Grafikartefakte.
Sagt wer?
Ailuros
2004-05-30, 01:30:48
Original geschrieben von Gast
Naja, aber die 16GPixel sind imho schon ein wenig übertrieben. Ich weiß zwar wie er auf die Zahl kommt, aber der Faktor 2, den er da benutzt ist schon etwas komisch. Hellbinder hat eben doch nicht recht. ;)
Ich sah es als einen selbst-entwickelten Codenamen an und nicht als 16Gigapixel.
Gizehla 16GP wird haben....
Erklaer mir nochmal wo hier etwas ueber 16GPixels steht?
Und ich hab auch keine Ahnung wie er hypothetisch auf eine so verrueckte Zahl gekommen ist und dass Du es dann auch noch verstehst.....
Ich koennte aber 205Gsamples/sec mal so in die Luft schmeissen und damit die uebertriebene PR Logik anderer IHVs emulieren. Zweckloser Schwachsinn.
Ailuros
2004-05-30, 01:37:29
Original geschrieben von Killa Tomacco
Tri-Antiso und Bi-Antiso zur Antisotrope Filterung-Auswahl aber beide ohne Winkelabhängigkeit
Wie ich schon oefter sagte erwarte ich dass mein Deutsch stets korrigiert wird. In diesem Sinn (ja OT) eine kleine Seitennotiz:
ANISOTROPISCH
iso = gleich
an-iso = un-gleich
tropos = Art Weise
Ergo: isotropic/anisotropic filtering
[/Ende der Griechisch-Stunde fuer heute]
robbitop
2004-05-30, 02:12:45
sagt irgendein Entwickler bei PVR. Ist schon etwas älter das Zitat und betraf Serie4 glaube ich (oder war es Seire5 bereits?).
Wenn das stimmt wirds nur OG (wobei man ab 16x schon an stochastic grid denken könnte).
MSAA ist für einen TBDR ideal da es (fast) Füllraten- und Bandbreitenfrei ist. Edge FAA wäre hier schwachsinn. SSAA ebenfalls, da es gut Füllrate kostet.
Wieso überraschen lassen`? AFAIK sucht PVR noch einen Partner für Serie5 (b3d) und bis das Ding in Silikon gegossen und im Handel erhältlich ist, dauert das wohl noch..leider.
stickedy
2004-05-30, 03:48:42
Woher weißt du?
Meinst du Sega lizensiert die "Katze im Sack"?
Ailuros
2004-05-30, 09:03:14
Original geschrieben von robbitop
sagt irgendein Entwickler bei PVR.
Erstaunlich :D Simon sagte lediglich mal dass er bei seinen Experimenten mit ordered grid zufriedener war und da hat er sich wohl auf moire bezogen. Simon ist auch ein grosser Supersampling Fan und entwickelt auch die Algorithmen.
Ist schon etwas älter das Zitat und betraf Serie4 glaube ich (oder war es Seire5 bereits?).
Nein Serie9 glaube ich *kicher*.
Wenn das stimmt wirds nur OG (wobei man ab 16x schon an stochastic grid denken könnte).
Der Aufwand ist immer noch zu gross; ergo wenn es je zu analytischen Algorithmen kommt, dauert es noch eine Weile.
MSAA ist für einen TBDR ideal da es (fast) Füllraten- und Bandbreitenfrei ist. Edge FAA wäre hier schwachsinn.
Wieso ist edge AA Schwachsinn und ueberhaupt auf einem TBDR? Im ganz grossen Gegenteil eigentlich.
SSAA ebenfalls, da es gut Füllrate kostet.
Notwendig an der Seite ist es schon; Bandbreiten-frei und minimale framebuffer consumption.
Wieso überraschen lassen`? AFAIK sucht PVR noch einen Partner für Serie5 (b3d) und bis das Ding in Silikon gegossen und im Handel erhältlich ist, dauert das wohl noch..leider.
Dann lies mal bitte den spekulativen newsblurb noch mal Wort fuer Wort durch. Du glaubst doch nicht ernsthaft dass SEGA einen Papiertiger lizenziert hat oder?
*hust*
“5 partner devices in or close to production (compared with only one in production at the beginning of FY03/04) and 2 in prototype silicon;”
Killa Tomacco
2004-05-30, 11:16:57
Original geschrieben von Killa Tomacco
Meine Spekulation zur Serie 5:
8x2 Achitektur
Tri-TMUs statt Bi-TMUs
2x/4x/6x/8x RGMSAA auch 2x/4x RGSSAA wie V5 zur Antialiasing-Auswahl
Tri-Antiso und Bi-Antiso zur Antisotrope Filterung-Auswahl aber beide ohne Winkelabhängigkeit
PS 3.0/VS 3.0
Noch eine Ergänzung:
Displacement Mapping
Stencil-Schatten oder Shadow Maps
Killa Tomacco
2004-05-30, 11:29:51
Original geschrieben von Killa Tomacco
Tri-Antiso und Bi-Antiso
Oh Ah das Antiso ist doch Quatsch da mußte AF stehen.
robbitop
2004-05-30, 12:34:45
@Ail
danke für die Infos
du bist heut gut drauf oder? ^^
was interessiert mich ein Konsolenchip?
mich interessiert nur ein PC Chip und ich sehe noch nicht, dass soetwas bereits in der Produktion ist. Soweit ich das gelesen habe, bemüht sich PVR nun um die Suche nach einem Partner für PC..kann also noch dauern.
Edge FAA ist schwierig zu implementieren und verliert an BQ. MSAA ist auf einem TBDR quasi 4free. Aber die Diskussion hatten wir bereits (damals hast du mich doch geläutert ^^)
Hi!
Ist jetzt vielleicht etwas abwegig - aber ist ja das Spek. Forum :naughty:
Sage nur DOOM III und S5... Wäre doch taktisch nicht schlecht für eine Firma um die es in letzter Zeit stiller wurde ein neues Spitzenprodukt kurz vor / nach dem Release eines potentiellen Hits zu machen.
Denke mal viele Spieler haben sich noch nicht entschieden ob sie nun den Highend Grafik-Chip von Firma A oder Firma B nehmen - das wird unter anderem von derem Abschneiden in DOOM III abhängen (- bei mir im Bekanntenkreis auf Uni und in Firma isses so -).
Wenn dann der Preis und der Performance (wovon ich jetzt mal einfach ausgehe) von S5 stimmen wäre es der richtige Zeitpunkt zum Release.
Wer (ausser eingeschworene Firmenanbeter) würde dann noch ein sündhaftteures Produkt der Konkurrenz kaufen??
MfG
M²
edit: Rechtschreibung gefixt
Stencil-Schatten oder Shadow Maps
Das sind Standardfeatures, die man heute nicht mehr erwähnen braucht.
Original geschrieben von robbitop
@Ail
danke für die Infos
du bist heut gut drauf oder? ^^
was interessiert mich ein Konsolenchip?
mich interessiert nur ein PC Chip und ich sehe noch nicht, dass soetwas bereits in der Produktion ist. Soweit ich das gelesen habe, bemüht sich PVR nun um die Suche nach einem Partner für PC..kann also noch dauern.
Edge FAA ist schwierig zu implementieren und verliert an BQ. MSAA ist auf einem TBDR quasi 4free. Aber die Diskussion hatten wir bereits (damals hast du mich doch geläutert ^^)
Warum sollte sich der Arcadechip vom PC Chip unterscheiden? Sehe ich keinen erkennbaren Grund drin. Auch in einer solchen Maschine würd ich so einen Chip über AGP anbinden. Es gibt keinen sinnvolleren Standard dafür.
betasilie
2004-05-30, 15:32:08
Original geschrieben von HOT
Warum sollte sich der Arcadechip vom PC Chip unterscheiden? Sehe ich keinen erkennbaren Grund drin. Auch in einer solchen Maschine würd ich so einen Chip über AGP anbinden. Es gibt keinen sinnvolleren Standard dafür.
Eigentlich sind Arcadechips immer aufgebohrte Versionen gegenüber der PC- oder Konsolenversion. Das liegt auch nahe, weil man bei Arcadeautomaten nicht auf 200$ mehr oder weniger gucken muss.
Alternative könnte auch eine Multichiplösung zum Einsatz kommen, der der S5 das kann.
@ betareverse:
"Alternative könnte auch eine Multichiplösung zum Einsatz kommen, der der S5 das kann."
Ist das jetzt nur auf den Arcardebereich bezogen?
Denke mir ein Multichipboard für PC wäre doch etwas "unwirtschaftlich" (böses Wort :) ).
MfG
M²
Original geschrieben von M²
@ betareverse:
"Alternative könnte auch eine Multichiplösung zum Einsatz kommen, der der S5 das kann."
Ist das jetzt nur auf den Arcardebereich bezogen?
Denke mir ein Multichipboard für PC wäre doch etwas "unwirtschaftlich" (böses Wort :) ).
MfG
M²
Für Arcade auch.
Original geschrieben von betareverse
Eigentlich sind Arcadechips immer aufgebohrte Versionen gegenüber der PC- oder Konsolenversion. Das liegt auch nahe, weil man bei Arcadeautomaten nicht auf 200$ mehr oder weniger gucken muss.
Alternative könnte auch eine Multichiplösung zum Einsatz kommen, der der S5 das kann.
Das, was du meinst, sind Konsolen. Arcadegeräte sind da Preislich in anderen Regionen angesiedelt :D
Ailuros
2004-05-31, 01:40:21
Es gibt keinen einzelnen Grund fuer multi-chip bei SEGA's zukuenftigen Arcade Maschinen. Schon mal was von Eiern mit mehr als einem Dotter gehoert? :D
Ailuros
2004-05-31, 01:45:22
Edge FAA ist schwierig zu implementieren und verliert an BQ. MSAA ist auf einem TBDR quasi 4free. Aber die Diskussion hatten wir bereits (damals hast du mich doch geläutert ^^)
Ich sagte mit Sicherheit dass es ausser den HW-Kosten eigentlich nicht viele Gruende gibt MSAA aufzugeben. Da aber HW-Kosten immer kritischer werden und wenn man sparen kann, macht man das auch kann man exotischere Algorithmen fuer die Zukunft nicht ausschliessen.
Edge AA braucht eben ein bisschen front to back "Liebe" und eine effektive Loesung fuer polygon intersections. Wenn man das rendern erstmal verzoegert sehe ich nicht ein warum man poly intersections nicht glaetten koennte.
Falls das nicht genug ist wundere ich mich warum die Kurven auf MBX ohne polygon gap Probleme kommen koennen, ganz im Gegenteil zum PSP. ;)
betasilie
2004-05-31, 02:05:25
Original geschrieben von M²
Ist das jetzt nur auf den Arcardebereich bezogen?
Denke mir ein Multichipboard für PC wäre doch etwas "unwirtschaftlich" (böses Wort :) ).
Yep. Multichip ist wohl nur für Arcarde interessant, oder halt eine entsprechend aufgebohrte Version des S5 als Singlechiplösung.
betasilie
2004-05-31, 02:05:29
Original geschrieben von HOT
Das, was du meinst, sind Konsolen. Arcadegeräte sind da Preislich in anderen Regionen angesiedelt :D
Hä?
Besonders beißt sich das mit dem:
Original geschrieben von HOT
Für Arcade auch.
Also erklär doch mal biete worauf Du hinaus willst, denn ich habe inhaltlich keinen Schimmer was Du sagen willst. :kratz:
betasilie
2004-05-31, 02:07:03
Original geschrieben von Ailuros
Es gibt keinen einzelnen Grund fuer multi-chip bei SEGA's zukuenftigen Arcade Maschinen. Schon mal was von Eiern mit mehr als einem Dotter gehoert? :D
Ja, habe ich. :D
Und jetzt mal für mich Schnelldenker, wieso eine Multichiplösung im Arcadebereich unwahrscheinlich ist.
Ailuros
2004-05-31, 08:55:57
Original geschrieben von betareverse
Ja, habe ich. :D
Und jetzt mal für mich Schnelldenker, wieso eine Multichiplösung im Arcadebereich unwahrscheinlich ist.
Weil der chip momentan mehr als genug Leistung und Features bietet; keine Ahnung ueber die weitere Zukunft. Naomi2 kam uebrigens erst mit multi-chip und nicht Naomi1.
Original geschrieben von betareverse
Hä?
Besonders beißt sich das mit dem:
Also erklär doch mal biete worauf Du hinaus willst, denn ich habe inhaltlich keinen Schimmer was Du sagen willst. :kratz:
Es gibt zufälligerweise einen Untersachied zwischen "anderer Preisklasse" und "unwirtschaftlichkeit".
Dualchiplösungen sind ohne vernünftige Dualtechnik und dadurach, dass eben 2 Chips generell gebraucht werden unwirtschaftlich. Eine Singlechiplösung ist in nahezu jedem Fall billiger, um das gleiche Resultat zu erzeugen. Dass der Singlechip aber ruhig was kosten darf, steht ja auf einem andern Blatt.
Mave@Work
2004-06-02, 11:09:20
Ail hast du irgendwelche neuen Informationen, die Du uns mitteilen willst/kannst.
Wann kommt er denn nun ?
Was sind die Features ?
Taktraten ?
Preise ? :D
robbitop
2004-06-02, 12:24:47
afaik hat PVR noch nicht mal einen Partner für PC Lösungen. Und den wollen sie haben, allein ziehen sie das nicht durch (soweit ist mein aktueller Kenntnisstand) da es ihnen zu risikoreich wäre. Wir sind also noch weit entfernt von Serie5 auf dem PC. Vieleicht in 6 Monaten?? ...wenn überhaupt.
Das ist der Nachteil an dem Lizenzmodel.
loewe
2004-06-02, 13:30:29
Original geschrieben von robbitop
afaik ...
Du sagst es! ;)
Wir sind hier im Spekuforum, d.h. Wissen ist hier nicht wirklich die Grundlage.
robbitop
2004-06-02, 13:38:06
man braucht bloss die offiziellen Aussagen zu lesen, dann weiss man ungefähr was Phase ist imo.
Ailuros
2004-06-02, 14:00:01
Original geschrieben von robbitop
afaik hat PVR noch nicht mal einen Partner für PC Lösungen. Und den wollen sie haben, allein ziehen sie das nicht durch (soweit ist mein aktueller Kenntnisstand) da es ihnen zu risikoreich wäre. Wir sind also noch weit entfernt von Serie5 auf dem PC. Vieleicht in 6 Monaten?? ...wenn überhaupt.
Das ist der Nachteil an dem Lizenzmodel.
Dann wird es hoechste Zeit dass Du den B3D newsblurb noch einmal durchliest.
....if PowerVR are reluctant to go to a fables semiconductor it may be a tall order to ask a board vendor to become one by effectively paying for the production themselves and giving royalties back to PowerVR. Hopefully, though, this will still prove to be an interesting solution and something can be worked out.
As Far As YOU Know gibt es was momentan das produktionsreif ist oder nicht?
Dass IP generell ein Nachteil fuer den PC Grafik Markt ist, wissen wir ja schon alle.
robbitop
2004-06-02, 14:02:22
as far as i know ist nur der Arcade Chip produktionsreif.
ich habe den news blurb gelesen. Vieleicht interpretierst du da etwas hinein, was gar nicht wahr ist ;)
ich bin nur skeptisch, es gibt keine explizite aussage, dass eine PC Version produktionsreif ist. Und man "sucht noch nach Partnern für den Desktopbereich"
Ailuros
2004-06-02, 14:04:47
Original geschrieben von Mave@Work
Ail hast du irgendwelche neuen Informationen, die Du uns mitteilen willst/kannst.
Wann kommt er denn nun ?
Was sind die Features ?
Taktraten ?
Preise ? :D
That's too specific to an unannounced product to answer.
:D
Ailuros
2004-06-02, 14:06:53
Original geschrieben von robbitop
as far as i know ist nur der Arcade Chip produktionsreif.
ich habe den news blurb gelesen. Vieleicht interpretierst du da etwas hinein, was gar nicht wahr ist ;)
ich bin nur skeptisch, es gibt keine explizite aussage, dass eine PC Version produktionsreif ist. Und man "sucht noch nach Partnern für den Desktopbereich"
Es gibt keine "Versionen" (siehe Ei/Dotter Kommentar).
robbitop
2004-06-02, 14:10:19
interesting...pin2pin compatibel also?
Dann müsste man im Prinzip nur noch einen PCB Manufacturer finden.
Ailuros
2004-06-02, 14:11:14
Guten Morgen; schoenes Wetter heute ja? ;D
robbitop
2004-06-02, 14:12:18
:-P
das habe ich daraus nicht herauslesen können
Original geschrieben von robbitop
Dann müsste man im Prinzip nur noch einen PCB Manufacturer finden.
? Die gibt es wie Sand am Meer. Ich glaube also nicht, dass es daran haengt.
Ailuros
2004-06-02, 14:24:53
1+1=2
Nochmal:
....if PowerVR are reluctant to go to a fables semiconductor it may be a tall order to ask a board vendor to become one by effectively paying for the production themselves and giving royalties back to PowerVR. Hopefully, though, this will still prove to be an interesting solution and something can be worked out.
Was willst Du theoretisch einem Vendor geben, wenn noch nichts handfestes vorliegt?
Das heisst aber trotzdem immer noch nicht dass man Verspaetungen ausschliessen kann. Nur wenn IMG mal so weit kommen wuerde und von Anfang bis Ende die ganze Arbeit aufnehmen wuerde koennte man Verspaetungen noch mehr ausschliessen. Momentan sind erstmal Verspaetungen ala Series3/ST Micro weg vom Fenster.
robbitop
2004-06-02, 14:28:15
@ow
ist klar
@AiL
you made my day =)
Mave@Work
2004-06-02, 14:45:47
Original geschrieben von Ailuros That's too specific to an unannounced product to answer.
Was mich aber nicht davon abhalten wird mindestens ein mal die Woche nachzubohren.
(Ausserdem bin ich der Meinung Cartago sollte zerstört werden) ;D
ice cool69
2004-06-02, 16:50:08
Naja die Arcade-Automaten unterscheiden sich zu PCs nicht mehr sonderlich.
Es lohnt sich einfach preislich nicht eine aufgebohrte PC-Chipversion zu bauen.
Ich denke die PC-Version in einer "Ultra-Variante" dürfte dem Automaten 1:1 entsprechen was die Power angeht.
loewe
2004-06-02, 16:59:58
Original geschrieben von robbitop
man braucht bloss die offiziellen Aussagen zu lesen, dann weiss man ungefähr was Phase ist imo.
Wenn du bei ImgTec die offiziellen Aussagen liest weißt du eher gar nichts.
@Ail
Wie oft hast du das jetzt eigentlich wiederholen müssen? ;D
Thowe
2004-06-02, 17:25:23
Original geschrieben von loewe
...
@Ail
Wie oft hast du das jetzt eigentlich wiederholen müssen? ;D
Wie er hat was wiederholt, was denn? ;)
Aber Kartenhersteller sollten echt kein Problem sein, an ATI und NV verdient keiner was, da brauch man Terratec und Tyan gar nicht fragen warum sie wirklich aus den Geschäft aussteigen.
robbitop
2004-06-02, 17:58:27
@loewe
das ist ja das Schlimme an PVR ^^
Ailuros
2004-06-02, 18:35:29
Original geschrieben von Thowe
Aber Kartenhersteller sollten echt kein Problem sein, an ATI und NV verdient keiner was, da brauch man Terratec und Tyan gar nicht fragen warum sie wirklich aus den Geschäft aussteigen.
Es steigen der eine Vendor nach dem anderem aus dem Markt aus, gerade eben weil es zu viele Vendors gibt und die Konkurrenz zu gross ist. Wieviele sind es momentan? 28 oder mehr?
Auf jeden Fall wird es schon Interesse danach geben, aber eine Garantie ist es nun auch wieder nicht. Serie4 ist zwar eine ganz andere Geschichte, aber da sah es auch bis zum letzten Moment mehr als blendend aus.
loewe
2004-06-02, 20:04:59
Original geschrieben von robbitop
@loewe
das ist ja das Schlimme an PVR ^^
Aber mal zur Ehrenrettung, was wußtest du Offizielles über die Nextgen von ATI und NV vor dem Launch?
Es gibt immer mal ein paar sicher mehr oder weniger gesteuerte Gerüchte, bei den beiden werden sie oft geglaubt, man ist ja sicher das sie sich nicht plötzlich entschließen werden, aus dem Grafikchipgeschäft aus zu steigen.
Bei PowerVR ist das nicht anders. ;)
robbitop
2004-06-02, 20:28:13
da hast du wohl Recht loewe..ich hoffe das Beste für PVR.
Wenn die schnell genug wäre, wäre das sogar eine Karte für mich =)
ice cool69
2004-06-02, 20:41:08
Die Karte ist sogar "nur" bei Konkurrenzfähigkeit 1. Wahl.
Ist die Leistung entsprechend zahl ich auch für ne PVR-Karte 400€.
loewe
2004-06-02, 21:01:10
Gehört zwar nicht ganz hier her, oder vielleicht doch :D, mag ja den einen oder anderen erfreuen!
http://www.mitrax.de/artikel.php?id=23
http://www.mitrax.de/bilder/duck5.jpg
barnygumble
2004-06-02, 21:04:48
Original geschrieben von ice cool69
Die Karte ist sogar "nur" bei Konkurrenzfähigkeit 1. Wahl.
Ist die Leistung entsprechend zahl ich auch für ne PVR-Karte 400€.
Mein Reden.
Zwar würde ich keine 400€ für eine Graka (von wem auch immer) zahlen, aber ich würde mit Freuden sofort eine Kyro3 :) kaufen. Wenn sie etwa auf 6800GT/X800Pro Niveau wäre, würde mir das vollkommen reichen.
Wäre wirklich schön, wenn mal jemand den Markt aufmischt.
Original geschrieben von loewe
Gehört zwar nicht ganz hier her, oder vielleicht doch :D, mag ja den einen oder anderen erfreuen!
http://www.mitrax.de/artikel.php?id=23
*bild*
Schöne Story :up: *nostalgischwerd* :freak:
robbitop
2004-06-02, 21:23:13
@loewe
so eben habe ich den NV40 Kauf zurückgestellt und warte auf die 5. Ente ...mal schauen wie schnell sie schwimmen kann =)
toller Artikel!!
ice cool69
2004-06-02, 22:32:28
wenn sie denn darf schwimmt sie ordentlich und mit einer energiesparenden technik (so ala armstrong im radsport).
ActionNews
2004-06-02, 23:00:53
Netter Artikel Loewe :). Ich will auch so eine Ente mit DDD-Antrieb :D!
CU ActionNews
Tannjew
2004-06-03, 02:25:02
Ah, ich würde nur zu gerne so eine Ente Nr. 5 in meiner Wanne in Aktion zu sehen. Ich befürchte nur, meine Wanne ist zu klein :(
Ailuros
2004-06-03, 06:54:44
Original geschrieben von barnygumble
Mein Reden.
Zwar würde ich keine 400€ für eine Graka (von wem auch immer) zahlen, aber ich würde mit Freuden sofort eine Kyro3 :) kaufen. Wenn sie etwa auf 6800GT/X800Pro Niveau wäre, würde mir das vollkommen reichen.
Wäre wirklich schön, wenn mal jemand den Markt aufmischt.
Ich hab keine Ahnung wie es mit Preisen aussehen koennte, aber generell was man bezahlt bekommt man auch.
Um es klarer zu machen 6800XT oder X800PRO Leistung wirst Du wohl nicht fuer 200 Euronen bekommen.
barnygumble
2004-06-03, 09:39:18
Rund 300€ (evtl. bisschen mehr, aber nicht viel) ist meine Schmerzgrenze.
Zumal ich mir jetzt eh noch keine kaufen würde, erst im Herbst oder so. Bis dahin sollte die Pro/GT ja wohl so langsam in dieser Preisklasse ankommen.
Und wenns Winter wird, ist es auch eigentlich egal.
Eigentlich hatte ich ja garnicht vor, mir dieses Jahr überhaupt ne neue zu kaufen. Dazu gefallen mir im moment weder ATI noch NVIDIA gut genug. (warum, sag ich lieber nicht, sonst wird hier mal wieder geflamed, egal von welcher seite)
Also kommt mir höchstens eine PVR in den Rechner.
Die würden bei mir einen gewaltigen Sympathiebonus guthaben.
Mal schauen was kommt.
ice cool69
2004-06-03, 19:30:22
Full Ack @ Barneygumble
Bei mir siehts genauso aus.
robbitop
2004-06-03, 19:45:16
ich wär bereit 400 abzudrücken, wenn sie die GT schlägt.
ice cool69
2004-06-03, 20:03:15
Rechne mal mit an die Konkurrenz angepasste Preise.
Wenn volles AF angeboten wird ist die Karte ihr Geld auch absolut wert.
Thowe
2004-06-03, 20:06:11
Ich hoffe das die HighEnd-Version der Karte bei 600,- Euro liegen wird und die Leistung dementsprechnend ist. Der Preis spricht ja auch gewissermaßen über Qualität, deshalb wäre es nicht unwichtig, hier auch HighEnd über diesen zu verdeutlichen.
barnygumble
2004-06-03, 20:11:00
bäh, 600€ für ne Graka, für das geld kann man ja schon in Urlaub.
robbitop
2004-06-03, 20:12:22
mehr als 400 würde ich echt nur ausgeben wenn das Teil die Konkurrenz förmlich zerquetschen würde.
Thowe
2004-06-03, 21:04:38
Original geschrieben von barnygumble
bäh, 600€ für ne Graka, für das geld kann man ja schon in Urlaub.
Ach was, lass dir von Ail verraten wo man in Griechenland günstig Urlaub machen kann und zwacke dann vom gesparten Geld das für die Karte ab.
Ausserdem, bei der Darstellungqualität der Karte ist eh alles plötzlich wie Urlaub.
z3ck3
2004-06-03, 23:31:39
Hiho, will jetzt endlich auch ma was sagen *g*
Was ich gerne bei der S5 hätte:
- Surroundgaming auf 3 Monitoren
- Anschlussmöglichkeiten natürlich auch für 3 Monis (2 mal DVI 1 mal VGA)
- Leistung ungefähr den neuen NVIDIA/ATI - Karten entsprechend
- Erscheinung innerhalb der nächsten 6 Monate (solange ist meine R9600Pro eh noch Top)
- Viel bessere Filtergualitäten als bei ATI/NVIDIA
- Auswahlmöglichkeiten von Optimierungen, die zwar etwas die Qualität mindern aber die Performance steigern
- Geil währe auch die Möglichkeit ähnlich wie frpher bei 3DFX eine zusätzliche Karte im Sys zu verbauen nur nicht wie damals per Kabel, sondern einfach nur als 2. Karte im 2. PCIE Slot
hab ich noch was vergessen? *überleg*
jaaaaa: 4 Versionen der Karte:
1. Passiv gekühlte Tripplehead-Version
2. Aktiv gekühlte Dualhead-Version Highend
3. Aktiv gekühlte Tripplehead-Version Highend
4. Aktiv/Passiv gekühlte Dualhead-Version Mainsream
ja ich weiß
1. Etwas weit hergeholt, aber man darf doch mal träumen
2. Mach ich echt viele Rechtschreibfehler *g*
Ailuros
2004-06-04, 06:59:18
Thowe,
600 klingt mir persoenlich zu viel. Ausser man wuerde eine Karte mit 512MB ram verpacken, was aber momentan eher Ueberfluss waere.
Ach was, lass dir von Ail verraten wo man in Griechenland günstig Urlaub machen kann und zwacke dann vom gesparten Geld das für die Karte ab.
Mit weniger als 600 kommt man schlecht davon heutzutage, ausser man packt ein Zelt, ein paar Dosen und schlummert am Flughafen fuer einen last-Minute Charterflug-Angebot.
------------------------------
Surroundgaming auf 3 Monitoren
Ich bezweifle dass sich solch ein Feature je durchsetzen wird in absehbarer Zeit. Hauptsaechlich weil es nicht kosten-freundlich ist. Wieviel Verbraucher werden sich ueberhaupt 3 Monitore zulegen?
Viel bessere Filtergualitäten als bei ATI/NVIDIA
Hmmmmmmm......
:bäh:
z3ck3
2004-06-04, 14:52:16
Ich bezweifle dass sich solch ein Feature je durchsetzen wird in absehbarer Zeit. Hauptsaechlich weil es nicht kosten-freundlich ist. Wieviel Verbraucher werden sich ueberhaupt 3 Monitore zulegen?
Es geht doch um die möglichkeit. Es verwenden immer mehr menschen 2 Monitore. Hatte zwischenzeitlich auch mal 3 an meinem Rechner, aber irgendwie hat sich die PCI Vanta nicht mit meiner Radeon vertragen. Und Monitore gibts doch schon für lau. Guck ma bei eBay.
3 monitore sind für Grafiker außerdem recht interessant. Arbeitet man mit indesign und PS gleichzeitig, kommen die ganzen Toolfenster zusammen auf den 2. Moni. hätte man 3 Monis, kann man besser differenzieren. Matrox bietet zwar die Möglichkeit, aber leider sind die Karten in meinen Augen zu teuer. Selbst eine G550 kostet noch ca. 90 €. und die kann nur 2 Monis *grml*
Und es kann doch wirklich net so viel teurer sein, noch nen RAMDAC unterzubringen. Und wenn des 20 € mehr kostet, bazahl isch das gerne dafür :)
Und es geht hier doch um Marketing. Das würde doch die Kyro so dermaßen von der Konkurenz abheben, das die auch bei 10% weniger Leistung trotzdem noch Pluspunkte beim Käufer hat.
Ailuros
2004-06-04, 15:14:24
Haette triple head eine grosse oder groessere Anfrage gehabt, haetten sich auch ATI/NVIDIA oder jeglicher anderer IHV dafuer entschieden.
Die einzige Loesung momentan ist Parhelia, aber fuer heutige Spiele taugt diese wohl auch nicht mehr viel.
Und Monitore gibts doch schon für lau. Guck ma bei eBay.
CRT oder LCD? Wenn es 19" sein sollten dann braucht man an die 800-900 euro fuer die ersten und fast doppelt so viel fuer drei LCDs von ueberdurchschnittlicher Qualitaet.
Und es geht hier doch um Marketing. Das würde doch die Kyro so dermaßen von der Konkurenz abheben, das die auch bei 10% weniger Leistung trotzdem noch Pluspunkte beim Käufer hat.
Hier ist Anfrage das magische Wort.
KYRO ist uebrigens ein ST Micro Trademark und wird auch nicht mehr als Name erscheinen. Wie es mit der Leistung aussehen wird und mit jeglichen moeglichen Vor- oder Nachteilen muessen wir wohl noch abwarten; triple-head wird auf jeden Fall nicht die Rettungsplanke sein. Das high end Publikum ist sowieso schon begrenzt und dabei noch diejenigen die triple-head gern haben wuerden auch die Minderheit.
Alle wird man nie zufriedenstellen koennen und ich bezweifle dass es je eine Loesung geben wird die ALLES haben wird dass sich alle Verbraucher wuenschen.
ice cool69
2004-06-04, 15:14:58
Ich glaube nur dass das Feature nicht gefragt ist. Dass du 20€ mehr bezahlen würdest kann die Sache nicht gerade finanzieren ;)
Ailuros
2004-06-04, 15:19:39
Original geschrieben von ice cool69
Ich glaube nur dass das Feature nicht gefragt ist. Dass du 20€ mehr bezahlen würdest kann die Sache nicht gerade finanzieren ;)
Profis die keine Spiele spielen sind dann schon gut aufgehoben mit einer Parhelia wenn ihnen triple-head von Nutzen ist.
Fuer Spiele braucht man erstmal Entwickler-Unterstuetzung fuer "surround-gaming", extra Treiber-support und dabei machen mich die Balken-Raender zwischen den Monitoren auch nicht gerade verrueckt. Angenommen uebrigens (1280*3)*960 = 3840*960 und dabei wird die Leistung auch nicht so besonders sein, ausser man spielt Antiken.
ice cool69
2004-06-04, 15:25:34
Einer Profikarte will ich das ja auch gar nicht absprechen. Die S5 ist aber 100% auf Spiele ausgelegt und hier haben sich 3 Monitore nicht durchgesetzt.
StefanV
2004-06-04, 15:50:12
Original geschrieben von Ailuros
Hier ist Anfrage das magische Wort.
Hm, Anfrage klingt irgendwie blöd, Nachfrage passt IMO etwas besser...
Wie dem auch sei:
Die Nachfrage nach TH GraKas dürfte im Profibereich (hm, würd mal Bildbearbeitung und sowas sagen) durchaus vorhanden sein, sogar QH GraKas würde man nicht abgeneigt sein.
Dummerweise stürzen sich die in den Büros nicht wie wild auf diese Karten und tauschen die mal eben aus, es wird (IMO leider) ein neuer Rechner gekauft...
Ailuros
2004-06-04, 16:02:59
Merci fuer die Korrektur :)
Ice hat es schon ja gesagt: wenn PowerVR alle paar Jahre mal eine Graka veroeffentlicht dann ist diese dann auch Gaming-orientiert.
Dummerweise stürzen sich die in den Büros nicht wie wild auf diese Karten und tauschen die mal eben aus, es wird (IMO leider) ein neuer Rechner gekauft...
Macht mir aber auch Sinn. Die Not fuer staendiges Aufruesten ist hier geringer als bei einem Gamer.
***edit: ich muss mir wohl doch noch ein Lexikon beschaffen *seufz*
robbitop
2004-06-04, 16:04:42
Korrektur
;)
z3ck3
2004-06-04, 17:10:59
Also ich setzt im Büro auch ATIs ein. Matrox ist Preisleistung einfach zu teuer. DH funzt super mit ATI. Und von der 3D leistung her kann man sogar noch nebenbei ein wenig in der Mittagspause daddeln ;) Auch wennd as nur alle paar Monate vorkommt.
TH funtzt ja auch mit ner 2. Graka. Kann mir nicht vorstellen, das das so viel teurer währe das auf einer einzigen Graka zu vereinen.
SurroundGaming ist toll, aber nicht wichtig., Für mich ist TH wichtig.
Ich setze nur CRTs ein, weil sie imemr noch die günstigere Variante sind. Leistungsaufnahme hin oder her, nen 19" CRT bekomm ich für ca. 80 € bei eBay. nen 19" TFT denk ich mal nicht unter 350 €.
2 mal DVI und 1 mal VGA hab ich nur gesagt, weil man so die möglichkeit hätte auch 1 CRT + 2 mal TFT Digital anzusteuern.
Naja, ich glaub ma können es sein lassen darüber zu labern, meine extrawünsche werden eh net erfüllt. Hoffen ma mal das die S5 mit meiner Vanta zusammen läuft, dann ist mir das eh egal :D
robbitop
2004-06-04, 17:14:17
DH ist wirklich ein nettes Feature. Aber nur wenn die Karte 2 gute Wandler hat. Ist einfach ein super starkes Arbeiten. Mit 3 Monitoren ginge das sicher noch besser.
ice cool69
2004-06-04, 18:06:39
Ich muss zugeben dass mir die praktische Erfahrung mit 2 oder gar 3 Monitoren fehlt, hier scheinen aber einige ganz schön begeister davon zu sein...
StefanV
2004-06-04, 18:07:17
Original geschrieben von z3ck3
Also ich setzt im Büro auch ATIs ein. Matrox ist Preisleistung einfach zu teuer. DH funzt super mit ATI. Und von der 3D leistung her kann man sogar noch nebenbei ein wenig in der Mittagspause daddeln ;) Auch wennd as nur alle paar Monate vorkommt.
TH funtzt ja auch mit ner 2. Graka. Kann mir nicht vorstellen, das das so viel teurer währe das auf einer einzigen Graka zu vereinen.
Hm, käme der Radeon IGP (9100) in Frage??
In Verbindung mit einer ATI GraKa soll TH möglich sein.
z3ck3
2004-06-04, 18:39:39
Hab ich bisher net probiert. Den einzigen Rechner mit Onboardgrafik (NF2G) hab ich meiner Ex angedreht, und da komm ich net mehr dran *g* aber dann währe auch nur DH möglich.
Was ich aber ja eigentlich will ist das TH auf einer Karte net auf 2 oder 3 *g*. Da hat man nicht das problem das man Hardware finden muss, die das mitmacht. Irgendwie klappt das net immer oder es setzt irgendwann aus. (TH lief bei mir ca. 2 Monate und dann auf einmal net mehr, wieso auch imemr)
Edit:
@ice cool69: Es erleichtert so einiges. Das ständige hi und herschalten zwischen den Anwendungen entfällt. Ist einfach Perfekt beim Surven und fast nicht mehr wegzudenken aus dem grafikbereich. 1 Monitoir nur für den Mozilla, und ein Moni hat alle anderen wichtigen Dinge wie IRC, Messenger und Winamp. Man verliert einfach nichts so schnell aus dem Blickfeld. Bei TH ists natürlich noch schöner. Hat dann auch ein wenig Matrix Style ;)
Killa Tomacco
2004-06-04, 19:30:17
Original geschrieben von loewe
Gehört zwar nicht ganz hier her, oder vielleicht doch :D, mag ja den einen oder anderen erfreuen!
http://www.mitrax.de/artikel.php?id=23
http://www.mitrax.de/bilder/duck5.jpg
Toller Artikel ! Die Ente auf dem Bild gefällt mir. So eine hätte ich sehr gerne.
Ailuros
2004-06-04, 19:33:50
Die Radeon IGP + Radeon Idee ist gut und die hatte ich total vergessen; ob das jetzt problemlos laeuft oder nicht weiss ich auch nicht.
Leistungsaufnahme hin oder her, nen 19" CRT bekomm ich für ca. 80 € bei eBay. nen 19" TFT denk ich mal nicht unter 350 €.
Geschacksache; bei mir kommt weder gebrauchtes noch zweitklassiger Qualitaet Zeug ins Haus ueberhaupt wenn es zu Bildschirmen kommt.
Ist einfach Perfekt beim Surven und fast nicht mehr wegzudenken aus dem grafikbereich. 1 Monitoir nur für den Mozilla, und ein Moni hat alle anderen wichtigen Dinge wie IRC, Messenger und Winamp. Man verliert einfach nichts so schnell aus dem Blickfeld. Bei TH ists natürlich noch schöner. Hat dann auch ein wenig Matrix Style.
Mal sehen ob zukuenftige OSs mehr an multitasking orientiert sind und wie (na Hoffnung stirbt bei Microsoft als letzte :D).
Alternative waere auch ein verrueckt grosser CRT (=/>22") oder dann eben gleich zwei, aber beim zeitigen 21" hier sind mir persoenlich selbst die ~2 Quadratmeter Bueroflaeche schon zu knapp. :D
Original geschrieben von Ailuros
Haette triple head eine grosse oder groessere Anfrage gehabt, haetten sich auch ATI/NVIDIA oder jeglicher anderer IHV dafuer entschieden.
>spekulation<
Ich könnte mir gut vorstellen das der neue PVR Series5-Chip für Triplehead ausgelegt wurde. Schließlich soll der Chip, nach allem was man so hört für PC, Console und Arcade gleichzeitig ausgelegt worden sein.
Für Arcades wäre ein Triplehead-Cabinet mal was nettes und würde den Series5 etwas von der Konkurrenz abheben. Da spielen dann die Kosten für 3 Highend-Monitore auch keine Rolle mehr. Vielleicht hat ja Sega dieses Feature verlangt und die PC-Spieler bekommen es deshalb auch.
Ailuros
2004-06-05, 02:21:00
Ich hab bis jetzt noch nichts von einer redenswerten Nachfrage gehoert was triple head betrifft und das in allen 3 Maerkten.
Hoffnung stirbt ja als letzte; ihr koennt von mir aus darauf hoffen. Ich sehe in der Idee trotzdem keine Zukunft.
z3ck3
2004-06-05, 03:18:28
Es gibt kein Bedarf weil es fast keiner kennt. Immer mehr Leute aus meinem Bekanntenkreis nutzen mitlerweile Dualhead. Fast jeder hat noch nen alten 15" oder nen 17" rumstehen der nicht genutzt wird, oder nur am Server hängt und nicht genutzt wird. Dualhead hat aber den Nachteil, das wenn man 2 Monitore benutzt den TV-Out nicht mehr paralel betreiben kann sondern dann einen Monitor ausklinken muss. Das ist das ätzende. Besonders für die die sich mit den Treibern nicht so auskennen und bei denen es einfach nur laufen muss. Glaubt mir, es gibt einen Markt, er ist nur noch nicht so wirklich entdeckt. Viele müssen es einfach erst mal erleben.
Letztens stand n Kollege an meinen Rechner "Whow das ja geil wusste garnicht das man mit der Mouse so einfach von einem Monitor zum anderen kann."
Dualhead ist wesentlich wichtiger als der ganze "3D-Quatsch" und irgendwelche funktionen, die sowieso erst 3 Generationen später funktionieren. TH würde von Anfang an funktionieren wenn es die Leute kennen würden. DH kennt auch fast keiner weil nicht darauf hingewiesen wird. Sie wissen wie viel Ram die KLarte hat und wie viel Punkt3e sie im Benchmark macht, aber was sie wirklich kann, das wissen se net. Diejenigen die ich kenne und DH benutzen werden da nie wieder mit aufhören. Lieber verzichten die da auf super leistung und super laute Lüfter.
DH und TH werden nicht beworben, weil es jeder könnte. Das Matrox es nicht geschaft hat lag eindeutig am Preisleistungsverhältnis. Und die meisten kannten auch nur NV und ATI.
Wenn es die ATI 9600 Nonpro als TH Version geben würde, wüsste ich gleich auf den schlag 2 Leute die es sofort haben wollten.
Naja egal, lass ma über was anderes spekulieren, das sind eh nur träumereien.
Es gibt bisher immer noch keine wirklich handfesten Infos zur S5 oder?
z3ck3
2004-06-05, 03:57:42
Was mich grad mal echt interessiert, weil grad gelesen in nem anderen Thread, ist die PCIE/AGP - Lösung.
Was könnte PVR in dieser Richtung machen? Evt. warten bis sich einesder beiden durchgesetzt hat, oder nur AGP anbieten? PCIE ist IMO doch auch nur Marketing. z.Z. jedenfalls noch. Genau wie damals AGP <=> PCI da hats ganz am Anfang auch nichts gebracht.
Ailuros
2004-06-05, 04:08:29
Dualhead ist wesentlich wichtiger als der ganze "3D-Quatsch" und irgendwelche funktionen, die sowieso erst 3 Generationen später funktionieren.
Fuer Dich und die handvoll Deiner Bekannten. Eine Gamer Karte ist eben fuer den sogennanten 3D Quatsch ausgelegt.
Das Matrox es nicht geschaft hat lag eindeutig am Preisleistungsverhältnis.
Und wer sagt Dir dass Serie5 billiger sein wird als Parhelia? Das bessere Preis/Leistungsverhaeltnis wird dann wohl von dem "nutzlosen 3D Quatsch" kommen.
Deine beste Chance fuer triple head ist nun mal Parhelia und fuer jemand dem eindeutig "3D Quatsch" egal ist, ist Spiele-Leistung wohl auch gleichgueltig.
Du kannst gerne weiterhin darauf bestehen, aber IHVs haben ganze Forschungsteams die sich mit der moeglichen Nachfrage von Features beschaeftigen. PowerVR koennte man noch entschuldigen als Subdivision einer IP Firma, grosse IHVs wie ATI oder NVIDIA dann eben nicht, denn hier kann man die Nachfrage auf Features im jeden Markt so schnell wie moeglich gedeckt werden. Es kann sein dass Dir die Gleichgueltigkeit der beiden Grossen und auch Intel´s nicht zu sagen hat, aber anscheinend legt die Mehrheit dann doch mehr Wert auf 3D, als extravagante 2D Features.
z3ck3
2004-06-05, 04:27:33
mit 3D-Quatsch meine ich funktionen die über das hinausgehen was sinvoll für 3D-Beschleunigung geht. Und reiner Marketing ist. Wie Funktionen die erst in 2 Jahren von games unterstützt werden und diese Games dann sowieso nicht mit der Karte laufen würden weil sie zu schwach ist.
Wenn der User kein Verlangen hat etwas zu besitzen, muss man das Verlangen erzeugen. Das ist Werbung.
Und nach dem was du sagst, könnte man dann ja auch sagen, das man keine AF und AA bräuchte, weil nur die wenigsten das kennen und wollen.
So das war mein letzter beitrag zum Thema TH *grml* *g*
Ailuros
2004-06-05, 04:54:59
Office User sind mit 2D Karten auch besser aufgehoben:
mit 3D-Quatsch meine ich funktionen die über das hinausgehen was sinvoll für 3D-Beschleunigung geht. Und reiner Marketing ist. Wie Funktionen die erst in 2 Jahren von games unterstützt werden und diese Games dann sowieso nicht mit der Karte laufen würden weil sie zu schwach ist.
Nutzlos sind in dem Fall nur Features die NIE unterstuetzt werden; diejenigen die dann spaeter unterstuetzt werden heisst dann auch dass Entwickler davon guten Nutzen gemacht haben und daher auch nicht nutzlos sind.
Es ist zwar wahr dass bei high end Karten viele Faehigkeiten fuer den End-Verbraucher quasi nutzlos sind, aber es ist auch nicht so dass er nicht high end Leistung fuer sein Geld in den meisten Faellen bekommt. Fuer die Entwickler aber dann im Gegenteil nicht, denn ohne existierende Hardware kann man auch schwer etwas entwickeln wenn ueberhaupt; von dem Resultat profitiert der Gamer dann natuerlich auch und das ist den meisten von uns auch bewusst. Es war schon immer so und da hat sich auch nichts daran geaendert durch die Jahre.
Und nach dem was du sagst, könnte man dann ja auch sagen, das man keine AF und AA bräuchte, weil nur die wenigsten das kennen und wollen.
Antialiasing und Anisotropic Filtering gibt es in Imaging sowohl auch in Cinematographie seit Jahrzehnten; es war nur eine Frage der Zeit dass diese im PC Bereich erschienen. Und ja fuer die heutigen Verhaeltnisse ist die Leistung mit AA/AF in hohen Aufloesung eines der wichtigsten Faktoren fuer high end Grafikkarten. Grafikkarten sind so stark geworden dass solche Features heutzutage sogar brauchbar im Mainstream Markt sind und es wird auch nicht lange dauern bis sich diese noch besser im Budget Markt ausspielen werden.
Lange wird es nicht dauern bis 3D sich sogar in desktops durchsetzen wird und da werden Features wie AA oder AF genauso notwendig sein um stoerende Seiteneffekte zu beseitigen. Das hat aber auch gar nichts mit triple head zu tun.
z3ck3
2004-06-05, 13:21:16
Nun ja magst ja auch recht haben, doch ist es wichtig das der Desktop Klickibuntiger wierd statt Dinge einzubauen, die dem User echt nutzen? Naja wie auch immer, das nicht das Thema.
Hatte schon ma das thema PSIE/AGP angeschnitten, was meint ihr in hinsicht der S5, was es geben wird? Wie es PWR lösen könnte?
Ailuros
2004-06-05, 14:05:19
Was 2D/multimedia Schnickschnack betrifft koennte man einen Blick auf die Deltachrome richten und dann eben noch an die zusaetzlichen Moeglichkeiten die man vom SM3.0 noch ziehen koennte (siehe auch NV40).
Nun ja magst ja auch recht haben, doch ist es wichtig das der Desktop Klickibuntiger wierd statt Dinge einzubauen, die dem User echt nutzen?
Meine und Deine Meinung sind doch im Grunde egal. Glaubst Du wirklich dass es eine nennenswerte Nachfrage im Markt gab und dass IHVs diese mit Absicht uebersehen haben?
Nochmal ganz vereinfacht: es gibt dafuer Forschungsteams die den Markt "abschnueffeln" um zu sehen was notwendig und verbreitet erwuenscht ist. Und nein hier gilt das "was der Bauer nicht kennt..." Sprichwort wohl nicht da es auf veroeffentlichter Hardware - sprich Parhelia - vorgestellt und verkauft wurde. Wuerden Verbraucher es als eine gute Idee empfinden dann haette man dieses sich auch gewuenscht und die IHVs waeren diesen Wuenschen auch nachgekommen; und ja ein dritter RAMDAC ist tatsaechlich kein allzu grosser Aufwand mehr.
Hatte schon ma das thema PSIE/AGP angeschnitten, was meint ihr in hinsicht der S5, was es geben wird? Wie es PWR lösen könnte?
Nicht die leiseste Ahnung. Ich hab sowieso Zweifel dass PCI-E einen grandiosen Unterschied machen wird, denn die CPU hockt ja stets auf der falschen Seite des Busses und mit ein paar Aussnahmen sollte man die Finger davon lassen Daten ueber jeglichen Bus zu jagen, egal wieviel Bandbreite dieser auf Papier behauptet.
In dem Fall ist es sowieso ein breiteres und komplizierteres Thema dass das ganze System betrifft und hier (egal ob AGPx8, AGPx16 oder PCI-E), sehe ich momentan noch keine grandiose Unterschiede wenn sich die System-Speicher-Bandbreite nicht um einiges ueber die CPU Bandbreiten abhebt.
Natuerlich braucht man >AGPx8 Protokolle aus Kompatibilitaetsgruenden oder auch Bruecken, oder was immer auch; Strom-verwaltung ist natuerlich mit PCI-E um einiges besser.
loewe
2004-06-05, 21:19:40
Original geschrieben von z3ck3
Hatte schon ma das thema PSIE/AGP angeschnitten, was meint ihr in hinsicht der S5, was es geben wird? Wie es PWR lösen könnte?
Ich weiß zwar nicht genau was sie tun werden, aber ich rechne erst einmal mehr mit einer AGP Lösung.
Es geht hier um Gamer Karten, die Gamer haben wohl noch eine Zeit lang AGP Systeme, womit das wohl für den Anfang eine gute Wahl wäre.
Später kommen dan vielleicht weitere Varianten dazu.
ice cool69
2004-06-07, 20:22:19
Und gibts schon was neues?
Quasar
2004-06-07, 21:00:34
Wart's ab, Donnerstag...
robbitop
2004-06-07, 21:12:09
sehr witzig Quasar..der kommt immer wieder gut ;)
aber leider ist er in diesem Threat schon 3 mal erzählt worden ^^
Surround Gaming find ich Klasse, so richtig "immersive". Man muss es mal erlebt haben, das "Haben-will-Feeling" dürfte sich sicher bei manchem einstellen. Zu doof bringen NVDA und ATI das nicht auf die Reihe, für mich wär das echt ein Kaufgrund für das eine oder andere Produkt.
Solange die Kosten für 3 kleinere LCDs/CRTs um Faktoren unter jenen eines Mega-Panels liegen, sehe ich grundsätzlich Anwendungszwecke für das Feature. Vor allem beim Arbeiten ist es gegenüber DH ein grosser Fortschritt. Den Hauptmonitor in der Mitte zu haben flankiert von zwei Parkfeldern ist schon praktisch. :)
robbitop
2004-06-07, 22:20:19
@ram
schön dich mal wieder zu sehn =)
ich habe DH im Einsatz mit meiner FX. Aber ich kenn leider keine Spiele, die das ernsthaft unterstützen. Bei X2 hatte ich das Zielkreuz genau in der mitte..super *kotz* ...
kannst du mir ein paar Games nennen, die das unterstützen?
Thowe
2004-06-07, 22:37:49
Original geschrieben von robbitop
@ram
schön dich mal wieder zu sehn =)
ich habe DH im Einsatz mit meiner FX. Aber ich kenn leider keine Spiele, die das ernsthaft unterstützen. Bei X2 hatte ich das Zielkreuz genau in der mitte..super *kotz* ...
kannst du mir ein paar Games nennen, die das unterstützen?
Interessant wäre Mehrschirmbetrieb auch für Rollenspiele, schön das Inventory, die Map, das Tagebuch auf den zweiten Schirm wärend man auf den ersten noch spielt.
Original geschrieben von Thowe
Interessant wäre Mehrschirmbetrieb auch für Rollenspiele, schön das Inventory, die Map, das Tagebuch auf den zweiten Schirm wärend man auf den ersten noch spielt.
EQ2 wird 2Schirm Modus unterstützen. Ich denke das dort weitere MMORPGs nachziehen werden.
Es ist wirklich extrem praktisch, vor allem wenn das Spiel auchnoch nen www-Browser integriert (wie z.B. in eve).
eve wäre ein Kandidat, in dem ich mir 2 Schirme wünschen würde um der Fensterflut Herr zu werden :D
zum Thema Surroundgaming ist sicher noch net das letzte Wort gesprochen.
z3ck3
2004-06-08, 00:14:30
Naja, zocken auf 2 Monitore ist denk ich mal nicht das allertollste, da müssten schon 3 her.. also TH...
Arbeiten ist mit 2 schon ok, und auch der Alltag am PC lässt sich besser meistern.
2 Monitore ist denk ich mal nur dann sinnfoll in Games, wenn es explizit unterstützt wird. n Fadenkreutz genau da wo die Monitore an einader sind ist ja krank... aber z.B. 3D links und rechts die Map... das währe net schlecht. Oder irgendwelche Comandos abgeben. Einheiten beobachten usw. da bräuchte man dann alerdings auch ne 2. Mouse. sonst kann man ja net schnell genug wechseln oder *nachdenk* höchstens per Hotkey... ach auch egal... kommt bestimmt irgendwann alles und dann werden sich die Coder schon was einfallen lassen :D
Bis dahin hab ich auf meinem 2. Moni beim Zocken immer Trillian und oder Mozilla auf. Genau wie MBM5.
HOT@Work
2004-06-08, 09:58:12
Original geschrieben von z3ck3
Naja, zocken auf 2 Monitore ist denk ich mal nicht das allertollste, da müssten schon 3 her.. also TH...
Arbeiten ist mit 2 schon ok, und auch der Alltag am PC lässt sich besser meistern.
2 Monitore ist denk ich mal nur dann sinnfoll in Games, wenn es explizit unterstützt wird. n Fadenkreutz genau da wo die Monitore an einader sind ist ja krank... aber z.B. 3D links und rechts die Map... das währe net schlecht. Oder irgendwelche Comandos abgeben. Einheiten beobachten usw. da bräuchte man dann alerdings auch ne 2. Mouse. sonst kann man ja net schnell genug wechseln oder *nachdenk* höchstens per Hotkey... ach auch egal... kommt bestimmt irgendwann alles und dann werden sich die Coder schon was einfallen lassen :D
Bis dahin hab ich auf meinem 2. Moni beim Zocken immer Trillian und oder Mozilla auf. Genau wie MBM5.
Bei Shootern hast du da sicher Recht aber bei RPGs sieht die Sache anders aus. Du braucht da ja net beide Monitore für den Sichtbereich, sondern hast den 2. Monitor um Infofenster wie z.B. Inventory aus dem Spielbildschirm rauszubekommen.
Mave@Work
2004-06-08, 10:22:40
Original geschrieben von Mave@Work
Ail hast du irgendwelche neuen Informationen, die Du uns mitteilen willst/kannst.
Wann kommt er denn nun ?
Was sind die Features ?
Taktraten ?
Preise ? :D
Na Ail ? ;D
Ailuros
2004-06-08, 18:06:41
Ich will schon; ich kann nur nicht ;)
MechWOLLIer
2004-06-08, 18:34:12
Original geschrieben von Ailuros
Ich will schon; ich kann nur nicht ;)
Und wann kannst du?;D
Oder darfst du das auch nicht können?:)
Ailuros
2004-06-08, 18:52:05
Wie ich schon auf B3D sagte, das einzige was momentan sicher ist, ist dass alle PVR Angestellte als total ueberfoerdert erscheinen. Ich will hoffen dass es zu Gutem ist und dass eine Ankuendigung bald kommt.
Ein paar Spekulationen kann ich trotzdem versuchen:
Wann kommt er denn nun ?
Es sieht nach bald aus; ist aber keine Garantie mit IMG und deren IP Quark.
Was sind die Features ?
=/>NV40
Taktraten ?
Hmmmm....=/>NV40 ? (mit Vorbehaltung; ich hab keine Ahnung).
Preise ?
< NV40.
Und genauer kann ich wirklich nicht werden.
Original geschrieben von robbitop
ich habe DH im Einsatz mit meiner FX. Aber ich kenn leider keine Spiele, die das ernsthaft unterstützen. Bei X2 hatte ich das Zielkreuz genau in der mitte..super *kotz* ...
kannst du mir ein paar Games nennen, die das unterstützen?
Für Tripple-Head-Games führt Matrox eine Liste (http://www.matrox.com/mga/3d_gaming/surrgame.cfm). Auch wenn der Support für TH ziemlich simpel zu integrieren ist dürfte die Liste nicht sonderlich schnell wachsen wenn niemand in dem Marktsegment konkurrenzfähige Tripple-Head-Produkte anbietet.
Für DualHead gibts auch so eine (http://www.matrox.com/mga/3d_gaming/enhanced.cfm), die wird aber nicht mehr nachgeführt. Da sind die game-relevanten Anwendungszwecke aber sowieso eingeschränkt, da ja sinnvollerweise nur Maps etc. auf den zweiten Moni ausgelagert werden können.
z3ck3
2004-06-08, 19:25:54
=/>NV40
< NV40
=/>NV40
.
.
.
sieht sehr vielversprechend aus ;) *fg*
Kann immer noch alles sein. Nur warscheinlich ohne mein TH *heul* Verdammt, das heißt immer noch net DVD-Gucken + 2 Monis gleichzeitig... Aber vielleicht funzt ja die S5 zusammen mit meienr Vanta oder ner Kyro :)
z3ck3
2004-06-08, 19:27:02
Nachtrag: Son Macrovisionquatsch wie bei NVIDIA wirds wohl net geben oder? Weil wenn doch, dann kann ich mir die Karte eh gleich abschreiben.
Corrail
2004-06-08, 19:30:49
Original geschrieben von ram
Für Tripple-Head-Games führt Matrox eine Liste (http://www.matrox.com/mga/3d_gaming/surrgame.cfm). Auch wenn der Support für TH ziemlich simpel zu integrieren ist dürfte die Liste nicht sonderlich schnell wachsen wenn niemand in dem Marktsegment konkurrenzfähige Tripple-Head-Produkte anbietet.
Ist das geil! Hab grad UT2004 auf 2 Monitoren ausprobiert und es ist uurr cool (bis darauf dass in der Mitte genau der Spalt zwischen den Monitoren ist)!
Also ich würde eine TH Unterstützung nur begrüßen!!
Zum Thema:
@Ailuros
Kannst du oder darfst du nicht mehr sagen? ;)
ice cool69
2004-06-08, 19:38:38
Er darf anscheinend nicht.
Aquaschaf
2004-06-08, 20:05:58
Stört es nicht, dass das Bild an der Stelle durchtrennt ist an der das Fadenkreuz liegt?
Corrail
2004-06-08, 20:06:49
Original geschrieben von ice cool69
Er darf anscheinend nicht.
Das hört sich schon mal nicht schlecht an, hoffe dass auf PowerVR was wird. Nachdem ich den Thread gelesen und mitverfolgt habe wird mir PVR immer sympatischer.
Corrail
2004-06-08, 20:18:18
Original geschrieben von Aquaschaf
Stört es nicht, dass das Bild an der Stelle durchtrennt ist an der das Fadenkreuz liegt?
Ja, eh, das ist ja das blöde daran. Aber vom Sichtwinkel usw. Echt genial!
Ailuros
2004-06-08, 23:59:46
Ich will hoffen dass ziemlich bald etwas angekuendigt (wann weiss wohl IMG nur selber und will es offensichtlich auch nicht freigeben) und praesentiert wird.
Es wird wohl fuer so manche angenehme Ueberraschungen geben, wenn man an die Gespraechs-themen der letzten Zeit denkt. ;)
TheCounter
2004-06-09, 00:40:58
Na da bin ich doch mal gespannt, ende des Jahres kommt nen neuer PC her, nen A64 + PowerVR S5 wär sicher nicht schlecht ;)
Würde doch bestimmt wieder so nen schönen Test-Artikel auf 3dc geben, oder? ;)
stickedy
2004-06-09, 02:12:16
Hat es nen tieferen Hintergrund, dass z.Z. keine ImgTec-Homepages erreichbar sind?
ActionNews
2004-06-09, 06:19:26
Original geschrieben von stickedy
Hat es nen tieferen Hintergrund, dass z.Z. keine ImgTec-Homepages erreichbar sind?
Also bei mir gehen sie im Moment.
CU ActionNews
PS: Ich freue mich auch schon auf die Serie 5 :). Mein Athlon64 3200+ braucht einen geeigneten Partner ;). Zumindest sagen fast alle meine Radeon9600XT wäre nix für einen Athlon 64 :D. Ich hoffe ein 300 Watt Netzteil reicht :bäh:.
loewe
2004-06-09, 08:27:42
Original geschrieben von stickedy
Hat es nen tieferen Hintergrund, dass z.Z. keine ImgTec-Homepages erreichbar sind?
Ja, Rechner laufen nicht ohne Strom! ;D
loewe
2004-06-09, 08:28:52
Original geschrieben von ActionNews
PS: Ich freue mich auch schon auf die Serie 5 :). Mein Athlon64 3200+ braucht einen geeigneten Partner ;). Zumindest sagen fast alle meine Radeon9600XT wäre nix für einen Athlon 64 :D. Ich hoffe ein 300 Watt Netzteil reicht :bäh:.
Für die Serie 5 Karte allein wird es sicher reichen! :D
Also wenn das nun wirklich stimmen sollte, dass bald die Serie 5 rauskommen sollte dann ist das für mich nur zu tragisch :( . Ich als alt eingestandener Kyro-User ( hatte Kyro 1 wie Kyro 2 und habe sie geliebt) muss ich nun aus finanziellen Gründen auf einen eigenen Computer verzichten und da kommt plötzlich eine solche Nachricht. Ich habe so lange gewartet auf den Kyro2 SE, wobei ich mir den auch gekauft hätte auch wenn es ein Flopp gewesen wäre, dann auf die 3er Serie die nach loewe leistungsmäßig auch nicht schlecht darstehen sollte und jetzt wo ich zwar die Hoffnung nicht ganz aber zum größten Teil aufgeben habe kommt wahrscheinlich mein lang ersehntes Baby :( . Dabei muss ich wirklich sagen auch wenn ich mich mit diesem ganzen technischen Pillepalle nicht auskenne, dass ich doch zu einem richtigen Kyro Fan geworden bin und schon allein aus Prinzip diese Karte kaufen würde :) . Aber ich glaube es wäre doch schon etwas zu weit mit mir wenn ich mir diese Karte kaufen wäre ohne im Grunde einen Computer zu besitzen mit dem ich sie betreiben könnte ;). TRAGIK!!!
ilPatrino
2004-06-09, 11:10:47
Original geschrieben von loewe
Für die Serie 5 Karte allein wird es sicher reichen! :D
ok, dann wiederhol ich mal die frage mit nem soliden, aber keinem wirklich teuren 350w nt (und erwarte ne dumme antwort; klingt aber so, als ob der chip einiges saugen dürfte)
Ja, Rechner laufen nicht ohne Strom! ;D
und wer hat vergessen, die rechnung zu bezahlen?:D oder hat da jemand nen testrechner mit obiger graka eingeschaltet und das netz überlastet?
:O
ich laß mich überraschen, wobei die s5 mitlerweile doch recht hoch auf meiner haben-wollen-liste steht. muß mir nur noch was für die finanzierung ausdenken...
Ailuros
2004-06-09, 18:13:49
Mal ganz generell zu Netzteilen und auch auf existierende HW bezogen die schon mehr als 1.5 Jahre alt ist. Wenn man sich ein Netzteil der 30 euro Kategorie z.B. kauft, dann ist die angegebene Leistungsaufnahme nicht unbedingt garantiert und mit der normalen "was man bezahlt bekommt man auch Logik" sollte man wissen dass man ein gewisses Risiko eingeht; noch mehr wenn auch eine ueberdurchschnittliche Anzahl von Geraeten im PC installiert sind.
Ganz einfaches Beispiel: ATI hat fuer die 9700 Reihe als Beispiel ein 300W Netzteil vorgeschlagen. Kauft mir jetzt jemand ein 300W PSU mit 30-40 euro von einem Hersteller den nur der Verkauefer kennt und installiert es in ein System mit einem stark uebertakteten high end CPU, zahllosen von case fans, 4 oder mehr IDE, mehr als 1GB Speicher und weiss der Geier was noch an PCI und/oder USB Geraeten, dann sollte es verstaendlich sein dass das Risiko hier zu gross ist.
Heutzutage kommen hochleistungsfaehige Karten um wenigstens einen molex connector (mit AGP) nicht mehr herum. Noch einfacher 300 oder mehr Watt bei Antec sind nicht die gleichen Watt wie bei Borgo Sphinxter, falls das helfen sollte.
ice cool69
2004-06-09, 19:26:35
Zum Glück habe ich ein 450 Watt Qualitäts-Silent Netzteil, über sowas muss ich mir keine Gedanken machen.
Wann stellt denn SEGA mal das neue Arcadeboard auf PVR-Basis vor? Gibts da noch nichts Konkretes?
loewe
2004-06-09, 20:00:50
Original geschrieben von ilPatrino
ok, dann wiederhol ich mal die frage mit nem soliden, aber keinem wirklich teuren 350w nt (und erwarte ne dumme antwort; klingt aber so, als ob der chip einiges saugen dürfte)
Du hast es ja nicht anders gewollt! ;)
Ist ganz schwer aus der Ferne zu beurteilen, wenn ein 350 W Netzteil, wie hier bei 3DC geschehen für eine Geforce 6800 reicht, dann sicher auch für eine Karte mit Serie 5 Chip. :) Es sind aber wohl eher verschieden Netzteile und auch verschiedene Rechner, du wirst es also selbst testen müssen.
Original geschrieben von ilPatrino
und wer hat vergessen, die rechnung zu bezahlen?:D oder hat da jemand nen testrechner mit obiger graka eingeschaltet und das netz überlastet?
:O
Nein, sie haben das dritte Testsample von Serie 5 in Betrieb genommen und vergessen vorher die beiden anderen Rechner runter zu fahren. *G*
ice cool69
2004-06-13, 11:14:55
@ loewe
Sind das deine persönlichen Mutmaßungen oder hast du tatsächlich Infprmationen über eine S5-Grafikkarte?
Ich meine dass man schließlich sehr gut abschätzen kann dass die S5 weniger Saft braucht als der NV40 da weniger Transistoren verwendet werden.
Aquaschaf
2004-06-13, 14:18:19
Original geschrieben von Ailuros
Es wird wohl fuer so manche angenehme Ueberraschungen geben, wenn man an die Gespraechs-themen der letzten Zeit denkt. ;)
Niedriger Stromverbrauch und unoptimierte Filterung? :)
loewe
2004-06-13, 14:27:51
Original geschrieben von ice cool69
@ loewe
Sind das deine persönlichen Mutmaßungen oder hast du tatsächlich Infprmationen über eine S5-Grafikkarte?
Ich meine dass man schließlich sehr gut abschätzen kann dass die S5 weniger Saft braucht als der NV40 da weniger Transistoren verwendet werden.
Du fragst mich ob ich Informationen über eine S5 Grafikkarte habe und behauptest hier einfach so, sie wird weniger Transistoren haben als NV40! :)
Woher weißt du das, hast du Informationen über S5 oder gehst du davon aus, dass jeder weniger Transistoren haben muss?
robbitop
2004-06-13, 15:18:35
die Frage ist, ob PVR nur mit der Konkurenz mithalten will, oder ob man sie erstmal versägen will..
Ich denke mal mit ähnlichem Aufwand, würde ein TBDR einen IMR schon in vielen Situationen zerlegen.
Aber wenn ihnen gleichschnell oder konkurenzfähig reicht, dann sollten sie mit deutlich weniger Transistoren auskommen.
Mit 16 TMUs und einem 256bit DDR interface (Dass die Ausführungseinheiten und deren Anordnung gut hinhauen, das mutmaße ich einfach mal), dürfte Serie5 wohl echt ein Knaller werden.
Original geschrieben von loewe
Du fragst mich ob ich Informationen über eine S5 Grafikkarte habe und behauptest hier einfach so, sie wird weniger Transistoren haben als NV40! :)
Woher weißt du das, hast du Informationen über S5 oder gehst du davon aus, dass jeder weniger Transistoren haben muss? NV war ziemlich mutig, so ein Chipmonster in 0.13 fertigen zu lassen. Dass Kleinkrauter wie PowerVR so mutig sind, würde ich bezweifeln.
mal gaaaanz alte Akten rauskramen (Jahr 2001):
http://www.3dcenter.org/artikel/2001/01-12a-pic1.php
http://www.3dcenter.org/artikel/2001/06-12.php
Was sieht man?
1. Die Roadmap ist überholt.
2. Die Serie5 wird seit mindestens 3 Jahren entwickelt. Der Chip sollte also fertig sein.
3. Basierend auf den Spezifikationen des Kyro 2 und 3 würde ich persönlich zunächst ein 8x1-Design erwarten. Nun könnte die Serie5 auch bereits nach modernen Gesichtspunkten designed sein (siehe NV40), so daß dieser grundsätzlich logische Schritt überholt ist.
Ich erwarte allerdings nicht von PVR, daß sie die gleiche Komplexität wie nv beim nv40 erreichen. Ein 8x1 oder 12x1 in Verbindung mit PS3.0 erscheint mir realistischer. Bliebe die Frage, ob diese Konstellation einen HighEnd-Chip hervorbringt.
stickedy
2004-06-13, 17:02:35
8x1,12x1,16x1 usw usf
Löst euch doch mal von diesen starren Gebilden...
ice cool69
2004-06-13, 17:07:50
@ Axel
Wenn die TBDR-Technik ähnlich gut Performance bringt wie bei der Kyro2, so dürfte ein 12x1-Chip es trotzdem locker mit einem NV40/R420 aufnehmen können.
@ loewe
Bist du Politiker oder warum antwortest du auf meine Frage mit einer Gegenfrage?
Ich werde deine Frage beantworten sobald du die deinige beantwortet hast, immer schön der Reihe nach...
robbitop
2004-06-13, 17:07:58
soweit ist es in der Praxis leider noch nicht Stickedy.
klar limitieren in Grenzsituationen auch mal andere Dinge, wie aritmetische Endleistung, aber zZ ist die effektive Füllrate noch verdammt wichtig. Und das Sprechen über X*Y wird solange bleiben bis man Arrays von Ausführungseinheiten hat, die dynamisch verschaltet werden können.
loewe
2004-06-13, 17:08:49
Original geschrieben von robbitop
die Frage ist, ob PVR nur mit der Konkurenz mithalten will, oder ob man sie erstmal versägen will..
Ich denke mal, sie wollen eigentlich ganz was anderes, aber es wird dabei auf jedne Fall ein kunkurrenzfähiger Chip heraus gekommen sein. :)
Original geschrieben von robbitop
Ich denke mal mit ähnlichem Aufwand, würde ein TBDR einen IMR schon in vielen Situationen zerlegen.
Aber wenn ihnen gleichschnell oder konkurenzfähig reicht, dann sollten sie mit deutlich weniger Transistoren auskommen.
Das stimmt so nicht, nicht die Pipelines oder was man auch immer darunter verstehen will brauchen die Transistoren, sondern die Shader. Wenn man einen Chip baut mit Shader 3.0 oder so ähnlich und diese die Nummer auch verdienen sollen, dann braucht man dafür Transistoren.
Dort stecken sie auch bei NV.
Original geschrieben von robbitop
Mit 16 TMUs und einem 256bit DDR interface (Dass die Ausführungseinheiten und deren Anordnung gut hinhauen, das mutmaße ich einfach mal), dürfte Serie5 wohl echt ein Knaller werden.
Das hatten wir schon mal, zu den TMUs sag ich nichts mehr und 256 bit DDR sind völlig überdimensioniert für TBDR ala PowerVR, was abr njicht heißen soll das sie 128 bit haben. :)
loewe
2004-06-13, 17:17:16
Original geschrieben von ice cool69
@ Axel
Wenn die TBDR-Technik ähnlich gut Performance bringt wie bei der Kyro2, so dürfte ein 12x1-Chip es trotzdem locker mit einem NV40/R420 aufnehmen können.
zustimm
will aber nichts bezüglich der Struktur von S5 heißen!
Original geschrieben von ice cool69
Ich werde deine Frage beantworten sobald du die deinige beantwortet hast, immer schön der Reihe nach...
Ok, als Antwort auf deine Frage: Nein, Ja.
reicht? :)
robbitop
2004-06-13, 17:22:44
ach überdimensionieren kann man bei einer Grafikkarte nie imo ;)
Aber ich kann mir vorstellen, dass sie gar nicht vorhaben, die Konkurenz zu versägen.
stickedy
2004-06-13, 17:30:54
Da könntest du irren
Das hatten wir schon mal, zu den TMUs sag ich nichts mehr und 256 bit DDR sind völlig überdimensioniert für TBDR ala PowerVR, was abr njicht heißen soll das sie 128 bit haben.
Naja für die Texturen wäre das schon ganz praktisch
robbitop
2004-06-13, 17:35:15
Original geschrieben von stickedy
Da könntest du irren
das hoffe ich doch :)
Thowe
2004-06-13, 17:49:12
Original geschrieben von stickedy
8x1,12x1,16x1 usw usf
Löst euch doch mal von diesen starren Gebilden...
Eben, skalare Recheneinheiten sind was feines.
mrdigital
2004-06-13, 17:54:11
Original geschrieben von Thowe
Eben, skalare Recheneinheiten sind was feines.
huh? Wie meinste das?
Original geschrieben von stickedy
8x1,12x1,16x1 usw usf
Löst euch doch mal von diesen starren Gebilden...
Gerne doch.
Aber erst wenn ich aths neue Zählweise wirklich verstanden habe. :)
Dieses 16x1 etc. ist halt so schön einfach und griffig.
Hat aber überhaupt keine Aussagekraft.
robbitop
2004-06-13, 19:17:49
zu einem gewissen Maß schon. Aber das sagte ich ja bereits.
Thowe
2004-06-13, 19:23:46
Original geschrieben von mrdigital
huh? Wie meinste das?
Ähnlich wie beim P10 - http://www.3dcenter.de/artikel/2002/05-05_a.php
mrdigital
2004-06-13, 19:54:27
Original geschrieben von Thowe
Ähnlich wie beim P10 - http://www.3dcenter.de/artikel/2002/05-05_a.php
und was hat das mit skalaren Recheneinheiten zu tun?
Original geschrieben von loewe
Ich denke mal, sie wollen eigentlich ganz was anderes, aber es wird dabei auf jedne Fall ein kunkurrenzfähiger Chip heraus gekommen sein. :)Woher weißt du das?
loewe
2004-06-13, 20:37:24
Original geschrieben von aths
Woher weißt du das?
Du weißt das diese Fragen, und du stellst eigentlich immer nur solche Fragen, niemals beantwortet werden werden.
Aber trotzdem, auf den ersten Teil wirst du wohl eher niemals eine Antwort bekommen, auf den zweiten Teil eher bald. :)
Thowe
2004-06-13, 22:06:29
Original geschrieben von mrdigital
und was hat das mit skalaren Recheneinheiten zu tun?
Hmmm, lies mal hier -> http://www.beyond3d.com/articles/p10tech/index.php?page=page3.inc
Entarger
2004-06-13, 22:15:44
Original geschrieben von stickedy
8x1,12x1,16x1 usw usf
Löst euch doch mal von diesen starren Gebilden...
Ich erinner' mich dunkel an eine Meldung, in der stand, das PowerVR an einer Technologie arbeitet (oder schon besitzt?) die es ermöglicht einen Chip komplett variabel herzustellen.
D.h. zum Beispiel, der ist konform zu zukünftigen DirectX-Versionen (auch wenn Ihre Spezifikationen noch nicht bekannt sind :D)
Also wenn ich die Meldung von damals richtig verstanden habe ist es glaube ich das, was stickedy meint.
robbitop
2004-06-13, 23:42:19
stimmt es waren skalare SIMDs.
Nicht unbedingt gut für die Leistung wenn Vec3 gefragt ist.
Original geschrieben von loewe
Du weißt das diese Fragen, und du stellst eigentlich immer nur solche Fragen, niemals beantwortet werden werden.
Aber trotzdem, auf den ersten Teil wirst du wohl eher niemals eine Antwort bekommen, auf den zweiten Teil eher bald. :) Ehe ATI wirklich konkurrenzfähig war, brauchten sie drei Anläufe. Dass PowerVR was tolles in Mache hätte hast du schon öfters angedeutet. Bislang sehe ich keine Produkte. Deshalb frage ich mich, wie gut deine Quellen sind. (Sry wegen der Direktheit.)
Aber vielleicht können wir das alles mal direkt bequatschen – es steht noch ein Beobachtungsabend mit dem Fernrohr aus :)
Original geschrieben von robbitop
stimmt es waren skalare SIMDs.
Nicht unbedingt gut für die Leistung wenn Vec3 gefragt ist. Nur eine Frage der Anzahl der Units. Wobei der Verwaltungsaufwand bei vielen kleinen Einheiten natürlich steigt. NV40 zeigt, dass es auch andere Möglichkeiten gibt, die Effizienz zu steigern. (Das heißt natürlich nicht, dass Nvidias Weg der bessere sei.)
(Man könnte z. B. auch eine Art Mittelweg zwischen R300- und NV40-Pipe finden.)
Ailuros
2004-06-14, 02:51:11
Die Serie5 wird seit mindestens 3 Jahren entwickelt. Der Chip sollte also fertig sein.
Nein. Weniger.
Basierend auf den Spezifikationen des Kyro 2 und 3 würde ich persönlich zunächst ein 8x1-Design erwarten. Nun könnte die Serie5 auch bereits nach modernen Gesichtspunkten designed sein (siehe NV40), so daß dieser grundsätzlich logische Schritt überholt ist.
Ich erwarte allerdings nicht von PVR, daß sie die gleiche Komplexität wie nv beim nv40 erreichen. Ein 8x1 oder 12x1 in Verbindung mit PS3.0 erscheint mir realistischer. Bliebe die Frage, ob diese Konstellation einen HighEnd-Chip hervorbringt.
Zum meisten hab ich keinen Einwand, ausser dass ich mich frage was Serie5 genau mit 3 & 4 gemeinsam haben koennte und woher die komische Schlussvolgerung kommt mit dem X*Y Kram.
Ailuros
2004-06-14, 03:07:33
Original geschrieben von aths
Nur eine Frage der Anzahl der Units. Wobei der Verwaltungsaufwand bei vielen kleinen Einheiten natürlich steigt. NV40 zeigt, dass es auch andere Möglichkeiten gibt, die Effizienz zu steigern. (Das heißt natürlich nicht, dass Nvidias Weg der bessere sei.)
(Man könnte z. B. auch eine Art Mittelweg zwischen R300- und NV40-Pipe finden.)
Den Mittelweg mit logischer SM3.0 Komplianz und Leistung moechte ich aber gerne mal erlaeutert haben; denn hier geht mir ehrlich die Fantasie aus.
Fuer SM3.0 Architekturen und/oder branching ist der R3xx/4xx Aufbau eher ein sehr schlechte Idee.
Ehe ATI wirklich konkurrenzfähig war, brauchten sie drei Anläufe. Dass PowerVR was tolles in Mache hätte hast du schon öfters angedeutet. Bislang sehe ich keine Produkte. Deshalb frage ich mich, wie gut deine Quellen sind. (Sry wegen der Direktheit.)
Wenn man Details wuesste ueber die wahre Entwicklungszeit, den Abstand des finalen tape-outs und die sehr begrenzte Resourcen mitberechnen wuerde, dann kann man von keiner Verspaetung eigentlich reden. Ich weiss es klingt merkwuerdig aber IMG hatte eigentlich ausser dem MBX und den anderen weniger anspruchsvollen PowerVR IP cores keine andere besondere Entwicklungssorgen. Es ist ein chip und nicht eine von top to bottom Produktlinie und man hatte auch nicht den Zeitdruck von vorigen Generationen (kein PC Produkt seit Serie3) oder sogar Zeit und Resourcen fressende Console Vertraege als Beispiel.
MBX ist vermischtes IP von Serie3&4 und daher hatte man genug Zeit und Resourcen um sich auf das ein und einzige zu konzentrieren.
Original geschrieben von Axel
Ein 8x1 oder 12x1 in Verbindung mit PS3.0 erscheint mir realistischer. Könnten wir bitte den Quatsch mit 12x ... ein für alle mal vergessen?
Wenn man einen Chip für "12x irgendwas" designt, macht es kaum Mühe, ihn auch für 16x auszulegen. Um sowas gleich in Hinterhand zu haben, würde das dann auch so gemacht, und als Highend-Version gebaut.
Original geschrieben von Ailuros
Den Mittelweg mit logischer SM3.0 Komplianz und Leistung moechte ich aber gerne mal erlaeutert haben; denn hier geht mir ehrlich die Fantasie aus.
Fuer SM3.0 Architekturen und/oder branching ist der R3xx/4xx Aufbau eher ein sehr schlechte Idee.Die R420-Pipeline besteht nicht nur aus Loopbacks, welche für 3.0 wenig geeignet sind.
mrdigital
2004-06-14, 09:50:15
Original geschrieben von Thowe
Hmmm, lies mal hier -> http://www.beyond3d.com/articles/p10tech/index.php?page=page3.inc
ich hänge mich an dem (falschen) Begriff Skalare SIMD auf;)
Das ist ein Widerspruch in sich, ich weiss was der P10 macht (er besteht aus skalaren Einheiten, die dann beliebig kombiniert werden um (Achtung!) Vektoren zu verrechnen. Der Voteil hiervon ist, das die Vektoren aus beliebig vielen Elementen bestehen können). Aber eine skalare Einheit kann auch nur eindimensionale Zahlen verrechnen (eben eine klassische ALU)
mrdigital
2004-06-14, 09:51:22
Original geschrieben von robbitop
stimmt es waren skalare SIMDs.
Nicht unbedingt gut für die Leistung wenn Vec3 gefragt ist.
Weisst du überhaupt wovon du da sprichst?
Was ist eine skalare SIMD, was Vec3 und was hat die Leistung des einem mit dem anderen zu tun? Fragen über Fragen...
Demirug
2004-06-14, 10:01:49
mrdigital, warum sollten skalare SIMD Eingheiten falsch sein?
Es handelt sich dabei einfach um mehrer Recheneinheiten die alle nur skalar rechnungen ausführen können aber alle Einheiten müssen den gleichen Befehl ausführen.
Der P10 kombiniert die Einheiten auch nicht sondern rechnet Vektoroperationen in mehrern Takten auf der gleichen Einheit aus.
Ailuros
2004-06-14, 10:05:25
Original geschrieben von aths
Die R420-Pipeline besteht nicht nur aus Loopbacks, welche für 3.0 wenig geeignet sind.
R420 ist ein schlechtes Vergleichsmass fuer Serie5. Jede weitere Erlaeuterung waere jetzt schon wieder zu viel geblubbert. Ein ganz klein bisschen Geduld werdet ihr wohl noch haben.
mrdigital
2004-06-14, 10:05:27
Original geschrieben von Demirug
mrdigital, warum sollten skalare SIMD Eingheiten falsch sein?
Es handelt sich dabei einfach um mehrer Recheneinheiten die alle nur skalar rechnungen ausführen können aber alle Einheiten müssen den gleichen Befehl ausführen.
Der P10 kombiniert die Einheiten auch nicht sondern rechnet Vektoroperationen in mehrern Takten auf der gleichen Einheit aus.
und was ist das, wenn man meherere Zahlen zu einem Bündel zusammenfasst? Ein Vektor... Es ist zugegeben ein leicht akademischer Einspruch, ich finde den Begriff einfach nicht richtig hierfür.
Das man das auch durch Serialisieren erreichen kann sieht man ja an einer CPU
Original geschrieben von Ailuros
R420 ist ein schlechtes Vergleichsmass fuer Serie5. Ich schrieb nicht, dass sich S5 am R420 orientiere. Sondern dass es verschiedene Möglichkeiten gibt, die Hardware effizient zu nutzen.
robbitop
2004-06-14, 10:48:40
@Mrdigital
Vec3 ist ein mathematischer Vektor mit einer X Y und einer Z Koordinate.
D.h. man bräuchte 3 von diesen Skalaren SIMDs für eine Vec3 Operation. Klar ist es flexibel, aber so braucht man eben eine Vielzahl von Einheiten und das bringt einen ungeheuren Verwaltungsaufwand mit sich.
Was bitte sehe ich denn falsch?
Ich lasse mich gern belehren, dann bitte aber auch ausführlich und so, dass man es verstehen kann. Mit Wortbrocken kann ich nicht viel anfangen :)
Ailuros
2004-06-14, 10:53:33
Original geschrieben von robbitop
soweit ist es in der Praxis leider noch nicht Stickedy.
klar limitieren in Grenzsituationen auch mal andere Dinge, wie aritmetische Endleistung, aber zZ ist die effektive Füllrate noch verdammt wichtig. Und das Sprechen über X*Y wird solange bleiben bis man Arrays von Ausführungseinheiten hat, die dynamisch verschaltet werden können.
Und wieso macht Dir (ueberhaupt) "effektive" Fuellrate, gerade Sorgen?
Uebrigens ist nicht immer X=!X, sowie auch Y=!Y. Was genau willst Du Dir nochmal ausrechnen wenn Dir die wichtigen Informationen fehlen?
Ailuros
2004-06-14, 11:02:22
Original geschrieben von aths
Ich schrieb nicht, dass sich S5 am R420 orientiere. Sondern dass es verschiedene Möglichkeiten gibt, die Hardware effizient zu nutzen.
Sowie bei der Filterung z.B.? (mieser Scherz ich weiss...) :D
Keine Sorge ich hab Deine R420 Analyze durchgelesen und ich weiss schon auf was Du Dich beziehst; die Vergleiche erscheinen trotzdem schlecht.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.