PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Unreal 2 und KYRO ?


Leonidas
2001-09-27, 21:18:39
Ich gebe mal wieder, was im Unreal 2 Forum an Statements der U2-Programmierer war.
http://ina-community.com/forums/showthread.php?threadid=134263
Es ist leider etwas verstreut, deshalb hab ich das hier zusammengefasst:




Chris Hargrove

Look guys, here's the deal. We've already talked about this publicly in interviews and such, so this is not new information, but I figure it's worth reiterating.

First, I'll repost what Mike Verdu said last month:



quote:
--------------------------------------------------------------------------------

Q: What are the system requirements looking like at this point?

A: Right now we're developing a game that will be playable on a PIII-500 with any hardware accelerator card that supports T&L (e.g. GeForce I, 2, 3, ATI Radeon, etc.). The game will look fantastic on a high end system, but should be playable on a good mid-range machine. We are still evaluating how to support lower end systems with TNT2 and Voodoo3/4 class cards... Infogrames will make a final determination later this year.
--------------------------------------------------------------------------------



Translation: If you don't have a card that supports T&L, we will not make any promises at this point that the game will be playable. Everything we're doing tech-wise assumes that T&L is present. This isn't just an assumption of our own technology, it's also an assumption of the Unreal Warfare engine itself. If your card doesn't have T&L, you might be able to run the game, but probably not as well as you might like.

Seriously guys, T&L cards are the baseline these days. Even GeForce2 cards are less than a hundred bucks now. By the time this game ships next year, if you can't afford a T&L card you probably can't afford to buy the game... that's how little they cost.


quote:
--------------------------------------------------------------------------------
it supports Software T&L, which means the CPU is doing the calculations todays CPUS 1Ghz and over, can do what hardware T&L can do and in some cases even better
--------------------------------------------------------------------------------



In terms of the argument about how fast CPUs are these days, yes they're fast... but we expect T&L because the CPU is still going to be very busy doing *other things*. If the CPU gets bogged down doing transformation and lighting calculations that otherwise can be offloaded to the video card (and that's a lot of calculations, given our high poly count), it can be a *big* drain on performance.

The bottom line is, get a T&L card, really. It's not just for Unreal 2, you know... plenty of games out there already expect it, and that trend will continue.



Chris Hargrove


quote:
--------------------------------------------------------------------------------
Why not just say "Okay we'll do it but if they turn out to be too slow, don't say I didn't warn you" instead of "Bah I bet they'll be too slow so I won't even bother" ?
--------------------------------------------------------------------------------



There isn't any "we'll do it" involved here; we're going through Direct3D, and we're trying to keep the card-specific checks to a minimum. So how well the card performs depends on the hardware and the D3D drivers. The only thing that we control is which Direct3D features we take advantage of, and those (along with other related things like polygon counts) are chosen based on what we feel is now a "standard" baseline. T&L falls in this baseline.

I'm not saying that you shouldn't even try using a non-T&L card if you want... you can feel free to do that if it makes you happy. But I'm very familiar with the amount of data we're pushing through the pipeline, and I'm telling you that your expectations shouldn't be too high if you don't have T&L. In terms of the "I won't even bother" thing, the only way we could get around a lack of T&L is by scaling back our content, and I'm sorry but we are not about to do that.



Matthias Worch

Cyborg: Dude, don't you think you're embarrasing yourself by trying to tell us why something in our game works/doesn't work? Nobody would like to support the widest possible range of available cards more than us - that does include the Kyro2 and we'll definitely look into making it work. But right now it's not supported, and that's because the game fails to find a T&L unit on the 3D card, not because of some texture compression scheme or something else. End of story

The decision to make the UW engine rely on hardware T&L was made over a year ago when it looked like ALL major card manufacturers were implementing T&L chips in their upcoming cards. 3DFX had already announced it for their post-Voodoo5 card (and the company was struggling anyway) and the two other major 3D card manufacturers (ATI and nVidia) already had it in their GeForce and Radeon line. And then (just a few months ago) PowerVR released a new 3D card that defies that convention by not having hardware T&L on-board. And we somehow have to deal with it. That's regretable and as I said we'll certainly look into adding support for Kyro2 (and possibly other low-end 3D cards), but this isn't a "just do it real quick" thing, we're talking about changing a major assumption that the engine is built on. An assumption that was made based on the fact that all major 3D card companies had T&L only cards in their product lineup/pipeline. PowerVR breaking that rule isn't exactly our fault...



Chris Hargrove

quote:
--------------------------------------------------------------------------------
An assumption that was made based on the fact that all major 3D card companies had T&L only cards in their product lineup/pipeline. PowerVR breaking that rule isn't exactly our fault...
--------------------------------------------------------------------------------



Not only is this not our fault, but as far as I'm concerned it was a very bad idea on the part of PowerVR.

No offense to PowerVR or anything, but this isn't the first time they've made a somewhat flawed decision in terms of 3D hardware development. ZBuffer-less HSR, anyone?

Instead of whining at us for wanting T&L, you might be better off complaining to PowerVR for releasing a substandard product. I don't care how much else the card has or how it may seem to perform in some games... hardware T&L is a standard these days.

Having an old card which predates widespread T&L is one thing. But having an old card is analagous to having an old computer; sometimes you just need to upgrade to get good performance in the newest games (I've had to live with it just like everybody else).

Having a relatively new card which *still* doesn't have T&L is something else, and if that new card doesn't perform all that well because of the lack of a now-standard feature, then it's no better in my eyes than an old card. Return it or throw it out, and get something better.

P.S. Oh, and Cyborg... your repeated "it has T&L it's just doing it in software" statements are pretty ridiculous since I've already stated twice why that is not sufficient for us. Do I need to cut&paste that same text over and over before it sinks in?



Chris Hargrove


quote:
--------------------------------------------------------------------------------
People don't care whether their cards support T&L or not because most of them either don't know what T&L is or don't know if their cards support it. What's important in the end is how your whole system will perform. You cannot throw away a new card with no T&L support just because someone tells you so. You can, however, throw away a card because it's simply not performing well. But I've yet to see a game with bad performance on a Kyro I/II. Even a new game like Max Payne, as mentioned by someone else previously, runs surprisingly well. I will take your words if you're saying that they're not gonna run UT2, but is there anyway you can test it at the moment? Or would the code need to be modified before you can try? I think it would be interesting if you could perhaps benchmarks the Kyro before the official game comes out so that we can figure out in advance whether or not it will be fast enough to be playable
--------------------------------------------------------------------------------



I'll be honest in saying that the Kyro hasn't really been tested here, so it's quite possible that I could be completely wrong in my estimation of its capabilities. That said, the lack of T&L gives me a very strong feeling that it will not be up to the task of handling U2. There are several reasons for this:

One:

Unreal 2 (and in many cases the Unreal engine in general) is largely CPU-bound and bus-bound as far as performance goes, not hardware-bound. Many games are not CPU-bound, and the CPU has some room to spare to do software transform & lighting calculations. That's not the case for us.

Two:

While the transform side of T&L has been taken advantage by plenty of games over the past couple years (since even the software emulation of it can be performed fairly quickly), the use of the lighting side has been a more recent development. Prior to decent T&L cards, asking the hardware (via an API like Direct3D or OpenGL) to do lighting calculations of any kind was often a death sentence for performance. For example, Direct3D has a large number of lighting & material state settings, and without T&L the calculations using all these settings can be horribly slow. Hence many game engines have bypassed this form of lighting and instead performed lighting manually in software using simpler calculations. This style of lighting may not look as good as the (more accurate) lighting mentioned above, but it was necessary for a long time if your game was to perform acceptably. The resulting vertices would be passed to the card in "Untransformed and Lit" form, so only the "T" in T&L was used.

But times are changing, the hardware has gotten better, and it's time we start taking advantage of it. So unlike many previous games, we are using the "L" in T&L, and very extensively. When a card is missing T&L, it's not the lack of the "T" that concerns me most as far as performance goes, it's the lack of the "L".

Three:

We are rendering a huge number of polygons. The FPSs of a couple years ago hardly ever had models that exceeded 1000 triangles or so. In contrast, plenty of our models are over 3000 triangles, and a few go as high as 5000 or more. Many of our levels are packed full of complex geometry, and there are some scenes where we're pushing the 100000 triangle barrier, with lighting, multitexture, and so on. And then there's particle effects...

When you combine all this with the fact that the CPU has to handle running a *game* in addition to the graphics, it's easy to see that we're pushing the envelope here.


Once you combine these three things together, you can see why my confidence in any non-T&L card is not all that high.


Matthias Worch

quote:
--------------------------------------------------------------------------------
I understand your point of view completely. It would be much easier if we all used the same video card because then compatibility wouldn't be a problem anymore. But we all know the Kyro is different than traditional renderers, and that leads us to an interesting topic. What are you views regarding PowerVR technology? In a non-biased way if possible, I'd like to have an honest opinion.
--------------------------------------------------------------------------------



All I'd say would repeat what Tim Sweeney said in an Interview, so I'll just point you there: http://www.voodooextreme.com/3dpulp...eytbr_2001.html

Keep in mind that this was done in April before the Kyro2 was released and that they don't touch the issue T&L support. Kyro2 using TBR isn't really the issue for us, that works fine. The missing T&L chip on the Kyro2 (in a time when all other 3D manufacturers equip their cards with T&L) is the issue.



Scott Dalton

I want to stress that we're not out to avoid supporting any cards. We want and will try to support the largest number possible. It would be ludicrous of us to do anything other than that as it hurts the number of potential people that can play this game.

What Chris and Matt are reacting to above is the assertions of Cyborg11 that T&L won't be an issue. In games that truly take advantage of T&L, a card lacking true hardware T&L is going to suffer performance wise in an otherwise identically equipped system that has good hardware T&L GPU support.

We don't want people to get the wrong idea and think that T&L won't be a large factor in determining the game's performance, because it will be. Any amount of time your CPU uses having to emulate T&L hardware will be draining performance away from all the other CPU intensive things we're doing, and you really don't want that.

The games mentioned throughout this thread as "making heavy use of T&L" push a fraction of the polygons we're looking at. Those games were designed to run without T&L acceleration, and as such don't give the GPU a lot of work to do. Our typical scenes have hundreds of times more polys than UT scenes. Sure, if you have to software emulate T&L for 500 level polys and 2500 character polys you're going to be alright. Up that to 80,000 level polys and 15,000 character polys and your CPU is going to have a lot harder time keeping up, given that we're counting on it to handle numerous other demanding tasks.

If you feel that the Kyro 2 is best for you, then go for it. However, keep in mind that it may not be the ideal card for Unreal 2, or any other game utilizing heavy hardware T&L. That's not to say that it won't run, but that it might not run as well as some other hardware out there.

I can't give you any absolute comparison specs at this time, but know that we take into account hardware T&L support as our baseline. If your card lacks it, you're falling below that baseline and may or may not be happy with your performance.



Chris Hargrove


quote:
--------------------------------------------------------------------------------
AFAIK Kyro III will have hardware T&L but don't forget those on a budget like me are those who buy cards like Kyro II so they can have some money left over to buy games too.
--------------------------------------------------------------------------------



This is not a valid argument, since a GeForce2 can be purchased for less than the Kyro II.


quote:
--------------------------------------------------------------------------------
It's not an impossible herculean task - it just requires optimisation in your engine and let the KyroII drivers do the rest.
--------------------------------------------------------------------------------



"Just"? The emulation of non-existant hardware features is handled by the card driver, not by us, so code optimization on our end is not relevant in this situation. We are responsible for the code that works with the data before it goes through the rendering API, not after. Hence the only real optimization we could do in this case is reducing the amount of data we send down the pipe, and that would reduce the graphical quality. We're not about to do that.


quote:
--------------------------------------------------------------------------------
So it's not going to be lack of time, resources or anything else but just a complete lack of interest in supporting a Kyro II.
--------------------------------------------------------------------------------



There is no "support" that we can do for the Kyro II aside from reducing our requirements into the realm of non-T&L cards. That would mean redoing just about every asset that we've made for the game thus far. That will not happen.

This is not a lack of interest in supporting the Kyro II. It is a lack of interest in supporting any non-T&L card. We're supposed to be moving forward, not backward.


quote:
--------------------------------------------------------------------------------
Yes let's all look forward to a monopolistic future dominated by one company so we can all pay over the odds.
--------------------------------------------------------------------------------



More than one company is making T&L cards, you know. I don't care if your card is by nVidia, ATI, PowerVR, or Ye Olde Video Card Shoppe, it doesn't matter to me. What matters is that your card supports the features that will be "standard" by the time this game is released. T&L is one of those. If your card supports our baseline, it should do well. If it doesn't, then it probably won't. That's the bottom line. And it's not an unreasonable expectation, given that you can get T&L cards for only a little more than the price of a single game.

I'm tired of wasting any more time discussing this issue with the few people who don't seem to "get it". Every point that we (any of us at Legend) are trying to make has been made several times already, and that should be more than enough for it to sink in by now.

nggalai
2001-09-28, 08:26:19
Ich reposte hier einfach mal, was ich im TnL-Thread schon geschrieben habe:

--- REPOST ---

Jetzt aber was "neues", und zwar Hype:

Der Artikel wollte den Hype als substanzlos entlarven und nicht T&L generell als sinnlos hinstellen.

Dann freu' dich auf Unreal 2 ... die Programmierer von Legend machen momentan bös Laune für TnL Karten (und zwar DX7 TnL): http://ina-community.com/forums/showthread.php?threadid=134263 Die ganzen Punkte, die Du [aths] in deinen Artikeln als Hype-Mittel aufgezeigt hast werden hier nochmals recycliert--dieses mal vielleicht sogar begründet, aber lest's euch selbst durch.

Hauptargument vno Legend gegen nicht-TnL Karten: "die Unreal Warfare Engine macht nicht nur Transform, sondern auch Vertex Lighting. Ausserdem hat eine durchschnittliche Aussenszene bei einem Overdraw von 2 rund 100,000 Polygone. Vielleicht machen nicht-TnL Karten momentan noch mit, aber so sicher nicht, besonders nicht, wenn man bedenkt, was die CPU in Unreal 2 noch sonst so zu machen hat. Und U2 ist nur die Speerspitze der TnL Bewegung ..."

Klingt bekannt?

Ist lustig zu lesen, wenn man ein wenig Distanz bewahrt. Die Angriffe gegen Kyro-II sind jedoch eher lächerlich, besonders wenn man bedenkt, dass die Leute selbst zugeben, nie U2 auf einer Kyro-II ausprobiert zu haben ... andererseits deckt sich die Aussage, dass erst jetzt HW-TnL optimierte Spiele auf den Markt kommen, mit der anderer Produzenten. Spieleentwicklung kostet halt Zeit.

Have fun,
-Sascha.rb

Razor
2001-09-28, 12:11:47
Sie sagen ja gar nicht, daß U2 nicht auf 'ner Kyro läuft. Was ja auch marketing-technischer Unsinn wäre... Und sie werden sicher schon ausprobiert haben, wie sich 'ne Kyro dort macht und haben eben fest gestellt, daß dies gar nicht gut aussieht. Aber warum sollten sie so etwas in die Welt husten ? Nein, sie drehen den Spieß um, und sagen, daß nicht-T&L-Karten ein Problem mit der Engine bekommen könnten (damit dann allerdings auch die Kyro's mit einbeziehen, aber genauso die TNT's und die Voodoos).

Wir werden sehen !

Razor

Quasar
2001-09-28, 13:27:41
Mal ehrlich, wenn U2 nächstes Jahr rauskommt, gibt es seit drei Jahren Mainstream-TnL-Karten.
Seit dann zwei Jahren sind bis auf den Querschuß von ImgTech auch nur noch TnL-fähige Karten erschienen...wer dann noch erwartet, daß ein aktuelles Spiel bei ihm ohne aktuelle (zwei Jahre) Graka läuft, dem ist echt nicht zu helfen....

Ich beschwer mich doch heute auch nicht, daß auf meiner Mystique220 (die ich leider nicht mehr hab) Aquanox net laufen will...

Unregistered
2001-09-28, 13:57:19
ach du bist der beste, weist du wieviele heute noch ne voodoo 3 oder ne tnt2 haben... verdammt viele... und wieso kommen alle mit diesem geforce hype... ich denke aths hat recht... ich werde meien voodoo 5 sicher nicht einschrotten... dann spiele ich halt uw nicht, das ist mir dann egal... und du solltest wissen dass 3 jahre alte karten noch gut zu gebrauchn sind.. du sagst ja ne geforce sei ok, die ist auch 3 jahre alt.. und meine voodoo 5 ist nicht langsamer als so ne mühle... also vergesst den scheiss... sie werden sich selber bestrafen wenn sie nur noch für das quasimonopol games machen (von ati abgesehen..)

3dfx ruley

Quasar
2001-09-28, 14:24:26
Hallo?
Wacht doch mal auf...die Welt hört sich nicht auf zu drehen, bis 3Dfx dem Grabe entsteigt, oder ImgTech ein neues Produkt herbeizaubert...

Es sit nun mal so, daß die UW-Engine TnL nutzen wird. Das geht aus obigen Statements der Programmierer hervor, und die sollten das doch am ehesten beurteilen können.
Da hilft es dir auch nicht, zu jammern, daß eine Voodoo5 schneller als eine ein Jahr ältere GF1 SDR ist (die ja auch nur unter ihrer Speicherbandschmale leidet).
Leider veraltet Hardware irgendwann und dann ist entweder der Zeitpunkt gekommen, sich damit abzufinden und nur noch die Games aus der guten alten Zeit zu daddeln, oder eben in den sauren Apfel zu beißen und aufzurüsten...

Meinst du ich hab mich nicht geärgert, als meine 300DM teure VoodooI nicht mehr ausreichte, um neuere Games zu daddeln? Natürlich, und das ist auch gut so, aber wenn die Spieleentwickler auf Leute wie dich hören würden (und Komplettsystemehersteller immer noch ATI RageIIc verbauen würden) hätten die Spiele genauso eine beschissene Qualität (im Durchschnitt) wie sie es so auch schon haben, nur sähe man es ihnen dann auf den ersten Blick an....
*kopfschüttel*

P.S.: Ich hab auch noch ne VoodooI, ne Riva128, ne Rendition v2200, ne G400Max, ne Voodoo5 und ne KyroII...
what gives?

Unregistered
2001-09-28, 14:48:45
wie schnell der T&L hype doch wieder da ist weil ein paar Programmierer meinen ohne gehts ned!! *lacht

Mich würde viel mehr interessieren ob die unreal Alpha version auf einer kyro 2 funktioniert hat.

Razor. Hm deine Argumentation ist reine Spekulation... Aussagen von Tim Sweeny waren doch mal Kyro ist scheisse usw... sag mir einen Grund warum er davon abrücken sollte und jetzt damit unreal 2 zu testen?? DAfür gibts keinen. Der mann ist einfach arrogant... oder kriegt soviel Geld von NVidia damit er das sagt (das scheint mir wohl wahrscheinlicher... )
Allerdings eine Aussage ist sehr glaubhaft, warum non T&L Karten keine chance haben. U2 ist wieder CPU limitiert und genau das könnte zum Problem führen, weil der Proz. keine zeit hat sich um das Software T&L zu kümmern. Das ist der einzige vernünftige Grund den ich in den ganzen Aussagen gelesen habe. Von dem mal abgesehen ist er sehr plausibel...
cya

PS: wir sollten einfach abwarten und schaun was passiert :)
Ich würde lachen wenn u2 auf einer kyro 2 schneller wäre als auf einer gf2mx :D

Legolas
2001-09-28, 15:03:01
Naja, sollen sie halt Vertex Lightning auf ner Geforce nutzen, weil die T&L Performance damit ja nicht extrem wegbricht ;)

Quasar
2001-09-28, 15:09:52
Originally posted by Unregistered
PS: wir sollten einfach abwarten und schaun was passiert :)

*unterschreib

nggalai
2001-09-28, 15:16:05
hi there,

Mich würde viel mehr interessieren ob die unreal Alpha version auf einer kyro 2 funktioniert hat.Die Version lief auf Kyro (mit Athlon 1.3GHz ca. 30fps Innenlevel), aber nur 2 Karten--der Rest verwendet Cube Mapping, welches die Kyro ned unterstützt -> Programm bricht ab. Allerdings ist zu sagen, dass diese geleakte Version KEINE ALPHA IST, sondern ein besseres Tech-Demo für die E3, welches so Dinge wie 3D-Decals und sich-bewegende-Characteraugen zeigen sollte. Davon auf das "richtige" Spiel zu schliessen kannst Du vergessen.Razor. Hm deine Argumentation ist reine Spekulation... Aussagen von Tim Sweeny waren doch mal Kyro ist scheisse usw... sag mir einen Grund warum er davon abrücken sollte und jetzt damit unreal 2 zu testen??Das macht Sweeney eh nicht--er arbeitet für Epic als Chefentwickler der Unreal Warfare engine, welche Legend lizenzierte, um Unreal2 zu programmieren. Sweeney hat mit U2 nix zu tun. Er hat auch nie gegen die Kyro-II gewettert, sondern nur über die alten PVR Renderer.Allerdings eine Aussage ist sehr glaubhaft, warum non T&L Karten keine chance haben. U2 ist wieder CPU limitiert und genau das könnte zum Problem führen, weil der Proz. keine zeit hat sich um das Software T&L zu kümmern.Soweit die Erklärung der Legend Entwickler. Macht soweit Sinn--wenn man sich z.B. Max Payne anschaut ... etwa ein Zehntel der Polygone eines U2 frames, aber schon da macht TnL Sinn. Den Overdraw reduziert die Unreal Warfare engine übrigens zum Teil schon selbst durch occlusion detection--laut Epic gibt's nie einen grösseren Overdraw als 2. Das HSR der Kyro bringt also nicht mehr sooo viel.PS: wir sollten einfach abwarten und schaun was passiert*unterschreib*Ich würde lachen wenn u2 auf einer kyro 2 schneller wäre als auf einer gf2mxAlso, schneller als auf einer MX wird U2 auf jeden Fall laufen, mit der Kyro 2 ... bei den Füllraten-Intensiven Effekten blockt die MX viel zu früh, als dass TnL da noch viel bringen kann.

ta,
.rb

Captain America
2001-09-28, 16:04:19
Ich mag das "We're supposed to be moving forward, not backward.". Jawoll, so siehts aus. Die Welt dreht sich auch ohne dich weiter. Jede Software hat nunmal ihre Mindestvorraussetzungen, absolut legitim diese Voraussetzungen hoch zu setzen - das ermöglicht eine hohe Produktqualität. Hohe Produktqualität = zufriedene Kunden = $$$.

Ne Menge schimpfen, dass T&L gefordert wird von den Entwicklern (was viele mit einer GFX XDR gleichsetzen), aber ihre gute alte 3D(fx)-Karte sei doch noch so toll.

Schon vergessen wie es damals war? Da musste man eine 3dfx haben um eine Menge Games zu zocken, und sicher haben da auch einige geschimpft. Aber es hat neue Welten eröffnet. Irgend wann war eine 3dfx dann einfach akzeptiert.

Win 3.1 <-> Win 95. Browser 5. Gen <-> Browser 3. Gen. 3D-Karte <-> keine 3D-Karte.

Was ich sagen will: die Jungs bieten ein Produkt an dass auf fortschrittliche Technologie setzt, wer sich eine Low-Cost-Karte zulegt, hat Pech.

Wer keinen Lappen hat darf ja auch kein Auto fahren... :D


PS: ich daddel mit GF1 DDR / 765 MHz / 160 MB RAM. :(

Legolas
2001-09-28, 16:57:19
Originally posted by nggalai
Er hat auch nie gegen die Kyro-II gewettert, sondern nur über die alten PVR Renderer.

Und wie willst du dann Sweeney's Aussage, daß eine Kyro II TNT 2 Klasse ist, erklären?

Hier nachzulesen:

http://www.3dconcept.ch/cgi-bin/showarchiv.cgi?show=2315

Crazy_Borg
2001-09-28, 17:08:21
Zwingend erforderliches Cube Mapping ???
Haha, dann können die meisten ihre Radeon und GeForce 1 Karten sowieso auf den Müll schmeissen, wenn Unreal 2 kommt.
Wenn man sich mal ansieht, wieviel bei Colin McRea Rally 2 Cube Mapping bremst, läuft Unreal 2mit höchstens 2 frames die Sekunde...
Cube Mapping wird doch sicher irgendwie de-aktivierbar sein. Wär ja noch schöner. Inzwischen kann sich doch kein Publisher leisten, auf seine Packung zu schreiben:
"Warnung! Spiel läuft nur auf 60% (oder noch weniger) aller PC-Systeme. Ohne nVidia GeForce oder ATI Radeon können sie diese Packung gleich wieder ins Regal zurückstellen!"
So blöd werden die nicht sein. Wenn das wirklich war wäre, hätten die das schön heimlich unter den Teppich gekehrt (So wie bei "DS9: Dominion Wars" und seine Kyro Unverträglichkeit), und nicht gross davon im Voraus erzählt.

nggalai
2001-09-28, 17:24:14
Wenn man sauber programmiert, für DX, dann gibt's einen automatischen fall-back wenn Cube Mapping ned unterstützt wird. Standardmässig ist das "kein Mapping;" im schlimmsten Fall heisst das für die Kyro "keine Reflektionen, sonst läuft's."

Und zur Sweeney-Aussage:Tim - It's a competent TNT2 class chip, and the sorting and alpha-testing artefacts of past generations seem to have been sorted out successfully. But, like every generation of PowerVR hardware before it, it's a day late and a dollar short. It lacks support for basic DirectX7 (yes, 7!) features like cube maps. The kyro developers are cool guys, so it pains me to say that this is just not a viable piece of hardware in the market it's trying to compete in.Wenn man das mit anderen Interviews und Aussagen von Epic, Legend, und DE vergleicht, heisst "TNT2 class" einfach nur "nicht-TnL fähige Karte". Rein von dem Standpunkt her hat er also mit TNT2-Klasse vollkommen Recht; der Rest der Aussage stimmt so auch. Sweeney mag zwar kein PVR-Freund sein, aber allzuviel würde ich in seine Aussagen nicht lesen.

ta,
.rb

Razor
2001-09-28, 18:10:00
Der maßgebliche Unterschied dieser UW-Engine ist doch, daß man eine sehr komplexe KI, hohe Polygonmengen (mind. Faktor 10), Mechanismen zur Overdrw-Reduzierung (an der Stelle, wo es meiner Meinung nach auch angebracht ist) und vor allem endlich (!) auch das Lighting, also das 'L' vom T&L nutzen wird.

Daraus ergibt sich schon ohne die GraKa eine gewaltige CPU-Last.

Wenn jetzt noch zusätliche Aufgaben wie das Tranform und dann auch noch das Lighting (wesentlich Rechenintensiver) dazu kommt und HSR dann einfach nicht mehr viel Sinn macht, ist die Aussagen doch konsistent, daß man mit einer Kyro dann keinen Blumentopf mehr gewinnen werden wird. Sicherlich wird auch eine MX unter dieser hohen Last leiden, aber auch diese GraKa hat eine definierte Grundleistung, die genutzt werden kann, um das Aufkommen für die CPU zu reduzieren.

Wenn man es jetzt noch hinbekommt, die fehlenden Kapazitäten der GPU (also der GraKa) durch intelligentes Treiber-Design zu kompensieren (nach Haarmann ist es vermutlich sogar schon so), dann würde selbst eine schwache T&L GPU noch helfen, aber alle GraKa's ohne jegliche Unterstützung haben dann ein Problem.

Habe selber noch Mytique, G100 und V64+ im Schrank. Und eine TNT/Voodoo2 Kombo sogar noch im Betrieb (auf K6-2 Basis) und eine gfddr, die darauf wartet, daß meine derzeitige Systembasis (PIII auf BX) durch ein leistungsfähigeres System abgelöst wird, was dann auch 'ne vernünftige Basis für meine gf3 sein wird. Aber was solls ?

Ich bin wirklich mal gespannt, was uns da mit U2 (und folgenden) erwartet, könnte es doch tatsächlich mal ein Game werden, daß uns endlich mal wieder ein Staunen entlocken könnte...

In diesem Sinne

Razor

Legolas
2001-09-28, 18:31:34
Das Problem ist nur, daß sämtliche im Moment erhältliche GPUs mit T&L bei Verwendung von Vertex Lightning, vor allem bei mehr als einer Lichtquelle, extrem langsam werden... somit muss man entweder mit einer niedrigen Performance oder schlechterer Grafik leben, weil nur wenige Lichtquellen zum Lightning genutzt werden können, wenn man eine akzeptable Performance haben möchte... Auch muss man bedenken, daß bis zum Erscheinen von Unreal II die CPUs noch ein ganzes Stück schneller sein sollten, so daß sie wohl besser mit einer solchen Last fertig werden sollten. IMHO sind alle aktuellen T&L Karten im Consumermarkt für sinnvolles Vertexlightning nur sehr bedingt zu gebrauchen..

loewe
2001-09-28, 18:53:51
Ich denke doch, dass man mir den wirklich PowerVR Interessierten ohne weitere Erklärung abnimmt. Aber gerade aus diesem Grunde will ich auch mal was dazu sagen:

1. Es soll bitte niemand vergessen was die bisherigen KYRO Karten sind, ob KYRO I oder KYRO II ist dabei eigentlich fast egal: Beide Karten liefern eine gute bis sehr gute Geschwindigkeit bei einem zeitgemäßen Satz an Eigenschaften für den geringen Preis. Dabei gilt, KYRO I ist ist als Gegner für die alte MX und alle nicht T&L Karten anzusehen und KYRO II als echte Alternative für GF2MX400 und teilweise die nicht mehr produzierte GF2GTS gedacht. Das beide Karten eine CPU ab sagen wir mal 700 MHz brauchen und aber die KYRO II auf Grund ihrer Füllrate und der sehr geringen Anforderungen bezüglich der Bandbreite sehr gut mit dem Prozessor skaliert ist bekannt, sollte uns aber nicht darüber hinwegtäuschen, dass beide Karten eher im lowend segment anzusiedeln sind, als im highend Segment. Mit einer Pisel und Texelfüllrate von 350 MPixel-MTexel/sec. ist die KYRO II hier stark limitiert und gerät auch bei dem einen oder anderen Spiel an ihre Grenzen.

2. In einem Spiel der nächsten Generation, was U2 wohl ohne Zweifel werden wird, werden sich KYRO I oder II auch wie Karten der vorherigen Generation verhalten: Ich bin sicher das es spielbar sein wird, aber einige Feature werden nicht gehen und die Geschwindigkeit wird wohl kaum für Höhenflüge reichen. Aber U2 ist in erster Linie ein Singelplayer Spiel und damit kann man mit Frameraten um 25 FPS durchaus leben. KYRO wird sicher die schnellste nicht T6L Karte unter U2 werden und ober GF2MX wirklich schneller wird bleibt abzuwarten. Hier wird immer ein Aspekt der Technologier unterschätzt, KYRO ist ein absolutes Effizienz-Wunder. Es gibt wohl gegenwärtig keine Technologie, die asu so wenig so viel macht.

3. Für U2 wird es eine KYRO Kaete geben, die KYRO III. Ob sie so heißen wird oder nicht sei dahingestellt, sie wird aber alles mitbringen was hier gebraucht wird und sie wird eine der schnellsten Karten für U2 werden, natürlich bei Nutzung aller Feature. Der Preis wird wieder stimmen, so dass der User, dem KYRO I bzw. II dann zu langsam sein sollte, durchaus auf KYRO III umsteigen kann. Beide Karten werden zusammen immer noch billiger sein als die eine GF3.

Also mal ganz ruhig bleiben und nicht heiß machen lassen. Wir werden U2 auf KYRO II spielen und um U2 auf KYRO III wird uns jeder beneiden! :)

Darkstar
2001-09-28, 19:13:21
Die ATI Radeon VE besitzt auch keine HW-T&L-Einheit. Ob die Käufer dieser Karte eine Performance-Warnung auf der Unreal2-Packung zu sehen bekommen?

StefanV
2001-09-28, 20:00:29
WANN soll U2 eigentlich erscheinen??

WENN es erscheint, dann werden wir uns sicher denken, daß diese Diskussion überflüssig ist...

WER weiß denn schon, welche Karten es zu dieser Zeit gibt??

Unregistered
2001-09-28, 22:39:09
@Razor

Daraus ergibt sich schon ohne die GraKa eine gewaltige CPU-Last.

und fuer diese gewaltige CPU-Last soll ja ein P3-500 reichen, wenn man z.B. noch ne GForce1 hat.

Bleiben also bei nem 1,4er Athlon noch schicke 900 Mhz fuer T&L wenn man ne Kyro 2 hat. Zumindest wenn man es gescheit programmiert. Und bis U2 rauskommt kann man ja auch mehr CPU Power haben. Ob man dann noch seine Kyro2 hat ist natuerlich ne andere Frage.

@All

Ich meine ja nur das man nicht einfach sagen kann, die Kyro2 wird nicht laufen, auch nicht mit 2GHz und ne MX sollte schneller sein.

nggalai
2001-09-28, 22:49:12
und vor allem endlich (!) auch das Lightning, also das 'L' vom T&L nutzen wird.

*blitzeinschlag*

*computerbrenn*

*verzweifeltrumrenn*

"Damn, ich wusste doch, dass TnL Support Scheisse ist!!!"

*heul*

...

;) Sorry, konnte ich mir nicht verkneifen. Den Tippfehler / Fehler hab' ich einfach schon zu häufig gesehen.

ta,
.rb

Thowe
2001-09-28, 23:59:05
Wie heisst nicht Thunder & Lightning ??? Boah habe ich mich da die ganze Zeit vertan. :D

Thowe
2001-09-29, 00:02:51
Originally posted by loewe
Ich denke doch, dass man mir den wirklich PowerVR Interessierten ohne weitere Erklärung abnimmt.

Warum *eg*

.
..
...
....

Ok ich mach es.

Razor
2001-09-29, 01:18:31
Gebe ja zu, daß es zwischen 'Anzünden' und 'Beleuchtung' einen kleinen Unterschied gibt...
Vermutlich sind die 'Zündkapseln' nVidia's daran schuld !
;-)

Sich aber so über das kleine 'n' so auszuregen ?
Hmmm...

Razor

Thowe
2001-09-29, 08:36:58
Originally posted by Razor

Sich aber so über das kleine 'n' so auszuregen ?
Hmmm...

Razor

Ach was, regt sich doch keiner auf. Ist nur ein weiterspinnen eines Gedanken und durch und durch als etwas zynischer Humor zu verstehen.

In diesem Sinne "have fun".

Razor
2001-09-29, 11:10:19
;-)

HOT
2001-10-02, 00:01:37
hehe, ich seh dass mal so, warten wir mal, bis das Game überhaupt erscheint. Dann relativieren sich dieser Art Aussagen sowieso wieder weil wir 1.) einen besseren CPU Durchschnitt haben, 2.) die Engine besser optimiert ist und 3.) neue Kyro Treiber haben. MDK2 benutzt auch Vertex Lightening und bricht auf der Kyro auch nicht besonders ein.
Auch wenn die Polygonzahlen höher sind, das belastet ja nicht den Kyro, eher die CPU :D

Razor
2001-10-02, 03:28:51
Die Polygonmengen werden so um den Faktor 10-20 steigen...
Tun das die lieben Prozzi's auch ?

So 'ne 15GHz CPU hätt' schon was, oder gar 'ne CPU mit 30GHz...
;-)

Razor

HOT
2001-10-02, 10:14:24
Warten wir es ab. Das kann ich mit nur bei maximaler Auslastung vorstellen. Ausserdem ist das weder für eine 1GHz+ CPU noch für den Kyro ein Problem.

Razor
2001-10-02, 11:46:50
Kein Problem...
Hmmm...

Wieder die 'Allwissenheitspillen' gegessen und das gleich in rauhen Massen, was ?
;-)

Recht so, wir werden sehen...

Razor

HOT
2001-10-02, 13:14:45
Nicht so ganz, aber wir sollten es trotzdem abwarten. Es bringt einfach nix, sich darüber den Kopf zu zerbrechen. Meine Auffassung ist lediglich, dass alle nur mit Wasser kochen :D

Razor
2001-10-02, 13:33:59
Und genau das solltest Du Dir bei Deinen nächsten Posts merken, damit dann nicht wieder:

TILER SIND DIE ZUKUNFT
KYRO3 MACHT SIE ALLE PLATT

oder Ähnliches dabei heraus kommt...

In diesem Sinne

Razor

HOT
2001-10-02, 16:50:16
Hey, ich bleib bei meiner Meinung, dass Tiler die Spielezukunft sind. Was ist daran so falsch? Begründet hab ich's auch oft genug. Beim KyroIII (heisst wahrscheinlich nichtmal so) bin ich nur über die Eckdaten bei der Effizienz der KyroI/II fasziniert :D wie gut sich das behauptet, werden wir ja sehen.

Razor
2001-10-02, 21:20:19
Wie Du schon sagtest:
"Sie alle kochen nur mit Wasser !"
was auch für ImgTech gilt...
;-)

Razor

Unregistered
2001-10-03, 11:23:14
ja und mit wieviel wasser nvidia atm kocht sehen wir auch :)
mit sehr viel *gg*

Von dem mal abgesehen wird nvidia auf kurz oder lang owhl auch auf die gigapixel(hiest die scheiss firma so die 3dfx damals gekauft hat) umschwenken. Denke ich mal ;)
AUf alle fälle können wir doch nur hoffen dass die kyro3 das bieten wird was wir uns alle wünschen. Dann kann ich endlich wiede Grakas zu vernünftigen Preise kaufen :)

Razor
2001-10-03, 13:03:47
Na ja, wenn's ne gf3 für 400 Märker gibt (Ti200), wird sich auch ImgTech warm anziehen müssen, denn ich vermute mal, daß so 'ne Kyro3 (wenn sie denn mit den ihr angedichteten Features kommt) dann auch nicht grade im Low-Cost-Segment plaziert werden kann...
;-)

Razor

HOT
2001-10-03, 23:16:14
Die haben noch viiiieeel Luft in ihren Preisen :D
1.) ist die Produktion des Kyro mit seinen 15Mio Transistoren ja wohl eher billig und 2.) arbeiten die Karten mit maximal 200MHz Takt (Ultra). 5ns SDR Speicher sollte auch nicht ultrateuer sein :D
Ich glaube, dass sowohl Imagetech als auch ST und Hercules dick Knete verdient haben mit dem Chip.

Der Kyro wird jetzt langsam aber sicher zu einem Billigprodukt und die Geforce2 zu einer doch recht preiswerten QuasiUltra. So ist eben der Lauf der Dinge ;)
Das schöne für uns User dabei ist, dass sich die Preis weiterhin durch die Konkurrenz nach unten bewegen :D

Unregistered
2001-10-03, 23:19:13
also die 400 mark verbannen wir erstmal ins reich der Fabel :) Aus rein logischen Gründen gibts diese Graka nicht für 400 mark!! Dass dir das nicht aufgefallen ist Razor ;)
Aber ich lass dich noch ein bisschen überlegen ;)

Aber dass du deine Sticheleien nicht lassen kannst.. tztztztztz

Razor
2001-10-04, 00:54:22
Laß mich doch ein bischen sticheln...
;-)

Aber hier mal eine Meldung von www.nvnews.net:
Titanium 200 Price - 10/03/2001 7:22 am - By: MikeC - Source: Pricewatch

--------------------------------------------------------------------------------
I checked Pricewatch this morning by searching on the GeForce3 Titanium 200 and noticed the lowest price had dropped from $239 to $229. Still a ways to go before vendors hit the $199 price as suggested by NVIDIA, but it looks like the ball is beginning to roll.
Und wer den aktuellen Stand der Dinge selbst in Augenschein nehmen möchte:
Pricewatch GeForce3 Ti 200 (http://queen.pricewatch.com/search/search.idq?ne=32932&l=32886&CiCodePage=Windows-1252&cr=GeForce3+Titanium+200&qc=%22GEFORCE3%22*+AND+%22TITANIUM%22*+AND+%22200%22*)

Schon verdammt nah dran, nicht wahr ?
;-)

Razor

Razor
2001-10-04, 01:36:05
Und das habe ich fast übersehen:
Titanium Pricing - 10/03/2001 1:00 pm - By: MikeC - Source: Email

--------------------------------------------------------------------------------
Thanks to Daniel for sending word that Sparco already has the VisionTek Titanium cards listed on their web site.
XTASY 6564 GeForce3 TI 200 - $177.78 - http://www.sparco.com/cgi-bin/wfind2?spn=A905720
XTASY 6964 GeForce3 TI 500 - $310.37 - http://www.sparco.com/cgi-bin/wfind2?spn=A905820
Expected arrival for both cards is October 15th give or take a few days.
;-)

nggalai
2001-10-04, 08:11:51
Ich hab' am Dienstag oder so mal bei Beyond3D gepostet wegen des Ti200 Preises: offenbar hat nVidia den MSRP recht kurzfristig (zusammen mit einigen technischen Details zur GF3 Ti200) geändert. Daher die Verwirrung. Wie Razor schon sagte, einige Hersteller haben bereits auf die "richtigen" MSRP reagiert: $177+MWST dürfte nur der Anfang des Preisrutsches sein.

ta,
.rb

Razor
2001-10-04, 11:45:54
Und dann wird's 'ne Menge mehr an DX8-Karten geben und es werden dann auch endlich viele, viele hübsche DX8-Sachen geben... (nur die arme Radeon7500 wird's hart treffen)
;-)

Razor

nggalai
2001-10-04, 11:48:17
und es werden dann auch endlich viele, viele hübsche DX8-Sachen gebeja, in ein bis zwei Jahren, dann, im grösseren Masstab ...

Mensch. Spieleentwicklung sollte echt ein wenig beschleunigt werden. ;)

ta,
.rb

HOT
2001-10-04, 12:27:46
Tja Razor, für die Geforce2 Ti200 aber auch ebenso wie den KyroIIU. Wie auch immer, in nächster Zeit werden wohl erstmal nur "DX7 Spiele mit DX8 Extensions" ;) erscheinen, um die Qualität und Performance auch bei DX7 Karten noch zu gewährleistet.

Razor
2001-10-04, 14:14:17
@nggalai

Mit 'DX8-Sachen' meinte ich nicht vornehmlich Spiele (mir ist schon klar, daß dies dauern wird). Aber vor allem Tech-Demo's, Scene-Demo's etc.pp...

Aber auch die Spiele-Industrie wird's freuen, so daß man sich nun schon ganz langsam darauf vorbereiten kann...
;-)

@HOT

Tja, schwere Zeiten für nicht DX8-Karten...
Auch sollte sich ATI nun überlegen, ev 'ne Radeon8500 'light' heraus zu bringen und ImgTech sollte nun endlich den KyroIII forcieren (wenn's ihn mit DX8-Engine geben sollte)...

Mich hat 'eh schon gewundert, daß so viele Leute schon 'nen knappen tausender locker machen, um 'ne DX8-Karte ihr eigen zu nenen. Wenn der Preis jetzt nocheinmal mit der Radeon8500 und der GForce3Ti200 rutscht, dürfte das dann ja einen regelrechten Kaufrausch auslösen.

***

Schaun' wir mal...

Ev gibt's demnächst dann 'nen paar DX8-Patches, die Altes dann wieder aktuell(er) machen...
;-)

Razor

HOT
2001-10-04, 14:47:21
Klar, ATI könnte eine 8500er mit 4ns Speicher und weniger Takt, so 200MHz, bringen. Doch nötig ist das nicht, da die 8500er an sich nicht sooo viel teurer als die Ti200, aber die Ti500 signifikant teurer als die 8500er ist. Die 7500er ist ja vornehmlich nicht für Spieler geeignet sondern richtet sich eher an Leute, die einen ordentlichen Multimediasystem wollen. In diesem Marktsegment wildert auch die Geforce2 Ti200. Allerdings mit dem Unterschied, dass die Radeon ein wenig teurer ist, aber bessere Videobeschleunigung, TV Out standartmässig und Hydravision standartmässig bietet. Wenn ich mit dem Teil nur unwesentlich Spielen wollte und viel Musik/Video am PC benutze, ist die Radeon weitaus das interessanteste Produkt in dem Preissegment. Man sollte ja auch bedenken, dass sie für eine DX7 Karte eine verdammt gute Leistung, vor allem in hohen Auflösungen bringt.

Razor
2001-10-04, 16:23:46
Nu ja...

Momentan siehts bei DX8-Karten ja noch zeimlich aufgeteilt aus (ca. selbstverständlich ;-):

gf3ti200: 450,-
Raddeon8500: 650,-
gf3ti500: 850,-

Die ur-gf3 wird auslaufen, da ja nun wohl keine ur-gf3-Chips mehr hergestellt werden und die Hersteller lediglich die Läger räumen (was Schnäppchen auf Radeon8500-Level bedeuten könnte)...

Bei den DX7-Karten wird's da schon wesentlich unübersichtlicher. Und ich persönlich wüsste nicht, ob eine 'gf2ti Personal Cinema' nicht doch qualitativ mit einer Radeon7500 vergleichbar wäre (vor allen wohl aber auch preislich ;-)...

Aber ich denke, daß ATI mit der Radeon7500 ja auch keine gf3 angreifen wollte, sondern lediglich die gf2ti (was sie sicherlich sehr gut kann). Nur hat ihnen nVidia mit ihrer Preispolitik eben ein Schnippchen geschlagen und die Karten werden (im wahrsten sinne des Wortes ;-), trotz günstiger Radeon8500, wieder neu gemischt...

Ich finde Konkurrenz gut !
;-)

Razor

Unregistered
2001-11-05, 00:23:52
Originally posted by Razor
Die Polygonmengen werden so um den Faktor 10-20 steigen...
Tun das die lieben Prozzi's auch ?

Man sollte nicht so stark übertreiben und dafür lieber bei den Tatsachen bleiben:

Eine normale Szene aus Q3A hat laut ID Software 12000 bis 15000 Poligone.

Chris Hargrove (Zitat): "[...]and there are some scenes where we're pushing the 100000 triangle barrier [...]"

Dies entspricht dann dem Faktor 7 oder 8 bezüglich heutiger Spiele, aber keinesfalls 10-fachem.
Und von den genannten 20-fachen Poligonmengen sind wir damit weit entfernt...

Zumal die Aussage von Chris Hargrove nur sagt, daß es einige Szenen mit so vielen Poligonen geben wird. Die von ihm genannten 100000 sind aber nur das Maximum und nicht der Durchschnitt.

Andere Frage: Gibt es eigentlich Informationen bezüglich der Poligonanzahl in UT oder anderen 3D-Shootern ???

MfG

GloomY

P.S.: @Razor: Auch ich glaube, daß TBR bei Spielen die Zukunft ist :P *stichel* ;)

Legolas
2001-11-05, 15:07:07
Originally posted by Unregistered

P.S.: @Razor: Auch ich glaube, daß TBR bei Spielen die Zukunft ist :P *stichel* ;)

Das würde ich lieber lassen.....

Und wie Unreal auf ner Kyro 2 läuft, wissen nicht mal die Unreal Entwickler, weil sie einfach zu feige sind, das Game damit zu testen :D:D

Unregistered
2001-11-06, 00:10:13
Das ist wirklich meine persöhnliche Meinung...

Unregistered
2001-11-12, 18:57:32
Hab das ganze mal ausprobiert und muss sagen, dass es eigentlich wie die "X-isle" Demo mit Unreal1-Innenlevel aussschaut.

Die Innenlevel sind von der Qualitaet (=Details, nicht Design) nicht ganz so gut wie in Q3A.

Daraus folgere ich, dass auch die Polygonzahlen nicht viel groesser als in gaengigen Spielen wird.
Diese Aussagen beziehen sich wohl eher auf die Aussenszenarien. Aber es macht wenig Sinn diese dynamisch zu beleuchten. Ausserdem haben die rechenintesiven Pointlights auch eine Maximaldistanz (z.B. bei einem Schuss etwa 2 Einheiten) über der sie einfach nicht mehr in die Lichtberechnung miteingehen.
Extremsituation von 4+ Lichtern auf alle Dreiecke einer Szene, wie z.B. 3DMark200x, TreeMark, usw. werden nicht auftauchen.

Das CubeMapping in ColinMcRae ist uebrigens nur deshalb so langsam, weil es dynamisch berechnet wird, da alle Fahrzeuge sich bewegen.

Auf statischen Objekten, wie z.b. Seen oder Gebaeuden ist der Performanceverlust weitaus geringer, weil die CubeMaps nicht staendig neu berechnet werden.

Gruss
Mayhem

nggalai
2001-11-12, 19:03:37
Hi Unreg,

ich glaube, das wurde schon in diesem Thread erwähnt--aber nochmals: die "leaked alpha" ist KEINE ALPHAVERSION, sondern ein TECHDEMO, welches an der E3 einige wenige features der engine vorstellen sollte (Augenbewegungen, 3D-decals) und ist in keinster Weise mit dem Spiel selbst zu vergleichen.

ta,
.rb

Unregistered
2001-11-15, 10:04:57
Na ja, eigentlich hatte das Ganze schon einen aehnlichen Aufbau wie Unreal. Damit meine ich Verzeichnisse und Dateien. Es handelt sich also schon um eine (noch sehr fruehe) Engine.

Natuerlich weiss ich, dass dieses noch lange keine ALPHA ist. Aber ich denke mal, dass man schon sehr gut die Absichten der Programmierer und Veraenderungen der Engine erkennen kann.

HOT
2001-11-15, 10:54:15
Optimierte techdemos lassen erfahrungsgemäss niemals auf das endgültige Produkt schliessen. Siehe hierzu z.B. Aquanox.