PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : TMTBP


Unregistered
2003-04-02, 14:38:21
http://www.3dgpu.com/comments.php?id=2283&category=9

Exxtreme
2003-04-02, 14:44:50
Oje, Hellbinder hat mal einen seiner typischen Threads im R3D-Forum gestartet und jetzt werden dort irgendwelche Infos an die Glocke gehängt.

:eyes:

Unregistered
2003-04-02, 15:45:24
Au Mann, das ist ja harter Tobak.

So wie die Entwickler von STALKER es darstellen liefe deren Engine ja nicht ohne "special support" und einiger Klimmzüge in annehmbare Geschwindigkeit auf der Geforce FX.

Und das gerade bei STALKER, dem angeblichen Vorzeigespiel für die FX.

Ziemlich quer, das Game auf einer R9700 zu entwickeln und dann das (irreführende!) Nvidia-Logo draufzupappen.

Richthofen
2003-04-02, 17:22:45
hehe jo Hellbinder geht wieder voll ab.

Der ist und bleibt ne arme Wurst mehr nicht.

PCGH_Thilo
2003-04-02, 17:37:35
Originally posted by Unregistered
http://www.3dgpu.com/comments.php?id=2283&category=9

und gleich die gegendarstellung

http://www.3dgpu.com/index.php?category=all&id=2307

MadManniMan
2003-04-02, 17:41:19
hab jetz grad keinen bock, den ganzen thread dahinter zu lesen, aber verstehe ich den sachverhalt richtig:

- stalker-jungs entwickeln/entwickelten auf 9700
- stalker-jungs finden, stalker is meant to be played auf ner gf
- stalker-jungs machen deshalb extra-goodies für gf-fx

?

...wenn dem so ist - warum zieht man denn dann erstmal über hellbinder her und steht den genannten punkten kritisch gegenüber ???

MadManniMan
2003-04-02, 17:43:31
man schreib ich laaangsam.... also, neue lage:

- stalker ist immernoch meant to be played auf ner fx, weils da mehr optik-spielereien bietet

?

...find ich nicht gut :(

-X-
2003-04-02, 17:51:28
ne,lies dir mal die antwort von einem der entwickler durch(der link von thilo).sie haben vorher auf ner 9700 entwickelt,und entwickeln grad mitm nv35.dort steht auch,dass beide seiten kontaktiert wurden(monate lang) und ati hat sich nicht gemeldet,nvidia schon.dadurch kam es zu einer engen zusammenarbeit zwischen den entwicklen und nvidia,somit kann man raus-lesen,dass ati nach meinung der entwickler selber schuld an dieser situation ist.

Exxtreme
2003-04-02, 17:57:04
Originally posted by -X-
ne,lies dir mal die antwort von einem der entwickler durch(der link von thilo).sie haben vorher auf ner 9700 entwickelt,und entwickeln grad mitm nv35.dort steht auch,dass beide seiten kontaktiert wurden(monate lang) und ati hat sich nicht gemeldet,nvidia schon.dadurch kam es zu einer engen zusammenarbeit zwischen den entwicklen und nvidia,somit kann man raus-lesen,dass ati nach meinung der entwickler selber schuld an dieser situation ist.
Naja, daß ATi sich NICHT gemeldet hat, das glaube ich wiederum nicht. =)

Die haben sich sogar bei mir gemeldet als ich einige Infos wollte.

MadManniMan
2003-04-02, 17:59:38
Originally posted by -X-
ne,lies dir mal die antwort von einem der entwickler durch(der link von thilo).sie haben vorher auf ner 9700 entwickelt,und entwickeln grad mitm nv35.dort steht auch,dass beide seiten kontaktiert wurden(monate lang) und ati hat sich nicht gemeldet,nvidia schon.dadurch kam es zu einer engen zusammenarbeit zwischen den entwicklen und nvidia,somit kann man raus-lesen,dass ati nach meinung der entwickler selber schuld an dieser situation ist.

a) ich habs gelesen
b) was auch immer da zum thema "schuld" stehen mag, ich finds dumm, daß der radeon features vorenthalten werden (was ich nur revidire, wenns ps/vs > 2.0 braucht)

-X-
2003-04-02, 17:59:49
mich würd mal ein statement von ati dazu interessieren.

Demirug
2003-04-03, 15:09:21
Originally posted by Exxtreme

Naja, daß ATi sich NICHT gemeldet hat, das glaube ich wiederum nicht. =)

Die haben sich sogar bei mir gemeldet als ich einige Infos wollte.

Es ist ein Unterschied ob du das Passwort für den Devbereich haben möchtest oder einen direkten Draht in die Entwicklungsabteilung. Wahrscheinlich wollte die Jungs eine vorserien DX9 Karte (R300) von ATI.

NVIDIA ist da generell etwas freizügiger als ATI auch wenn man dann mit NDAs totgeworfen wird.

Exxtreme
2003-04-03, 15:12:45
Originally posted by Demirug
Es ist ein Unterschied ob du das Passwort für den Devbereich haben möchtest oder einen direkten Draht in die Entwicklungsabteilung. Wahrscheinlich wollte die Jungs eine vorserien DX9 Karte (R300) von ATI.

NVIDIA ist da generell etwas freizügiger als ATI auch wenn man dann mit NDAs totgeworfen wird.
Naja... ich könnte mir vorstellen, daß die Jungs vielleicht nicht "überzeugend genug" waren...

Ist aber nur eine Vermutung.

betasilie
2003-04-03, 15:15:27
Also ich finde das wirklich unverschämt. Als ob ATI nicht auch interesse gehabt hätte an so einem Deal.

NV hat einfach mehr geboten, denn umsonst werden die FX-Optimierungen und das NV-Startlogo bestimmt nicht sein. *grrr*

Richthofen
2003-04-03, 15:22:11
wieso unverschämt?
Ich nenn das Business. Geschäft ist Geschäft. Wir sind hier ja nicht auf einer Wohlfahrtveranstalung in der es darum geht "wünsch dir was".

Demirug
2003-04-03, 15:24:44
Originally posted by Exxtreme

Naja... ich könnte mir vorstellen, daß die Jungs vielleicht nicht "überzeugend genug" waren...

Ist aber nur eine Vermutung.

Deswegen sagte ich ja das man es bei NVIDIA generel leichter hat. ATI konzentriert sich primär lieber auf die Leute/Firmen von denen man genau weiss das die Engine in vielen grossen Titeln eingesetzt werden soll. Was mir im Bezug auf den Devsupport immer wieder einfällt ist das NVIDIA auf das letzte Treffen der deutschen Spieleentwickler in Frankfurt jemanden geschickt hat der einen kurzen Vortrag (das leidige Thema DX und OpenGL optimierung) gehalten hat und dann für Fragen zur Verfügung stand von ATI war eben keiner da. Sowas hinterläst natürlich Spuren in den Köpfen der Entwickler.

betasilie
2003-04-03, 15:26:00
Originally posted by Richthofen
wieso unverschämt?
Ich nenn das Business. Geschäft ist Geschäft. Wir sind hier ja nicht auf einer Wohlfahrtveranstalung in der es darum geht "wünsch dir was".
Du hast im Prinzip recht. Ich fände es aber schöner, wenn für alle relevanten Karten gleichermaßen optimiert wird.

Ich hoffe, dass sie die R300/R350 nicht völlig links liegen lassen, was ich mir auch nicht vorstellen kann.

ow
2003-04-03, 15:29:25
Originally posted by betareverse

Du hast im Prinzip recht. Ich fände es aber schöner, wenn für alle relevanten Karten gleichermaßen optimiert wird.

Ich hoffe, dass sie die R300/R350 nicht völlig links liegen lassen, was ich mir auch nicht vorstellen kann.


Ich wuensche mir, dass ATi die Entwickler nicht immer links liegen laesst!!
Hast du denn immer noch nicht verstanden, woran es bei ATi hapert? Demirug hat das doch jetzt schon des oefteren hier (auch in anderen Threads) ausgefuehrt.

MadManniMan
2003-04-03, 15:39:16
Originally posted by ow
Ich wuensche mir, dass ATi die Entwickler nicht immer links liegen laesst!!
Hast du denn immer noch nicht verstanden, woran es bei ATi hapert? Demirug hat das doch jetzt schon des oefteren hier (auch in anderen Threads) ausgefuehrt.


trotzdem macht das bei den usern die entwickler nicht gerade beliebter. sicher, ati kümmert sich nich so gut wie nv, das ist aber immernoch kein grund, die ati-user abzustrafen

Radeonator
2003-04-03, 15:48:29
Originally posted by Richthofen
wieso unverschämt?
Ich nenn das Business. Geschäft ist Geschäft. Wir sind hier ja nicht auf einer Wohlfahrtveranstalung in der es darum geht "wünsch dir was".

Hier geb ich Richti mal ack!

Wenn ATi sich wirklich so verhalten hat, dann gute Nacht Marie.
Der einzige Vorteil ist halt, das die R300 früher verfügbar war und deshalb haben die Jungs erstmal eine 9700er zur Hand genommen. Könnte mal einer der jungs, die im Dev Programm drin sind, versuchen eine Stellungnahme hierzu, zu bekommen ???

Quasar
2003-04-03, 15:51:59
Es gibt schon wieder eine kleiner "Korrektur". Anscheinend sind GCS-Games doch etwas "forsch" in ihrer Formulierung gewesen...

I'd like to bring in certain explanations. In the previous message from Oles Shishkovtsov it was mentioned "we contacted NVIDIA and ATI for several months, but ATI did not respond". I'd like to add some details here: it probably wasn't put in a proper way, for it's not that ATI refused us in technical help, it's more that not everything went as we expected. We got our 9700 board with delay early October. That was already the release variant of the board, we couldn't get hold of earlier versions. ATI guys provided us with access onto developer forums and were ready to answer our questions. We wouldn't like you to get a wrong impression out of that previous message that ATI developer relations department works badly. We did receive two 9700 boards, and we'd like to thank ATI for that. It's just that everything went not as fast as we expected, boards came after quite some time and we did not get a possibility to demonstrate the game at ATI's booth at ECTS. So, everything's fine with ATI's developer relations, probably something just went wrong on our side.
Oleg Yavorsky
PR Manager
GSC Game World
www.gsc-game.com
www.stalker-game.com

Radeonator
2003-04-03, 15:52:13
Originally posted by Radeonator


Hier geb ich Richti mal ack!

Wenn ATi sich wirklich so verhalten hat, dann gute Nacht Marie.
Der einzige Vorteil ist halt, das die R300 früher verfügbar war und deshalb haben die Jungs erstmal eine 9700er zur Hand genommen. Könnte mal einer der jungs, die im Dev Programm drin sind, versuchen eine Stellungnahme hierzu, zu bekommen ???

Ups hab da was übersehen :

By: Oleg Yavorsky On: 2-04-2003


I'd like to bring in certain explanations. In the previous message from Oles Shishkovtsov it was mentioned "we
contacted NVIDIA and ATI for several months, but ATI did not respond". I'd like to add some details here: it probably wasn't put in a proper way, for it's not that ATI refused us in technical help, it's more that not everything went as we expected. We got our 9700 board with delay early October. That was already the release variant of the board, we couldn't get hold of earlier versions. ATI guys provided us with access onto developer forums and were ready to answer our questions.
We wouldn't like you to get a wrong impression out of that previous message that ATI developer relations department works badly. We did receive two 9700 boards, and we'd like to thank ATI for that. It's just that everything went not as fast as we expected, boards came after quite some time and we did not get a possibility to demonstrate the game at ATI's booth at ECTS. So, everything's fine with ATI's developer relations, probably something just went wrong on our side.
Oleg Yavorsky
PR Manager
GSC Game World
www.gsc-game.com
www.stalker-game.com

Na, dann ist ja doch alles in Butter, weiter so ATi :D

MadManniMan
2003-04-03, 15:57:59
Originally posted by Quasar
Es gibt schon wieder eine kleiner "Korrektur". ...

fein. noch ein "grund" weniger, warum nur der nv mehr features spendiert bekommt :(

Quasar
2003-04-03, 16:00:45
Vielleicht bekommt er mehr Goodies spendiert, weil er mehr Features hat?

Wenn ein Game DX9 umfangreich nutzt, dann bekommen DX)-Kartenbesitzer auch mehr Features zu sehen, als DX7-Karten-User, oder?

Quasar
2003-04-03, 16:02:57
Originally posted by Radeonator
Na, dann ist ja doch alles in Butter, weiter so ATi :D

Ja, weiter so. Jedem, der sich als Dev registriert, 'nen Account zum Dev-Forum spendieren und nach Verkaufsstart eine Karte zukommen lassen.

Das schindet mächtig Eindruck, schätze ich.

BTW, ich find's schon bezeichnend, dass erstere Infos von einem Developer direkt kamen und das "zurückrudern" jetzt von der PR-Abteilung....

ow
2003-04-03, 16:15:14
Originally posted by MadManniMan



trotzdem macht das bei den usern die entwickler nicht gerade beliebter. sicher, ati kümmert sich nich so gut wie nv, das ist aber immernoch kein grund, die ati-user abzustrafen


Es ist sicher nicht im Sinne oder Wunsch der Entwickler, die User von ATi-Karten abzustrafen.
Aber Druck auf ATi auszuueben, um besser supported zu werden (wenn man sich schon dafuer entschieden hat auf ATi Karten zu entwicklen!) das halte ich fuer legitim.

MadManniMan
2003-04-03, 16:26:11
Originally posted by Quasar
Vielleicht bekommt er mehr Goodies spendiert, weil er mehr Features hat?

Wenn ein Game DX9 umfangreich nutzt, dann bekommen DX)-Kartenbesitzer auch mehr Features zu sehen, als DX7-Karten-User, oder?

;)

Originally posted by MadManniMan
(was ich nur revidire, wenns ps/vs > 2.0 braucht)

Quasar
2003-04-03, 16:34:51
Warum schreibst du dann
Originally posted by MadManniMan


fein. noch ein "grund" weniger, warum nur der nv mehr features spendiert bekommt :(

Wenn in der GSC-Mail steht:

In Stalker you'll be able to play fine on NVIDIA and ATI hardware--the gameplay and run stability should be the same. On ATI boards Stalker will run fast, but on NVIDIA boards it will run even faster, plus gamers will get a set of unique effects, namely due to close work with the company enginers and support of NVIDIA hardware features.

betasilie
2003-04-03, 16:48:09
Originally posted by ow



Es ist sicher nicht im Sinne oder Wunsch der Entwickler, die User von ATi-Karten abzustrafen.
Aber Druck auf ATi auszuueben, um besser supported zu werden (wenn man sich schon dafuer entschieden hat auf ATi Karten zu entwicklen!) das halte ich fuer legitim.
Das stimt schon. ATI braucht wohl noch ein paar Arschtritte beim Dev.Support.

MadManniMan
2003-04-03, 16:54:56
Originally posted by Quasar
and support of NVIDIA hardware features.



ich könnte wetten, daß das vorher noch nicht da stand :|

Quasar
2003-04-03, 16:56:15
Red' dich nicht raus, MMM. Du hast quergelesen... :D

MadManniMan
2003-04-03, 17:09:23
Originally posted by Quasar
Red' dich nicht raus, MMM. Du hast quergelesen... :D

quatsch mit soße!...

ow
2003-04-03, 17:53:46
Originally posted by betareverse

Das stimt schon. ATI braucht wohl noch ein paar Arschtritte beim Dev.Support.

Ja, das meine ich auch.

(btw. bin ich aber ebenfalls der Meinung, dass solche A....tritte nicht öffentlich zu erfolgen haben. Sowas ist eine Sache zwischen ATi und den Developern, das regelt man intern. Die Öffentlichkeit geht sowas eigentlich nix an. Lediglich als letzte Konsequenz ist das Bewusstsein der Öffentlichkeit über solche Misstände asl ein Druckmittel evtl. angebracht. Die würde ich im hiesigen Fall aber nicht sehen, heisst: im hier vorliegenden Fall scheinen sich mir da ein paar Developer eher grundlos 'auszuweinen', das ist aber reine Speku meinerseits, wer weiss, was da gelaufen ist).

ow
2003-04-03, 17:54:32
Originally posted by MadManniMan


quatsch mit soße!...

;D

Quasar
2003-04-03, 17:56:58
Originally posted by MadManniMan


quatsch mit soße!...

Ups, das muss ich überlesen haben... :rofl:

wrdaniel
2003-04-04, 06:46:19
Vielleicht bekommt er mehr Goodies spendiert, weil er mehr Features hat?

oder weil sie sich nicht um story und gameplay kuemmern, wie bei vielen anderen aktuellen spielen zur zeit.

Demirug
2003-04-04, 08:04:12
Originally posted by ow


Ja, das meine ich auch.

(btw. bin ich aber ebenfalls der Meinung, dass solche A....tritte nicht öffentlich zu erfolgen haben. Sowas ist eine Sache zwischen ATi und den Developern, das regelt man intern. Die Öffentlichkeit geht sowas eigentlich nix an. Lediglich als letzte Konsequenz ist das Bewusstsein der Öffentlichkeit über solche Misstände asl ein Druckmittel evtl. angebracht. Die würde ich im hiesigen Fall aber nicht sehen, heisst: im hier vorliegenden Fall scheinen sich mir da ein paar Developer eher grundlos 'auszuweinen', das ist aber reine Speku meinerseits, wer weiss, was da gelaufen ist).

ja Entwickler können manchmal sehr Emotional werden und die PR Abteilung muss da wieder versuchen alles zu kitten. Der Punkt war wohl das man die ursprüngliche Aussage (NV30 läuft nicht richtig aus dem Rage3d Forum) kompensieren wollte und dabei etwas über das Ziel hinausgeschossen ist.

Deswegen sollte man das Reden mit der Öffentlichkeit der PR überlassen und den Entwicklern bei solchen Sachen Redeverbot erteilen bzw eine Richtline geben was sie sagen dürfen. :D

Edit: Smilie vergessen

Quasar
2003-04-04, 08:46:05
Nein, bloß nicht!!!
Von dem weichgespülten PR-Geseiere haben wir doch eh schon genug in den unzähligen Pressemitteilungen. In einem solchen Falle bin ich dann doch geneigt, eher dem Entwickler zu glauben, dessen Worte vielleicht ein wenig übertrieben, aber dafür noch nicht zehnmal auf 100%-IHV-Kompatiblität geprüft sind.

Seraf
2003-04-07, 15:59:54
Is ja jetzt schon fast zum kotzen :kotz:

Hier zum lesen:
http://www.rage3d.com/board/showthread.php?threadid=33676999


Weil NV Karten (und die XBoX) Shadow Buffer haben gibts dafür gleich Bonus EyeCandy spendiert.

Geforce3:
http://forum.hwupgrade.it/download.php?id=8563

Radeon9500:
http://forum.hwupgrade.it/download.php?id=8565


Na dann gut Nacht für ATI wenn noch mehr Spiele von der XBoX auf den PC portiert werden.

-X-
2003-04-07, 16:07:58
auf die spiegelungen oder wie man das jetzt nennt:D kann ich verzichten,wenn ich an die performance mit meiner karte mit allem auf high und 8xAF(quality) denk.außerdem find ich das nicht ganz realistisch,so wie das aussieht,auf holz spiegelungen(auch wenns schatten sien könnten,sieht aus wie auf einer metall- oder glasoberfläche)?

Demirug
2003-04-07, 16:50:14
Originally posted by -X-
auf die spiegelungen oder wie man das jetzt nennt:D kann ich verzichten,wenn ich an die performance mit meiner karte mit allem auf high und 8xAF(quality) denk.außerdem find ich das nicht ganz realistisch,so wie das aussieht,auf holz spiegelungen(auch wenns schatten sien könnten,sieht aus wie auf einer metall- oder glasoberfläche)?

Ich habe auch einen moment gebraucht bis ich den Effekt verstanden habe.

Das sind keine spiegelungen sonder das Licht das von den oberen Fenstern hinter dem Spieler kommt.

-X-
2003-04-07, 16:55:03
is mir auch klar:),nur sieht das meiner meinung nach nicht besonders realistisch aus(glänzt zu sehr).

Demirug
2003-04-07, 17:22:27
Originally posted by -X-
is mir auch klar:),nur sieht das meiner meinung nach nicht besonders realistisch aus(glänzt zu sehr).

Ja das Licht ist ein bischen zu hell. Aber das sollte sich noch regeln lassen.

Mr. Lolman
2003-04-07, 17:52:52
Ich glaub ich werd wohl mein PC Hobby an den Nagel hängen, wenn diese Beispiel Runde macht. Wozu haben wir jetzt eigentlich eine einheitliche Api, wenn dann doch jeder sein eigenes Süppchen kocht.

Vielleicht auch noch vorher Glide verdammen, und dann es gutheissen, wenn man plötzlich Shadow Buffer den NV Karte anspricht um damit nette Schatteneffekte darstellen kann. Ich kann mir nicht vorstellen, dass es nicht anders auch möglich ist die Schatten zu implementieren. Da versperrt sich mir irgendwie der Sinn eines einheitlichen DX Standards. Warum wurde denn aus Truform nichts? Weils so einfach zu implementieren ist? (Die UT2003 Modelle wurden nicht extra angepasst)

Es war doch sicher nicht ganz uneigennützig von NV dass die die Devs schon mit NV Karten versorgen. Hat Demi schon eine? Er könnte ja dann das Geld sparen und sich eine ATi Karte kaufen ;)

Nein sowas find ich garnicht gut. PFUI. Genauso wie ich es nicht gut finden würde, dass manche DX9 Demos auf (m)einer NV30 Karte nicht genauso gut aussehen wie auf ATi Karten. Wenn ich als Spieler viel Geld für eine Highend Karte ausgebe, erwarte ich auch, dass damit alle Effekte dargestellt werden können, wie auf anderen Highend Karten.
Ja jetzt könnte man ATi bashen, weil da keine Shadow Buffer vorhanden sind. Wie ist eigentlich die DX Implementation von den Shadow Buffern funktioniert über cg?

Ist STALKER gar openGL? Wenn ja dann nehm ich viel von dem gesagtem wieder zurück, aber nicht alles ;)

Bin ja gespannt was aus NV-Gaming und ATi-Gaming wird... Ach ich scheiss echt auf so marktanteilgeile Aktionen, von den Firmen. Vorallem ist das schlimme ja, dass sowas nicht boykottiert wird, sondern von den DAUs und Fanboys noch gefördert wird... Hö das schaut ja auf deiner FX 10000 viel geiler aus. ich kuff mir och so eine... Ist ja bei TCPA ähnlich. Manche supergenialen Progs laufen auf einem alten PC nicht mehr geht man sich halt ganz einfach einen neuen kaufen.

Mir ist ganz egal was sich jetzt als Erstes durchsetzen wird. Sobald ich als User nicht mehr bestimmen kann, welche HW in meinem Rechner steckt, ohne irgendwelche Abstriche machen zu müssen, ist mein PC Hobby für mich gestorben und ich kauf mir ein Motorrad.

Piffan
2003-04-07, 20:36:20
Ich spiele ja grade selbst Splinter Cell.....Ohne diese Mätzchen mit den Schatten würde es auch nicht weniger Spaß machen. Oder anders gesagt: Traurig wäre es, wenn sich ein Spiel über solche Kinkerlitzchen profilieren muß....Glücklicherweise bietet Splintercell aber auch noch Gameplay :)

Was mache ich: Ich stelle zwar die Schatten auf max Details, dafür die Schatten- Auflösung auf Mittel. Das Resultat ist immer noch eine spannende Grafik, aber dafür ist die Performance auf der Rad 9700 so excellent, dass ich diese nicht gegen fragwürdige Effekthascherei eintauschen will!

Was ich einigermaßen dumm von den Entwicklern finde: Im ersten Level brennt es doch so schön, dennoch hat man es nicht gepackt, die wabernde Optik darzustellen, die durch die erhitzte Luft oberhalb eines Feuers entsteht...sollte imho mit den erweiterten Shaders 1.3 von NV und den PS 1.4 wohl zu machen sein. Wers nicht glaubt, schaue sich mal den advance Pickelshadertest im 3dMark 2001 an....

Warum wird DX8 nur für diese total unrealistischen Schatteneffekte genutzt? Sind die Developper zu fantasielos oder was ist Sache??? Darf ich mich wenigstens noch über schöne Wasserdarstellung freuen in späteren Levels?

AlfredENeumann
2003-04-07, 21:37:58
Originally posted by Piffan
Was ich einigermaßen dumm von den Entwicklern finde: Im ersten Level brennt es doch so schön, dennoch hat man es nicht gepackt, die wabernde Optik darzustellen, die durch die erhitzte Luft oberhalb eines Feuers entsteht...sollte imho mit den erweiterten Shaders 1.3 von NV und den PS 1.4 wohl zu machen sein. Wers nicht glaubt, schaue sich mal den advance Pickelshadertest im 3dMark 2001 an....

Warum wird DX8 nur für diese total unrealistischen Schatteneffekte genutzt? Sind die Developper zu fantasielos oder was ist Sache??? Darf ich mich wenigstens noch über schöne Wasserdarstellung freuen in späteren Levels?


Da schließ ich mich an. Was bringt die technische möglichkeit solche Effekte darzustellen wenn kein Programmierer es umsetzt. Das es geht wurde in vielen Tech-Demos gezeigt.

Unregistered
2003-04-07, 23:36:26
Was jetzt? Können ATi-Chips Splinter Cell völlig korrekt und vollständiig darstellen oder nicht? :(

Salvee
2003-04-08, 00:01:16
Originally posted by Piffan
Warum wird DX8 nur für diese total unrealistischen Schatteneffekte genutzt? Sind die Developper zu fantasielos oder was ist Sache??? Darf ich mich wenigstens noch über schöne Wasserdarstellung freuen in späteren Levels?

Hmm also ich finde die Wasserdarstellung in Splinter Cell mehr als enttäuschend: wird zwar über PS (1.3 oder 1.1) realisiert, allerdings gibt es weder reflections noch refractions, und transparent ist es auch nicht. Pfui!
Da war sogar die Quecksilberbrühe bei Morrowind besser, da hat sich wenigstens etwas gespiegelt (auch wenn sehr abrupt umgeschaltet wurde).
Dass es auch/sogar mit PS 1.1 oder 1.3 besser geht, sieht man doch am Codecreatures Demo.

Bei den Schatten denke ich mal, dass die Devs keinen Bock/kein Geld/keine Zeit hatten, die Schatten ATi-tauglich/nicht-nV-tauglich zu machen.
Eins-zu-Eins X-Box Portierung und fertig, bei MGS2 soll es ja noch viel übler sein :madman:

-X-
2003-04-08, 00:09:44
ist es bei mgs2:-( ,habs schon oft gepostet aber auch nur weils mich so anpisst(is so).das game ist derzeit auf nforce2-mobos und mit radeon-karten unspielbar(man kanns spielen,aber 16-bit-texturen,NO WAY,kratzen beim sound,verzerrungen,NO WAY),das ist ein gutes beispiel für zukünftige special-chipset-only games...hoffentlich brauchts nicht monate für nen patch...

Xmas
2003-04-08, 00:49:17
Originally posted by Mr. Lolman
Ich glaub ich werd wohl mein PC Hobby an den Nagel hängen, wenn diese Beispiel Runde macht. Wozu haben wir jetzt eigentlich eine einheitliche Api, wenn dann doch jeder sein eigenes Süppchen kocht.

Vielleicht auch noch vorher Glide verdammen, und dann es gutheissen, wenn man plötzlich Shadow Buffer den NV Karte anspricht um damit nette Schatteneffekte darstellen kann. Ich kann mir nicht vorstellen, dass es nicht anders auch möglich ist die Schatten zu implementieren. Da versperrt sich mir irgendwie der Sinn eines einheitlichen DX Standards. Warum wurde denn aus Truform nichts? Weils so einfach zu implementieren ist? (Die UT2003 Modelle wurden nicht extra angepasst)
Die einheitliche API gibt es, um auf von verschiedenen Herstellern ähnlich oder gleich implementierte Funktionen in einheitlicher Art und Weise zugreifen zu können (man programmiert also nicht für Chips, man programmiert für Features).

Nicht jedoch, um innerhalb einer "Generation" (sowieso ein willkürlicher Begriff, der den Chips verschiedener Hersteller nicht gerecht wird) ein einheitliches, beschränktes Featureset zu bieten. Das macht sowieso keinen Sinn, denn der Großteil der eingesetzten Hardware bietet Funktionalität aus DX7, vielleicht DX8. Aber kann ja auch nicht plötzlich mehr, wenn man DX9 installiert.

Salvee
2003-04-08, 04:10:25
Originally posted by -X-
ist es bei mgs2:-( ,habs schon oft gepostet aber auch nur weils mich so anpisst(is so).das game ist derzeit auf nforce2-mobos und mit radeon-karten unspielbar(man kanns spielen,aber 16-bit-texturen,NO WAY,kratzen beim sound,verzerrungen,NO WAY),das ist ein gutes beispiel für zukünftige special-chipset-only games...hoffentlich brauchts nicht monate für nen patch...

Scheint ja ein richtiger Trend zu werden, der nächste nV-only Kandidat scheint Colin McRae Rally 3 zu werden...
Wenn das stimmt, dreh' ich wahrscheinlich komplett durch !!1
http://games.tiscali.cz/news/news.asp?id=7377

(Ich raff' auch nicht, was da steht, aber jemand hat es übersetzt)

(Jetzt wird mir auch klar, warum die FX 400Mio $ Entwicklungskosten verschlungen hat: hundert Mio, um an eine GF4 ein paar FP-Units anzuflanschen
und Anteile an einer Kupfermine zu erwerben, die restlichen 300 Mio, um Softwareschmieden zu bestechen...)

Edit: :kotz:

Demirug
2003-04-08, 07:31:52
Also wenn die Engine mit OpenGL geschrieben ist kann ich es nicht verstehen das die Schatten nicht funktionieren. Der R300 hat die notwendigen Extensions.

Bei DX dagegen verstehe ich es schon. ATI hat dort das Feature nicht freigegeben. Möglicherweise weil es dort nicht ganz offiziel ist.

Iceman346
2003-04-08, 12:50:21
Originally posted by Demirug
Also wenn die Engine mit OpenGL geschrieben ist kann ich es nicht verstehen das die Schatten nicht funktionieren. Der R300 hat die notwendigen Extensions.

Bei DX dagegen verstehe ich es schon. ATI hat dort das Feature nicht freigegeben. Möglicherweise weil es dort nicht ganz offiziel ist.

Splinter Cell nutzt die neuste Unreal Engine und dementsprechend Direct 3D.

AlfredENeumann
2003-04-08, 12:59:00
Originally posted by Salvee


Scheint ja ein richtiger Trend zu werden, der nächste nV-only Kandidat scheint Colin McRae Rally 3 zu werden...



Mitnichten

Quasar
2003-04-08, 12:59:46
Originally posted by AlfredENeumann



Mitnichten

Sondern? (und mit Begründung vielleicht?)

Demirug
2003-04-08, 13:00:27
Originally posted by Iceman346


Splinter Cell nutzt die neuste Unreal Engine und dementsprechend Direct 3D.

Ich meinte STALKER. Das Splinter Cell die Unreal Engine nutzt ist ja bekannt.

AlfredENeumann
2003-04-08, 13:08:35
Originally posted by Quasar


Sondern? (und mit Begründung vielleicht?)

Auszug aus dem Forum von Codemasters:

What Spec PC will I need to run CMR3?

Currently we have not yet finalised the PC spec.
You can be assured that we will support a wide range of 3D hardware.






Da steht nix von NV-Only.

AlfredENeumann
2003-04-08, 13:13:38
Ich würde mich richtig freuen wenn viele Spieleschmieden NV-Only Spiele anbieten würden.

Denn:
erheblich kleinere Käuferschicht = weniger gewinn
weniger gewinn = höhere Preise um Kosten zu decken
höhere Preise = wird wieder weniger gekauft
zu wenig gekaut = Spieleschmiede bald Pleite
Spieleschmiede Pleite = Marktanteile für Spielehersteller größer die beides Unterstützen.


Also meiner meinung nach ist es für einen Spielehersteller absolut schwachsin ein NV-Only Spiel herauszubringen. Da sollte er lieber dann eine Codepath für andere Karten reinhämmern wo es halt dann nicht so dolle aussieht. Genauso sollte es dan andersrum auch sein.
Warum soll ein Spieler mal nicht von Eyecandys profitieren die sich halt nur von speziellen Karten darstellen lassen.

Quasar
2003-04-08, 13:18:32
Originally posted by AlfredENeumann Da sollte er lieber dann eine Codepath für andere Karten reinhämmern wo es halt dann nicht so dolle aussieht. Genauso sollte es dan andersrum auch sein.
Warum soll ein Spieler mal nicht von Eyecandys profitieren die sich halt nur von speziellen Karten darstellen lassen.

Ja, ich dachte, darum gings auch. Schattendarstellung nur auf nV korrekt, so ähnlich wie die Shadowbuffer bei Splinter Cell?

Sorry, wenn ich das mißinterpretiert habe.

Piffan
2003-04-08, 13:28:58
Originally posted by Quasar


Ja, ich dachte, darum gings auch. Schattendarstellung nur auf nV korrekt, so ähnlich wie die Shadowbuffer bei Splinter Cell?

Sorry, wenn ich das mißinterpretiert habe.

Die Schattendarstellung ist auf der Radeon gar nicht übel! Das einzige was noch fehlt imho, sind die Schatten im Gesicht von Fisher, da sollte doch sein Restlichtverstärker welche werfen...

Sonst habe ich nirgendwo welcher vermisst...Außerdem alles billige Effekthascherei, die nach zwei Minuten langweilig wird. Entscheident ist der "Look" insgesamt, und da gibts wohl kaum Unterschiede. Was mich richtig nervt, ist das übertriebene Env. Mapping: Da glänzen Flächen, die besser nicht glänzen würden. Oft sieht es auch komplett falsch aus, so wie bei RCTW, wo schon mal ne lange Disk. über diesen Unfug geführt wurde...Warum glänzen die meisten Vorhänge, als wenn sie aus dünner Plastikfolie bestehen?

Die Grafik von Splinter- Cell ist sehr durchwachsen :|

Demirug
2003-04-08, 13:34:17
Ich bin mir nach wie vor nicht sicher ob Splinter Cell wirklich Shadowbuffer benutzt. Das könnten durchaus auch Projektionsschatten sein.

Zudem glaube ich auch kaum das wir in Zukunft NV-ONLY oder ATI-ONLY Spiele sehen werden (so blöd ist kein Entwickler) aber Eyecandy wird es wohl immer wieder geben. Und wenn das ganze mit DX gemacht wurde bleibt immerhin die Möglichkeit das bei einer neuere Chip-Generation mehr Karten es darstellen können.

Radeonator
2003-04-08, 13:36:04
Originally posted by Piffan


Die Schattendarstellung ist auf der Radeon gar nicht übel! Das einzige was noch fehlt imho, sind die Schatten im Gesicht von Fisher, da sollte doch sein Restlichtverstärker welche werfen...

Sonst habe ich nirgendwo welcher vermisst...Außerdem alles billige Effekthascherei, die nach zwei Minuten langweilig wird. Entscheident ist der "Look" insgesamt, und da gibts wohl kaum Unterschiede. Was mich richtig nervt, ist das übertriebene Env. Mapping: Da glänzen Flächen, die besser nicht glänzen würden. Oft sieht es auch komplett falsch aus, so wie bei RCTW, wo schon mal ne lange Disk. über diesen Unfug geführt wurde...Warum glänzen die meisten Vorhänge, als wenn sie aus dünner Plastikfolie bestehen?

Die Grafik von Splinter- Cell ist sehr durchwachsen :|

Jo, diese glanz Effekte sind in diversen spielen etwas extrem lächerlich.

Piffan
2003-04-08, 14:02:29
Originally posted by Radeonator


Jo, diese glanz Effekte sind in diversen spielen etwas extrem lächerlich.

Da fällt mir irgend ne Fifa- Folge ein: Da sahen die Fußballer aus wie frisch geölt ;D

Mehrpack
2003-04-08, 17:23:50
Originally posted by Piffan


Da fällt mir irgend ne Fifa- Folge ein: Da sahen die Fußballer aus wie frisch geölt ;D

hi,
na musst du verstehn, so fluchten sie besser über den rasen ;D.
ich denke bzw hoffe auch mal das es keine NV-only oder ATI-only spiele geben wird.

Mehrpack

Anonym_001
2003-04-08, 18:41:01
Originally posted by Mehrpack


hi,
na musst du verstehn, so fluchten sie besser über den rasen ;D.
ich denke bzw hoffe auch mal das es keine NV-only oder ATI-only spiele geben wird.

Mehrpack

Dann wollen wir mal hoffen das dieses Gerücht nicht stimmt.

http://spong.com/index.asp?art=4697

Mehrpack
2003-04-08, 19:58:55
Originally posted by Anonym_001


Dann wollen wir mal hoffen das dieses Gerücht nicht stimmt.

http://spong.com/index.asp?art=4697

hi,
ist mir schon klar und hab ich gehört aber wie gesagt ich denke und hoffe das es sowas nicht geben wird.

Mehrpack

Salvee
2003-04-09, 15:11:24
Originally posted by Demirug
Ich bin mir nach wie vor nicht sicher ob Splinter Cell wirklich Shadowbuffer benutzt. Das könnten durchaus auch Projektionsschatten sein.



Laut Beyond3D (http://www.beyond3d.com/reviews/fairway/r9000pro/index.php?p=2) benutzt nVidia DX8-Hardware Shadow Buffers, ATi-Chips benutzen Shadow Projections.

Edit: Scheinbar haben die Jungs sogar schon den langersehnten 1.2 Patch für SC, der aber nach momentanem Stand der Dinge die Darstellungsfehler bei AA nicht beheben kann...
Irgendwie seltsam, dachte die Probleme entstünden durch Multisampling, für das die dort getestete R9000Pro eigentlich weniger bekannt ist.

Piffan
2003-04-09, 15:17:47
Und wie ist das in UT2? Da steht in den Menüs zwar "Projektors", aber vielleicht gibts da auch einen Unterschied zwischen Ati und NV...

Mir fällt auf, dass die meine Radeon bei den Projektionschatten Grafikfehler produziert, wenn man ganz dicht über den Boden fährt. "Schön" zu sehen in der Map "Compressed". Auf der Gf4 dagegen keine Fehler.....

gRoUnD
2003-04-10, 16:01:35
http://www.golem.de/0304/24962.html

Wurde grad eben von einem Unreg. gepostet. nVidia und EA passen irgendwie zusammen, jedes Jahr nen Aufguss vom Vorjahr :)

Salvee
2003-04-10, 16:03:58
Hmm, schlimmer als bislang kann die EA-Kompatibilität mit ATi sowieso nicht werden ;)

Radeonator
2003-04-10, 16:05:40
Originally posted by Salvee
Hmm, schlimmer als bislang kann die EA-Kompatibilität mit ATi sowieso nicht werden ;)

Stimmt! Ich hab nämlich von NHL98-NBA2003 Live null Probleme, echt fürchterlich :bonk:

LovesuckZ
2003-04-10, 16:11:55
Originally posted by Radeonator
Stimmt! Ich hab nämlich von NHL98-NBA2003 Live null Probleme, echt fürchterlich :bonk:

nagus auch nicht.

Exxtreme
2003-04-10, 16:14:35
Originally posted by Salvee
Hmm, schlimmer als bislang kann die EA-Kompatibilität mit ATi sowieso nicht werden ;)
Naja, das was EA in letzter Zeit an Bugansammlungen veröffentlichte, das geht auf keine Kuhhaut mehr. Ich kaufe nur dann Spiele von EA wenn mind. 2 Patches draussen sind.

Quasar
2003-04-10, 16:15:57
Wieso das?
Die laufen doch alle (NHL98-NBA03) völlig ohne Probleme?? Oder nicht??
(Ich hab' leider keine dieser Games.)
edit:
Oder meinst du mit "Bugsammlung" das Gameplay?

Salvee
2003-04-10, 16:16:33
Battlefield : lief anfangs nicht auf R300
Madden: 'Wetterbug' auf R300
NHL lief glaube ich auch nicht out of the box, iirc
NFS6: ursprünglich Hardlock auf R8500
Sim City 4: Hardlock mit aktiviertem AA

habe ich etwas vergessen ?

Ich meine damit nur, dass bislang wahrscheinlich keine einzige ATi-Karte in EA-Entwicklungsrechnern zu finden war, daher überrascht mich die Golem-Meldung auch kein bisschen.
Ist eigentlich ein alter Hut imo.

Exxtreme
2003-04-10, 16:20:39
Originally posted by Quasar
edit:
Oder meinst du mit "Bugsammlung" das Gameplay?
Das auch. Bei BF1942 gab es einen lustigen Kollisionsbug. Wenn man auf einen Gegner mit dem MG geschossen hat, der sich vom Spieler wegbewegt hat, dann konnte man ihn nicht verwunden.

-X-
2003-04-10, 16:20:45
ein grund mehr EA zu hassen:D

Radeonator
2003-04-10, 16:28:50
Originally posted by Quasar
Wieso das?
Die laufen doch alle (NHL98-NBA03) völlig ohne Probleme?? Oder nicht??
(Ich hab' leider keine dieser Games.)
edit:
Oder meinst du mit "Bugsammlung" das Gameplay?

Ja genau! Mensch du hast es erfasst! Bevor du wieder über Dinge sprichst, von denen du keine Ahnung hast, halt doch einfach mal die fingerchen still...ach ne, dann kannst du ja deine "Weisheiten" nicht mehr verbreiten

Quasar
2003-04-10, 16:38:32
Originally posted by Radeonator


Ja genau! Mensch du hast es erfasst! Bevor du wieder über Dinge sprichst, von denen du keine Ahnung hast, halt doch einfach mal die fingerchen still...ach ne, dann kannst du ja deine "Weisheiten" nicht mehr verbreiten
Wie soll man denn von etwas Ahnung bekommen als Ahnungsloser, wenn man nicht andere Leute drum fragen darf?

Du sagst: Keine Probleme
Exxtreme sagt: Bugsammlung
Salvee sagt: Fehler mit 5 EA-Games.

Entschuldige bitte, aber wieso musst du mich gleich wieder persönlich angreifen? Hast du irgendein Problem mit mir?

Und wo bitte habe ich in dem fraglichen, von dir zitierten Posting "Weisheiten verbreitet"???

Frank
2003-04-10, 16:52:57
Originally posted by Radeonator


Ja genau! Mensch du hast es erfasst! Bevor du wieder über Dinge sprichst, von denen du keine Ahnung hast, halt doch einfach mal die fingerchen still...ach ne, dann kannst du ja deine "Weisheiten" nicht mehr verbreiten Bevor du das nächste mal postest, solltest du dir mal Gedanken über deine Umgangsformen machen und evtl überlegen was zu erst kommt: Schreiben oder Nachdenken. Wenn du ein persönliches Problem mit Quasar hast, kannst du das gern mit ihm per PM regeln - aber nicht öffentlich im Forum beschimpfen.

- aber dein Problem liegt wohl eher bei ATI. Wärst ja nicht der Erste hier.

MadManniMan
2003-04-10, 18:11:34
ich finde es armseelig, verkaufszahlen nicht mehr über leistungsfähigkeit, sondern subventionsvermögen bestimmen lassen zu wollen...

:asshole:s

Fr3aKa$oiD
2003-04-10, 18:15:07
wenn das alles wirklich so eintrifft , dann kaufe ich mir erstrecht als nächste karte ne ati , ich werde sicher nicht der sein der auf den zug der "xtra" feautures mit aufspringt aber dabei nicht entscheiden darf auf welcher karte er sie erlebt , das ist doch tatale kunden verarsche .

Richthofen
2003-04-10, 18:23:40
brauchst ja nur ne Nvidia Karte haben, dann gibts auch keine Probleme :)
Wie ATI das Problem löst ist mir doch wurscht.

Fr3aKa$oiD
2003-04-10, 18:34:50
Originally posted by Richthofen
brauchst ja nur ne Nvidia Karte haben, dann gibts auch keine Probleme :)
Wie ATI das Problem löst ist mir doch wurscht.

das soll kein flame sein aber ich kann mir kaum vorstellen das es gesund ist für den markt wenn man monopole aufgrund von fragwürdigen featurers oder ähnlichem fördert ich für mich werde mit sicherheit als nüächstes ne ati karte kaufen , wenn die anzahl der ati besitzer weiter so steigt , werden die spielefirmen eben auf ihrern programmen sietzen bleiben , nur die entwickler die "alle" karten unterstützen , werden noch genug software verkaufen , um davon zu leben , ende aus

mapel110
2003-04-10, 18:39:54
Originally posted by Fr3aKa$oiD


das soll kein flame sein aber ich kann mir kaum vorstellen das es gesund ist für den markt wenn man monopole aufgrund von fragwürdigen featurers oder ähnlichem fördert ich für mich werde mit sicherheit als nüächstes ne ati karte kaufen , wenn die anzahl der ati besitzer weiter so steigt , werden die spielefirmen eben auf ihrern programmen sietzen bleiben , nur die entwickler die "alle" karten unterstützen , werden noch genug software verkaufen , um davon zu leben , ende aus

unterstützen werden sie es ja. es wird nur ein paar eye candys mehr für FX user geben. allerdings kann ich mir das bei dem speed dieser karten garnicht vorstellen *eg*

zeckensack
2003-04-10, 18:41:12
Originally posted by Richthofen
brauchst ja nur ne Nvidia Karte haben, dann gibts auch keine Probleme :)
Wie ATI das Problem löst ist mir doch wurscht. *kopfschüttel*

Ist dir auch wurscht, wie NV das Problem des technologischen Rückstands löst?
Mit einem 'Aufkleber' auf Spielen, der von der Kundenschaft als "Dieser Entwickler wurde bestochen" verstanden wird!
Ist das jetzt gute PR, oder schlechte PR?
Da hat nicht wirklich ATI ein Problem ... aber für solche Feinheiten bist du ja nicht empfänglich. Kleiner Tip: du solltest so langsam mal anfangen, dir um NVIDIA ernsthaft Sorgen zu machen. Nicht jeder Schachzug von denen ist so brilliant wie du es darstellst.

Salvee
2003-04-10, 18:51:14
Originally posted by Richthofen
brauchst ja nur ne Nvidia Karte haben, dann gibts auch keine Probleme :)
Wie ATI das Problem löst ist mir doch wurscht.

:lol:
Und welche nV-Karte soll ich bitteschön kaufen, ohne gleichzeitig abzurüsten ?

Fr3aKa$oiD
2003-04-10, 18:52:57
Originally posted by mapel110


unterstützen werden sie es ja. es wird nur ein paar eye candys mehr für FX user geben. allerdings kann ich mir das bei dem speed dieser karten garnicht vorstellen *eg*

naja , aber wenn dieses sache richtig schule macht , dann könnte das ausgeweitet werden , was ich nicht hoffe , aber auch nicht ausschließen will

Richthofen
2003-04-10, 20:06:34
"
Mit einem 'Aufkleber' auf Spielen, der von der Kundenschaft als "Dieser Entwickler wurde bestochen" verstanden wird!
Ist das jetzt gute PR, oder schlechte PR?
"
Das ist ja das schöne. Der average Joe wirds eben so nicht verstehen.
Er wird merken das das Game XY auf seiner Graka nicht so rund läuft wie auf der Graka von Joe's best friend.
Dementsprechend wird der beim nächsten mal den IHV wechseln.

Ist mir doch scheiss egal was ATI dagegen unternimmt. Mich interessiert nur das Geschäft und zu einem guten Geschäft gehört grundsätzlich mehr als nur das Produkt.
Wenns erfolgreich ist - prima. Schüttel ich denen die Hände. Ich interessiere mich herzlich wenig dafür ob die Kunden möglichst viel für wenig Geld bekommen. Mich interessiert nur wie und wo Firmen Geld machen können. Alles andere ist mir vollkommen egal.

zeckensack
2003-04-10, 20:20:02
Originally posted by Richthofen
"
Mit einem 'Aufkleber' auf Spielen, der von der Kundenschaft als "Dieser Entwickler wurde bestochen" verstanden wird!
Ist das jetzt gute PR, oder schlechte PR?
"
Das ist ja das schöne. Der average Joe wirds eben so nicht verstehen.
Er wird merken das das Game XY auf seiner Graka nicht so rund läuft wie auf der Graka von Joe's best friend.Wo ist da die Verbindung zu 'The way it's Dingenskirchen'?
Das NV3x-Lineup ist derart schwächlich, daß es mit Entwickler-Subventionen vielleicht noch zum Gleichstand reicht, aber mehr ist rein technisch betrachtet überhaupt nicht möglich.
Dementsprechend wird der beim nächsten mal den IHV wechseln.Exakt.

Ist mir doch scheiss egal was ATI dagegen unternimmt.Was sollen sie auch dagegen unternehmen? "TWIMTBP" ist doch 'ne Lachnummer hoch drei. Noch dazu moddet 'Joe Sixpack' dieses Logo sowieso weg, sofern er einen INet-Zugang bedienen kann. Siehe UT2k3. Hat sowohl Epic als auch NV nichts als Häme eingebracht. Das ist auf Dauer rufschädigend, sonst nichts.

Mich interessiert nur das Geschäft und zu einem guten Geschäft gehört grundsätzlich mehr als nur das Produkt.
Wenns erfolgreich ist - prima. Schüttel ich denen die Hände. Ich interessiere mich herzlich wenig dafür ob die Kunden möglichst viel für wenig Geld bekommen. Mich interessiert nur wie und wo Firmen Geld machen können. Alles andere ist mir vollkommen egal. Ja, prima. NV schaufelt sinnlos Geld und Ressourcen zum Fenster raus mit diesem 'Programm'. Findest du gut, weil du alles gut findest was NV macht. Nachdenken fällt dir nach all den Jahren NV-Vergötterung wohl etwas schwer.

Byteschlumpf
2003-04-10, 20:25:16
@Richthofen,
Das meiste Geld läßt sich immernoch mit P.o.r.n.o.graphie verdienen, wegen der Bezahlinhalte in Form von Abos und Dialern.
Nicht umsonst ist die P.o.r.n.o.branche im Internet so stark vertreten wie keine andere, da mit dem Internet sonst nichts zu verdienen ist.
Das "Gratis-NET" dient lediglich der Repräsentation!

Womit man letztendlich sein Geld verdient - ob seriös oder "unseriös" - bleibt doch jedem selbst überlassen.

Geld = S.E.X! ;)

Demirug
2003-04-10, 20:28:58
Originally posted by zeckensack
Ja, prima. NV schaufelt sinnlos Geld und Ressourcen zum Fenster raus mit diesem 'Programm'. Findest du gut, weil du alles gut findest was NV macht. Nachdenken fällt dir nach all den Jahren NV-Vergötterung wohl etwas schwer.

Soviel Geld wird da gar nicht zusätzlich geschaufelt. Das meiste läuft da über eh über die Beziehungen des Devsupports und die Logos in den Spielen laufen über das Werbebuget. Und da Gamer ja die Hauptzielgruppe sind kann man an andere Stelle Werbebuget einsparen.

LovesuckZ
2003-04-10, 20:35:48
Originally posted by zeckensack
Wo ist da die Verbindung zu 'The way it's Dingenskirchen'?
Das NV3x-Lineup ist derart schwächlich, daß es mit Entwickler-Subventionen vielleicht noch zum Gleichstand reicht, aber mehr ist rein technisch betrachtet überhaupt nicht möglich.
Exakt.


Hm, wo liegen die Vorteile der R350/rv350?

/edit: keine provokative Frage!

Exxtreme
2003-04-10, 20:38:13
Originally posted by LovesuckZ


Hm, wo liegen die Vorteile der R350/rv350?

Hoher Speed bei hochwertiger Darstellung. :)
Bei der GFFX kannst du dich entweder für das eine oder das andere entscheiden, bei ATi haste beides. :)

StefanV
2003-04-10, 20:54:31
Originally posted by Richthofen
brauchst ja nur ne Nvidia Karte haben, dann gibts auch keine Probleme :)
Wie ATI das Problem löst ist mir doch wurscht.

EA könnte die Games ja auch 'hart' an SSE2 anpassen.
Ist denen doch wurscht, wies auf AMD läuft !!

Richthofen, einige deiner Postings sind echt UAS und 1000x schlimmer als das, was ich 'ab und an' fabriziere...

StefanV
2003-04-10, 20:58:56
Originally posted by Fr3aKa$oiD
das soll kein flame sein aber ich kann mir kaum vorstellen das es gesund ist für den markt wenn man monopole aufgrund von fragwürdigen featurers oder ähnlichem fördert ich für mich werde mit sicherheit als nüächstes ne ati karte kaufen , wenn die anzahl der ati besitzer weiter so steigt , werden die spielefirmen eben auf ihrern programmen sietzen bleiben , nur die entwickler die "alle" karten unterstützen , werden noch genug software verkaufen , um davon zu leben , ende aus

Eben, so schauts aus...

Wenn genug ATI Karten im Umlauf sind und nur eine Spieleschmiede sich ATI verschließt, dann hat die Spieleschmiede ein Problem, nicht ATI!!

Denn irgendwann wird sogar Ottonormal DAU auch kapieren, daß der Hersteller scheiße gebaut hat und das es nicht an seiner tollen GraKa liegt...

Iceman346
2003-04-10, 21:03:06
Originally posted by Exxtreme

Hoher Speed bei hochwertiger Darstellung. :)
Bei der GFFX kannst du dich entweder für das eine oder das andere entscheiden, bei ATi haste beides. :)

Wobei man gerechterweise sagen muss das die FX auch höherwertige Darstellungen als die Radeons schaffen. Aber über die Geschwindigkeit reden wir dann lieber nicht...

Piffan
2003-04-10, 21:09:35
Originally posted by zeckensack
*kopfschüttel*

Ist dir auch wurscht, wie NV das Problem des technologischen Rückstands löst?
Mit einem 'Aufkleber' auf Spielen, der von der Kundenschaft als "Dieser Entwickler wurde bestochen" verstanden wird!
Ist das jetzt gute PR, oder schlechte PR?
Da hat nicht wirklich ATI ein Problem ... aber für solche Feinheiten bist du ja nicht empfänglich. Kleiner Tip: du solltest so langsam mal anfangen, dir um NVIDIA ernsthaft Sorgen zu machen. Nicht jeder Schachzug von denen ist so brilliant wie du es darstellst.

Für mich hat NV verspielt. Man muß doch nur in die Mags schauen und sehen, wie NV bei Reviews abgeledert wird. Wenn die dann tatsächlich die Entwickler rumkriegen wollen, müssen die schon recht viel löhnen....
Der Senkrechtstarter von einst wird immer mehr zum Buhman!

Exxtreme
2003-04-10, 21:19:14
Originally posted by Iceman346


Wobei man gerechterweise sagen muss das die FX auch höherwertige Darstellungen als die Radeons schaffen. Aber über die Geschwindigkeit reden wir dann lieber nicht...
Eben, dann kan ich ja gleich den RefRast nehmen... :naughty:
;)

zeckensack
2003-04-10, 21:22:32
Originally posted by LovesuckZ


Hm, wo liegen die Vorteile der R350/rv350?

/edit: keine provokative Frage! Maximale Performance in jeder Lebenslage. Egal welche Shader-Version, egal wieviele Texturen, egal ob FF-T&L oder Vertex Shader.

Bei NV3x gibt's ja so einige Dinge, 'die man nicht machen sollte'(TM).

LovesuckZ
2003-04-10, 21:27:56
Originally posted by zeckensack
Maximale Performance in jeder Lebenslage. Egal welche Shader-Version, egal wieviele Texturen, egal ob FF-T&L oder Vertex Shader.


Gibt es bei der NV31 nicht das Feature, dass sie deutlich weniger Leistung verliere wie der NV30?
Und ob der eine zusaetzliche Vertex Shader so überlegend sein wird...

Demirug
2003-04-10, 21:28:13
Originally posted by zeckensack
Maximale Performance in jeder Lebenslage. Egal welche Shader-Version, egal wieviele Texturen, egal ob FF-T&L oder Vertex Shader.

Bei NV3x gibt's ja so einige Dinge, 'die man nicht machen sollte'(TM).

so richtig satt ist die FF T&L Leistung beim R300 aber nicht. OK für alle Spiele die auf FF T&L aufbauen wird es trotzdem gut reichen und wenn man die Vertexshader als das benutzt für was sie gedacht sind ist die Leistung ja wieder da.

PS: ES gibt auch beim R300 Dinge die man nicht machen sollte ;)

Piffan
2003-04-10, 21:30:23
Was mich noch am meisten ekelt: Alles unter der Spitzen- FX ist sowas von shice.....da ist man noch mit der Gf4 Ti 4200 am besten bedient, wenn es eine NV- Karte sein soll!

Wenn der GF4 eingestellt wird, dann werden vielleicht noch ein paar Ultra FXen verkauft (5800), dann ist bald Schicht im Schacht! Was nützen mir die tollen Shader auf den Billig- FXEn, wenn die so schnarschlahm sind? Die Ableger von der NV30 sind ein totaler Rückschritt! Wenn die Entwickler auf diesen Müll Rücksicht nehmen müssten, dann werden die Spiele eher schlichter statt detaillierter!

Wenn sogar Medion schon auf die Radeons umgeschwenkt ist, dann sollte man sich wirklich langsam mal GEdanken machen bei NV!

Die engagierten Spieler werden einen Bogen um die NV30- Ableger machen (die PcgHardware, aber auch die Gamestar sprechen deutlichste Worte zur NV- Hardware), die OEMs wie Dell und Medion haben die Zeichen der Zeit längst erkannt....

Daran wird der Deal mit EA auch nix ändern: Wenn sich rumspricht, dass die Ati- Spieler beschissen werden, dann kriegt auch EA ein Problem....

Katrin
2003-04-10, 21:42:40
Originally posted by Stefan Payne


EA könnte die Games ja auch 'hart' an SSE2 anpassen.
Ist denen doch wurscht, wies auf AMD läuft !!

Richthofen, einige deiner Postings sind echt UAS und 1000x schlimmer als das, was ich 'ab und an' fabriziere...

nene dürfen sie nicht.. Richi ist doch auch totaler AMD Fan. Also muss es da andere Argumente geben :asshole:

Kati

StefanV
2003-04-10, 21:46:46
Originally posted by Katrin


nene dürfen sie nicht.. Richi ist doch auch totaler AMD Fan. Also muss es da andere Argumente geben :asshole:

Kati

Deswegen sagte ich das ja auch *eg*

Ganz ab davon, daß es dann UU Probleme mit der FTC geben könnte...

Katrin
2003-04-10, 21:51:45
Originally posted by Stefan Payne


Deswegen sagte ich das ja auch *eg*

Ganz ab davon, daß es dann UU Probleme mit der FTC geben könnte...

Bei ihm würde besser nV und Intel passen.. hehe

naja bei mir passt es ja auch nicht--> Intel und ATI.

ABer ich finde Intel ist nicht so schlimm wie nV.

Naja warten wir ma ab was passiert.. Wenn die Games auf Ati Karten nicht mehr laufen, dann kauf ich sie mir halt nicht !!! Genau wie die anderen Ati User. Und weil es davon immer mehr geben wird, ist klar, was passiert...

Kati

MadManniMan
2003-04-10, 23:25:52
Originally posted by Piffan
...immer mehr zum Buhman!

was in der 'politik' noch einigermaßen funktionieren kann wird hier schief laufen. punkt aus ende. nv lebte vom guten ruf - wovon jetzt??

StefanV
2003-04-10, 23:39:19
Originally posted by MadManniMan


was in der 'politik' noch einigermaßen funktionieren kann wird hier schief laufen. punkt aus ende. nv lebte vom guten ruf - wovon jetzt??

...von den Reserven, ein paar durchgeknallten Fanboys, Masochisten und ein paar DAUs, die sie mit ihren 'unglaublich guten' Produkten 'erfreuen'...

mapel110
2003-04-10, 23:57:15
Originally posted by Stefan Payne


...von den Reserven, ein paar durchgeknallten Fanboys, Masochisten und ein paar DAUs, die sie mit ihren 'unglaublich guten' Produkten 'erfreuen'...

und von den langjährigen oem-verträgen, laut richthofen.

gRoUnD
2003-04-11, 11:40:02
Richthofen du solltest Politiker werden. Da bist du unter Gleichgesinnten die nichts lieber tun als permanent zu lügen und Kohle kassieren.

StefanV
2003-04-11, 12:43:34
Originally posted by mapel110
und von den langjährigen oem-verträgen, laut richthofen.

Welcher OEM ist denn so bescheuert und macht Verträge für mehr als 2 Jahre ??

Die OEMs satteln 'so langsam' auch alle auf ATI um, siehe Mediamarkt, ALDI und sicher noch ein paar mehr...

Quasar
2003-04-11, 12:47:14
Bei Aldi zumindest wechseln nV und ATi mit schöner Regelmäßigkeit...

Im Media-Markt hab' ich mal 'nen (Haar-)Fön gekauft, gibt's da auch Computer?

Seraf
2003-04-11, 13:25:18
klar Quasar :D

Die tollen Network oder Siemens Computer und Gericom Notebooks.

StefanV
2003-04-11, 15:22:45
Originally posted by Seraf
klar Quasar :D

Die tollen Network oder Siemens Computer und Gericom Notebooks.

Network = Fujitsu Siemens (meistens) ;)...

Oder auch HP Rechner (z.B. mit AIW 9000 PRO) und anderes...

Piffan
2003-04-11, 20:54:58
Originally posted by Quasar
Bei Aldi zumindest wechseln nV und ATi mit schöner Regelmäßigkeit...

Im Media-Markt hab' ich mal 'nen (Haar-)Fön gekauft, gibt's da auch Computer?

Bei Aldi war bisher stets ein Pentium und ne Grafick von Niewieda drin! Die Radeon im Aldi ist ein Novum!

Media- Markt verkauft alles, was mit Elektrotechnik zusammenhängt!

Quasar
2003-04-11, 20:59:57
*urgs*
Daß man hier auch immer zehn Zwinker-Smileys setzen muss.... ;) ;) ;)

In welchem PC war denn die R9000 AIW drin? Plus? Lidl? Ich meinte, es wäre auch Aldi gewesen...

Piffan
2003-04-11, 21:05:02
Originally posted by Quasar

In welchem PC war denn die R9000 AIW drin? Plus? Lidl? Ich meinte, es wäre auch Aldi gewesen...

Wo die drin war, weiß ich auch nicht, aber definitiv nicht im Aldi. Die letzten Aldis hatten ne Geforce2 MX, ne Geforce 2, ne Geforce 3, ne Gf4 Ti4200 und jetzt die ominöse 9600TX.....

Das mit der Bemerkung zum Mediamarkt war auch nicht so voll ernst gemeint, schließlich sind wir doch nicht blöd! ;) ;) ;)

LovesuckZ
2003-04-11, 21:05:56
Originally posted by Quasar
In welchem PC war denn die R9000 AIW drin? Plus? Lidl? Ich meinte, es wäre auch Aldi gewesen...

Lidl hatte im letzten PC ne 9500 mit 128MB.

Unregistered
2003-04-11, 21:07:45
@Piffan

Sag doch gleich "mein Name ist Hase" ;)

Gruß
Seraf

StefanV
2003-04-11, 21:16:20
Originally posted by Quasar
*urgs*
Daß man hier auch immer zehn Zwinker-Smileys setzen muss.... ;) ;) ;)

In welchem PC war denn die R9000 AIW drin? Plus? Lidl? Ich meinte, es wäre auch Aldi gewesen...

HP Pavillion sonstirgendwas von MM, eventuell wars mal ein PLUS Rechner.

StefanV
2003-04-11, 21:19:19
Originally posted by Piffan


Wo die drin war, weiß ich auch nicht, aber definitiv nicht im Aldi. Die letzten Aldis hatten ne Geforce2 MX, ne Geforce 2, ne Geforce 3, ne Gf4 Ti4200 und jetzt die ominöse 9600TX.....

Das mit der Bemerkung zum Mediamarkt war auch nicht so voll ernst gemeint, schließlich sind wir doch nicht blöd! ;) ;) ;)
Hey, du hast 'meinen' ALDI PC vergessen:

Riva 128ZX Onboard, der Nachfolger hatte 'ne TNT onboard.

Piffan
2003-04-11, 23:10:12
Originally posted by Stefan Payne

Hey, du hast 'meinen' ALDI PC vergessen:

Riva 128ZX Onboard, der Nachfolger hatte 'ne TNT onboard.

Ich sprach von den letzten Aldis und nicht von den ersten.....meiner hatte nämlich ne S3 Trio PCI, der Proz war ein Cyrix 150+ :o

aths
2003-04-12, 03:20:00
Originally posted by Piffan
Der Senkrechtstarter von einst wird immer mehr zum Buhman! Seit wann ist nV ein Senkrechtstarter?

Razor
2003-04-12, 07:03:05
Bevor die Diskussion hier endgültig im Abseits landet...
:D

Sagt mal Leutz, kann es sein, dass Ihr hier gewichtige Dinge überseht ?
Schaun' wir uns die Lage doch mal an:

ATI
Haben vor über 'nem halben Jahr den R300 heraus gebracht und nix daran verdient. Kommen jetzt mit 'nem RV350 im 0.13 an dem sie vielleicht was verdienen können (wenn das Teil denn irgendwann kommt ;-), aber in einer ganz anderen Leitungsklasse spielt und wohl nicht mal an die 'uralte' (TM) R9500pro heran kommt... und das trotz höherem Takt ! Tja, und den R350, der nichts anderes zu sein scheint, als eine übertaktete R9700pro.

Und nach ATI's Aussage soll da auch nichts mehr kommen, bis dann der R400 das Licht im Q1/2004 erblickt. Auch soll der Produktzyklus dann (wieder ;-) auf 24 Monate anwachsen, was dann wohl heißen dürfte, dass der R400 (wenn er denn kommt) erst mal das Ende der Fahnenstange ist...

Wo ist hier die Innovation, oder der Weitblick ?
Wo ist gar die bessere Entwicklungsleistung von ATI ?
Schließlich ist der R300 doch wohl von ArtX gekommen, oder etwa nicht ?

nVidia
Dieser Tage (!) kommen die ersten GFFX'er an den Markt. Ein paar 5800'er sind zu haben und die ersten 5200'er scheinen das Licht der Welt zu erblicken. Die 5600'er wird die Runde machen, womit nVidia der Konkurrenz in allen (!) Segmenten ein Produkt entgegen setzt, wenn man mal von dem 'R350' von ATI absieht... weswegen ja für mitte Mai auch schon der NV35 erwartet wird, der - analog zum NV31 - keine FP32-'Schwäche' mehr haben soll und dann wohl ein 'bissel' schneller sein dürfte, als das bisherige Flagschiff. Dazu kommt dann noch der NV36 der das Segment nach unten hin abrunden dürfte...

Bei nVidia ist also schlicht noch nichts entschieden.
Ganz im Gegenteil läuft ihre neue Produktpalette doch gerade erst an !

Wer also der Meinung ist, dass nVidia jetzt gewaltige Probleme hat und nicht mehr weiß, was sie tun, dem muss ich hier doch massive Realitätsverlust unterstellen. Ganz im Gegenteil machen sie einfach nach 'Schema F' (TM) weiter und bringen nun die Folgeprodukte wie geplant. Dem NV30 wird eine sehr kurze Lebenszeit 'gegönnt' sein und nVidia wird dann vermutlich mit den NV31/34/35/36 die gesamte Marktpalette abdecken können, bei der für jeden (auch für die jetzigen Zweifler ;-) etwas dabei ist. Auch stellen sie vermutlich dann wieder den Performance- und Technologie-King für mindestens 6-9 Monate...

-

Klar ist das alles nur eine Vermutung (zumindest was die Entwicklung bei nVidia angeht ;-), aber zu unrealistisch dürfte das eigentlich nicht sein. Ich kann nur nirgendwo erkennen, dass nVidia irgendwo Boden verliert, oder jetzt Dinge tut, die nicht von langer Hand vorbereitet wurden.

Ebenso klar ist, dass sie einen einzigen (!) Produktlaunsch in den Sand gesetzt haben, weil sie eben früher auf den lukrativeren 0.13-Zug aufspringen wollten. Und das scheinen sie ja jetzt geschafft zu haben. Zudem werden sie zukünftigen Problemen dieser Art aus dem Wege gehen können, da sie sich nun einen wesentlich interessanteren Partner für ihre Technologie-Entwicklung gesucht haben (IBM, wer es nicht mitbekommen haben sollte ;-).

Alles in allem läuft also für nVidia derzeit alles so, wie es soll.
Dass ATI jetzt noch ein bissel Loorberen erntet, die sie ja eingentlich nicht mal verdient haben (nochmal der Verweis auf ArtX), stört dabei nicht im geringsten.

ATI wird nächstes Jahr zeigen müssen, zu was sie in der Lage sind.
Und schon dieses Jahr werden sie zeigen müssen, ob sie in der Lage sind, auch mal Gewinn zu machen...

nVidia tut dies schon die ganze Zeit trotz massiver Investitionen und wie es ausschaut, werden sie das auch weiterhin tun.

-

Und um mal auf's eigentliche Thema kommen:

Ich könnte mir durchaus vorstellen, dass bei der Kooperation mit den Spieleschmieden sogar was Positives heraus kommt (nicht, dass dies ja schon laaaaange der Fall ist, nur das jetzt eben auch damit geworben wird, was wiederum für das Marketing von nVidia spricht), denn durch eine noch engere Zusammenarbeit mit den Entwicklern wird es u.U. gelingen, vielleicht sogar sehr viel früher an Games zu kommen, die mit DX9-Effekten ala MN vom Murks aufwarten können.

Und glaubt mir, liebe Leutz, genauso wie jetzt einige zu ATI hüpfen, weil sie derzeit das bessere Produkt bieten, werden sie wieder zu nVidia hüpfen, wenn es anders herum ist.

Das was hier in den Foren gebrabbelt wird, ist ja ganz nett, geht an der Realität aber kräftig vorbei. Schließlich ist in den Läden, wo der DAU hingeht (i.e. MediaMarkt) nix von den tollen R300 zu sehen... da gibt's 'ne Herkules 9700 (nonPro) für satte 400€ und sonst ist nix zu sehen, ausser eins/zwei 9000'er... im Gegenzug aber 'ne Menge an gf4's (ti/mx) in allen Variationen und Preislagen.

Wie schon gesagt, nVidia hat gerade erst angefangen und wir alle dürfen darauf gespannt sein, was da in der nächsten Zeit so kommt... und ATI sollte sich hüten, jetzt auf der faulen Haut zu liegen, denn das dürfte ein kapitaler Fehler sein.

In diesem Sinne

Razor

P.S.: mann, war das 'nen langer... und für meisten vermutlich sogar sinnloser Post...
:D

mictasm
2003-04-12, 07:23:18
Also ich fand den gut. Und eigentlich auch soweit ganz schlüssig. Ja, ich gebe zu, seit der mach32 habe ich keine ATI mehr gekauft...

Gruss,

MIC

Mr. Lolman
2003-04-12, 08:42:26
ui, zum Leidwesen mancher ATi Fanboys hat Razor recht. Allerdings würde ich das Ganze etwas abschwächen:

IMHO bildet sich ATi ernsthaft ein, so gute konkurrenzfähige Chips ruasubringen, sodass nur alle24 Monate ein neuer raus muss.
Dass es dazwischen weitere Refreshs gibt. dürfte wohl klar sein. Sogar der R300/350 dürfte maximal 12 Monate wirklich mitmischen können (was schon extrem ziemlich viel ist)

Nvidia wird ib Zukunft immer mehr mit Treiber und Lieferproblemen zu kämpfen haben. Ich kann mir nicht vorstellen, dass nach der NV35 vorstellung der auch so bald verfügbar sein wird. Andersrum sollte NV den NV35 aber ziemlich bald vorstellen, um wieder die Perfomance (vielleicht soagr Qualitäts-) Krone für sich erringen zu können.
Treiberprobleme deshalb, weil relativ unterschiedliche Chips in relativ kurzer Zeit das Lich der Welt erblicken. Noch (Noch ist die CPU Last des NV30 höher als bei der GF4, soagr als bei der R300)

An diesem 24 Monate Produktzyklus, dürfte wirklich eine vernünftige Überlegung liegen (vorrausgesetzt ma kann leistungsmässog mitmischen)
Welche HW kauft sich der User lieber:

Eine NV30 weil er weiss, das bald die NV35 erscheint, die viel schneller oder besser ist?

Einen R300/R350, der von seitens ATi sicher bis 1.Q 2004 aktuell, und demnach bestens supportet sein wird?

zeckensack
2003-04-12, 10:31:52
Aus meiner von mir aus nicht ganz neutralen Perspektive fällt mir da was auf, werter Razor :D
Originally posted by Razor
ATI
<...> vielleicht <...> (wenn das Teil denn irgendwann kommt ;-) <...> (wenn er denn kommt) <...>

nVidia
<...> wird <...> mitte Mai <...> keine FP32-'Schwäche' mehr haben soll <...> 'bissel' schneller sein dürfte <...> kommt <...>
Man vergleiche die Natur der herausgestellten Schnipsel :naughty:

Bitte nicht bös nehmen, aber NVIDIA 'vertraust' du, und ATI eben nicht, das wird aus dem Post ganz deutlich.

Piffan
2003-04-12, 10:46:43
Originally posted by zeckensack
Aus meiner von mir aus nicht ganz neutralen Perspektive fällt mir da was auf, werter Razor :D

Man vergleiche die Natur der herausgestellten Schnipsel :naughty:

Bitte nicht bös nehmen, aber NVIDIA 'vertraust' du, und ATI eben nicht, das wird aus dem Post ganz deutlich.

Gaynau so ist das: Man kann vieles von langer Hand planen...aber ob es denn klappen wird, das ist niemals planbar!

So wie man mit dem NV30 sowohl vom Design als auch der technischen Realisierung auf die Schnauze gefallen ist, so könnte dies auch noch mal passieren! IBM wird einen Reinfall auch nicht verhindern können, wenn es mit dem nächsten Monsterchip wieder nix wird!

Imho übernimmt sich NV. DFX ist auch über die eigene Großspurigkeit gefallen......

Zur Kooperation von NV mit EA: Da wird gar nix Positives bei rauskommen! Da wird nur versucht, einen Wettbewerber auszustechen zum Nachteile der Konsumenten!

Razor
2003-04-12, 11:29:12
Originally posted by zeckensack
Aus meiner von mir aus nicht ganz neutralen Perspektive fällt mir da was auf, werter Razor :D

Man vergleiche die Natur der herausgestellten Schnipsel :naughty:

Bitte nicht bös nehmen, aber NVIDIA 'vertraust' du, und ATI eben nicht, das wird aus dem Post ganz deutlich.
Tja zeckman... so ganz passen Deine Schnipsel leider nicht...
;-)

Und wenn Du so etwas das nächstes mal quotest, dann laß doch bitte das "Orginally" einfach weg, OK ?

Und mal zur Richtigstellung:
"mitte Mai" + "erwartet wird" + "haben soll" + "sein dürfte" + "dazu kommt" + "dürfte" = was ?
???

Nicht nur dass Du die Reihenfolge vertauschtest (ich will Dir da keine Absicht unterstellen ;-), Du hast es auch noch aus dem Zusammenhang gerissen ! So etwass erwarte ich nun gerade von einem Mod nicht unbedingt...

Wie dem auch sei, die Fakten bei ATI liegen so ziemlich auf dem Tisch, die von nVidia nicht.
Vergleiche hierzu auch:

"Klar ist das alles nur eine Vermutung (zumindest was die Entwicklung bei nVidia angeht ;-), aber zu unrealistisch dürfte das eigentlich nicht sein."

Ich denke, dass ich es schon richtig formuliert habe und Du dieses einfach nur ein bissel "entkräften" wolltest, ohne eigentliche Argumente zu bringen, oder ?

Wäre 'nett' von Dir, wenn Du Dich mal zum Inhalt auslassen würdest und nicht nur versuchst, meinen Post zu mißkreditieren. Schließlich habe ich mir doch wirklich Mühe gegeben, das ganze umfassend und möglich klar darzustellen...

Bis denne

Razor

P.S.: Und nix für ungut, auch ein Mod kann mal daneben liegen... ;-)

Razor
2003-04-12, 11:39:09
Originally posted by Piffan

Gaynau so ist das: Man kann vieles von langer Hand planen...aber ob es denn klappen wird, das ist niemals planbar!

So wie man mit dem NV30 sowohl vom Design als auch der technischen Realisierung auf die Schnauze gefallen ist, so könnte dies auch noch mal passieren! IBM wird einen Reinfall auch nicht verhindern können, wenn es mit dem nächsten Monsterchip wieder nix wird!

Imho übernimmt sich NV. DFX ist auch über die eigene Großspurigkeit gefallen......

Zur Kooperation von NV mit EA: Da wird gar nix Positives bei rauskommen! Da wird nur versucht, einen Wettbewerber auszustechen zum Nachteile der Konsumenten!
Sag mal Piffan, was genau hast Du bei meinem Post nicht verstanden ?

Noch klappt gar nichts, weil schlicht noch keine Produkte am Markt sind, die was 'klappen lassen' könnten. Und ich denke schon, dass Produktstrategien planbar sind... allerdings kann immer was passieren, was die Plaung durcheinander wirft, wie im Falle von nVidia die Probleme mit dem 0.13 Prozeß (die bei ATI noch anstehen ;-).

Das Design des NV30 wird schon OK gewesen sein, nur war es für einen anderen Fertigungsprozeß (auch 0.13, aber... ;-) und vor allem für einen anderen Zeitpunkt und natürlich andere Taktraten. Klar, er ist eindeutig zu spät gekommen, aber was sollte nVidia jetzt daran hindern nach Plan fortzufahren ?

Und das mit dem nächsten 'Monster Chip' wollen wir doch, wie auch den jetzigen Produkt-Launch, doch einfach mal abwarten, oder ? Von ATI kommt nun (nach eigener Aussage !) nicht mehr viel und nVidia fängt gerade erst an, oder siehst Du das anders ? Wenn ja, schreib bitte auch "warum".

Und woran machst Du fest, dass sich nVidia 'übernimmt' ?
Das würde mich wirklich mal interssieren...

-

Ansonsten wäre es nett, wenn Du Deine Komentare auch mal begründen würdest, Piffan, und hier nicht einfach nur rumspammst. Das ist jetzt wirklich nicht böse gemeint, aber mir ist aufgefallen, dass diese Deine Kommentare in Ihrer Qualität seit dem Du ins ATI-Lager wechseltest erheblich nachgelassen haben.

Woher der Sinneswandel ?

Schau Dir Quasar an... dem hat's doch auch nicht gleich die Scheuklappen aufgesetzt und die Spamtröte in den Mundwinkel gesteckt, nur weil 'ne ATI-Karte in seinem Rechner werkelt.

Sorry, aber irgendwie...

Bis denne

Razor

MadManniMan
2003-04-12, 12:25:36
Originally posted by Razor

Dass ATI jetzt noch ein bissel Loorberen erntet, die sie ja eingentlich nicht mal verdient haben

@all, die zu faul waren, disen hirnverbrannten post ganz durchzulesen - ich hab mal die zentrale aussage rausgeschrieben...

razor, das war dein längster und subjektivster flame seit langem. ich dachte eigentlich, du kämest doch noch zu vernunft :nono:

Crazy_Bon
2003-04-12, 15:10:44
Originally posted by LovesuckZ


Gibt es bei der NV31 nicht das Feature, dass sie deutlich weniger Leistung verliere wie der NV30?
Und ob der eine zusaetzliche Vertex Shader so überlegend sein wird...
Ähmm.. die NV31 ist doch die FX5200, mit weniger Leistung verlieren dürfte wahrscheinlich die enstehende Verlustleistung in Abwärme gemeint sein. ;)

Zu Nvidia generell, ich finde es regelrecht erbärmlich, dass die schon bei der Riva TNT1 das Feature FP24 angepriesen haben und bis zur heutigen Zeit immernoch in den Treibern standardmäßig FP16 verwendet wird, FP24 kommt nur zum Zuge wenn diese die Anwendung explizit anfordert.
Bei anderen Grafikchips anderer Hersteller ist dies jedoch schon lange Standard, messbare Unterschiede gibt es auch nicht, es gibt keinen Grund es nicht freizuschalten. FP16 entspricht auch nicht DX9, da ist mindestens FP24 vorgeschrieben glaube ich, und dass sie vom FutureMark dafür einen auf dem Deckel bekommen ist nur zu Recht.

Demirug
2003-04-12, 15:53:46
Originally posted by Crazy_Bon

Ähmm.. die NV31 ist doch die FX5200, mit weniger Leistung verlieren dürfte wahrscheinlich die enstehende Verlustleistung in Abwärme gemeint sein. ;)

Zu Nvidia generell, ich finde es regelrecht erbärmlich, dass die schon bei der Riva TNT1 das Feature FP24 angepriesen haben und bis zur heutigen Zeit immernoch in den Treibern standardmäßig FP16 verwendet wird, FP24 kommt nur zum Zuge wenn diese die Anwendung explizit anfordert.
Bei anderen Grafikchips anderer Hersteller ist dies jedoch schon lange Standard, messbare Unterschiede gibt es auch nicht, es gibt keinen Grund es nicht freizuschalten. FP16 entspricht auch nicht DX9, da ist mindestens FP24 vorgeschrieben glaube ich, und dass sie vom FutureMark dafür einen auf dem Deckel bekommen ist nur zu Recht.

???

Ich glaube du bringst da einiges durcheinader.

vor R300 und NV30 gab es in Cosumerkarten keine Fliesspunktformate (FP) in den Pixelshadern.

Ansonsten hatte wir diese Themen schon alle zu genügend und NVIDIA ist in keinem der Fälle die du vermutlich meinst ein vorwurf zu machen da sie sich immer im Rahmen der entsprechenden Spezifikation bewegen.

Xmas
2003-04-12, 16:33:19
Auch ist NV31 die FX5600, nicht die FX5200.

Crazy_Bon
2003-04-12, 17:20:07
Stimmt ja, die FX5200 ist NV34 und FX5600 die NV31.
Aber dass FP24 nix neues für Nvidia ist, kann man hier aus den Spezifikationen des Riva TNT1 in diesem Bericht (http://www.3dconcepts.de/chips/2ndgen/rivatnt.htm) ersehen, dabei habe ich den Z-Buffer gemeint im zuvorherigen Post.

Demirug
2003-04-12, 17:33:13
Originally posted by Crazy_Bon
Stimmt ja, die FX5200 ist NV34 und FX5600 die NV31.
Aber dass FP24 nix neues für Nvidia ist, kann man hier aus den Spezifikationen des Riva TNT1 in diesem Bericht (http://www.3dconcepts.de/chips/2ndgen/rivatnt.htm) ersehen, dabei habe ich den Z-Buffer gemeint im zuvorherigen Post.

Und was hat der Z-Buffer mit dem 3dmark03 zu tun?

Unter Direct3D bekommt man genau die Z-Buffer Auflösung die man anfordert und man muss eine anfordern. Und auch unter DX9 wird ein 16Bit Z-Buffer nach wie vor unterstützt.

Du darfst ja gerne Prügel verteilen aber bitte nur für Sachen wo es auch berechtigt ist. ;)

Razor
2003-04-12, 23:27:21
Originally posted by MadManniMan

@all, die zu faul waren, disen hirnverbrannten post ganz durchzulesen - ich hab mal die zentrale aussage rausgeschrieben...

razor, das war dein längster und subjektivster flame seit langem. ich dachte eigentlich, du kämest doch noch zu vernunft :nono:
Auch an Dich die Bitte, mich nicht aus dem Zusammenhang zu zitieren...
(ich weiß, dass Du das kannst ;-)
Alles in allem läuft also für nVidia derzeit alles so, wie es soll.
Dass ATI jetzt noch ein bissel Loorberen erntet, die sie ja eingentlich nicht mal verdient haben (nochmal der Verweis auf ArtX), stört dabei nicht im geringsten.
Da steht also sehr genau, wie ich das gemeint habe...
Und auch ist dies aus der Sicht nVidia's formuliert, was aber an Deinem Quaote nicht ersichtlich ist.

Aber vielleicht kannst Du ja mal erklären, was ATI denn jetzt für den R300 getan hat, ausser, dass sie ArtX gekauft haben ?

Bis denne

Razor

P.S.: Ich dachte eigentlich, dass von Dir qualifiziertere Aussagen zu dem Thema zu erwarten sind, aber offensichtlich scheust Du Dich ebenfalls vor Argumenten, wie es auch bei zeckensack der Fall ist...

Exxtreme
2003-04-12, 23:34:30
Originally posted by Razor

Aber vielleicht kannst Du ja mal erklären, was ATI denn jetzt für den R300 getan hat, ausser, dass sie ArtX gekauft haben ?

Bis denne

Razor

ATi hat das Teil entwickelt. :)
ArtX gibt es nicht mehr und es gibt auch kein Team, welches aus ArtX-Leuten besteht. :wink:
Die Jungs sind innerhalb der Firma verteilt worden und deren KnowHow ist schon in die R200 eingeflossen.

Razor
2003-04-12, 23:37:08
Originally posted by Exxtreme

ATi hat das Teil entwickelt. :)
ArtX gibt es nicht mehr und es gibt auch kein Team, welches aus ArtX-Leuten besteht. :wink:
Die Jungs sind innerhalb der Firma verteilt worden und deren KnowHow ist schon in die R200 eingeflossen.
Bis Du sicher ?
Meine da was ganz anderes in Erinnerung zu haben !

Razor

Exxtreme
2003-04-12, 23:38:48
Originally posted by Razor

Bis Du sicher ?
Meine da was ganz anderes in Erinnerung zu haben !

Razor
Ja, ich bin mir sicher. Es gibt kein ArtX-Team. Es gibt ein East- und ein West-Team. Die ArtX-Mitarbeiter sind auf beide Teams verteil worden.

Razor
2003-04-12, 23:44:35
Originally posted by Exxtreme

Ja, ich bin mir sicher. Es gibt kein ArtX-Team. Es gibt ein East- und ein West-Team. Die ArtX-Mitarbeiter sind auf beide Teams verteil worden.
Ich meinte eigentlich den R300, der AFAIK schon im ArtX-Portfolio enthalten gewesen sein soll, als sie übernommen wurden... Und damit dieser Chip lediglich auf ein Board gepappt und unter die Leute gebracht werden musste. Der R200 ist, soweit ich weiß, noch auf dem Mist von ATI gewachsen (das 'Mist' enthält KEINE Wertung !).

Werde mich aber gerne eines besseren belehren lassen, wenn durch nachvollziehbare Quellen belegt...

Bis denne

Razor

Xmas
2003-04-12, 23:48:21
Razor, ATI hat ArtX im April 2000 übernommen. Das sollte wohl Antwort genug sein.

Exxtreme
2003-04-13, 00:05:45
Originally posted by Razor

Ich meinte eigentlich den R300, der AFAIK schon im ArtX-Portfolio enthalten gewesen sein soll, als sie übernommen wurden... Und damit dieser Chip lediglich auf ein Board gepappt und unter die Leute gebracht werden musste. Der R200 ist, soweit ich weiß, noch auf dem Mist von ATI gewachsen (das 'Mist' enthält KEINE Wertung !).

Werde mich aber gerne eines besseren belehren lassen, wenn durch nachvollziehbare Quellen belegt...

Bis denne

Razor
ArtX hatte den R300 nicht als sie von ATi übernommen wurden. Sie hatten nicht mal den Flipper für Nintendos Gamecube komplett fertig. :)

Und die R300 ist im Grunde genommen eine sehr stark überarbeitete R200. Da musste ATi von sich aus nicht sehr viel Entwicklung reinstecken.

AlfredENeumann
2003-04-13, 00:30:40
Originally posted by Razor

Aber vielleicht kannst Du ja mal erklären, was ATI denn jetzt für den R300 getan hat, ausser, dass sie ArtX gekauft haben ?





Aber vielleicht kannst Du ja mal erklären, was Nvidia denn jetzt für den NV3X getan hat, ausser, dass sie 3DFx gekauft haben ?

Piffan
2003-04-13, 01:13:13
Originally posted by AlfredENeumann



Aber vielleicht kannst Du ja mal erklären, was Nvidia denn jetzt für den NV3X getan hat, ausser, dass sie 3DFx gekauft haben ?

Ach lass es doch!

Auf diesem Niveau würde ich keine Diskussion führen! Ist reichlich witzlos! Mir ist es schnurz, ob der Chip von Ati, von ArtX entwickelt wurde oder vom Himmel fiel! Was ändert dies an den Fakten? Derzeit sieht NV reichlich alt aus und Punkt! Wenn NV mit dem nächsten Chip die bessere Hardware hat und auch die Treiber wieder im Lot sind, dann hat NV halt die nächste Runde gewonnen und ich werde aufs Neue sehen, wo ich das Beste für die Kohle kriege!

Falls ich den Eindruck habe, dass ich als Konsument verarscht werde, dann hätte dies dauerhafte Konsequenzen!

Eigentlich finde ich es doof, sich auf Gedeih und Verderb an eine Marke zu hängen.....aber manche Dinge können einen schon dazu bringen, eine Firma zu hassen und darum nicht besonders rational zu handeln ;)

Derzeit geht mir NV richtig auf die Nerven! Wenn ich sehe, dass die Radeon technisch auf der Höhe ist, aber dennoch durch gewisse "Optimierungen" für einen bestimmten Chiphersteller künstlich ausgebremst wird bzw. die Entwickler so proggen, dass manches auf der Radeon nicht läuft, dann werde ich richtig sauer!

Man kann nur hoffen, dass die Atis einen noch größeren Marktanteil erhalten und so die Progger es sich drei mal überlegen, ob sie nach der Pfeife von NV tanzen wollen.....

Nicht ganz unwichtig ist allerdings, wie lukrativ der PC- Spiele Markt ist. Wenn die Raubkopiererei noch weiter zunimmt, dann sehe ich langfristig schwarz für den PC als Plattform für Spiele.......und da müsste man sich nicht wundern, wenn sich die Entwickler auf die Konsolen stürzen und den PC konsolenmäßig bedienen, also nur für einen Grakachipsatz proggen........

Mehrpack
2003-04-13, 02:19:14
Originally posted by Razor
langer post.

hi,
naja ich denke auch nvidia wird nicht mehr so weiter machen können wie bisher.
denn a) war bis jetzt immer eine neue DX version das zugpferd für neue grafikkarten und MS hat ja offizell gesagt das bis DX10 es eine ganze ecke dauern wird (der boah das muss ich haben, weil geile neue effekte effekt) und b) werden die chips nicht kleiner sondern immer grosser und aufwendiger, was ja auch mehr aufwand, mehr ingeniure bedeutet.
und c) die verfügbarkeit geeigneter fertigungsprozesse, und ich denke in zukunft wird es da noch mehr probleme geben bei den immer kleineren fertigungsgrössen als bisher, auch bei IBM imho.

ich denke auch nvidia wird wohl ausser ein paar refresh keine grundlegen neuen designs wirklich noch alle 12 bis 18 monate bringen können, sondern wird wohl auch aus wirtschaftlicher sicht auch auf 24 monate gehn.
auch wenn sie es vielleicht nicht offizell zugeben, jedenfalls im moment.
denn um sowas offizell zumachen, ist im moment bei NV nicht die richtige zeit, bei ATI schon eher.

Das ist jedenfalls meine einschätzung der dinge.

Mehrpack

Razor
2003-04-13, 06:58:41
@ Xmas & Exxtreme

Ich hab' jetzt mal ein bissel gesucht, oder besser suchen lassen...
Man gebe bei www.googel.de einfach die Wörtchen "artx ati r300" ein und schon bekommt man viele, viele Hinweise.
Aber KEINEN, dass ATI den R300 auch ohne ArtX hinbekommen hätte...

Zumindst aber muss ich mich insofern korrigieren, als dass ArtX und ATI (die Entwickler beider Firmen, wovon erstere als eigenständige Instanz wohl nicht mehr existiert) zusammen am R300 gearbeitet haben, dieser aber im wesentlichen auf dem Flipper (GameCube) basierte, den ArtX schon fast zur Produktionsreife gebracht hatte, als ATI sie dann aufkaufte.

Hier also mal ein paar 'Fuad-Hinweise' vom Inquirer:

"ATi's R300 futures - From Gamecube to PC" vom 21.12.2001
http://www.theinquirer.net/?article=1991

"ATI R300 details out" vom 14.1.2002
http://www.theinquirer.net/?article=2200

Und vielleicht etwas offizielleres von Beyond3D:

'Hinweis' auf Beyond3D vom 19.8.2002
http://www.beyond3d.com/reviews/ati/radeon9700pro/
We've known that 'R300' would be the next high end chip from the Canadian firm and we've also heard that the ARTx team that ATI purchased some time ago--and who were responsible for the graphics element in Nintendo's Gamecube--would be the mainstay of the design team.
Indirekter Hinweis auf Beyond3D vom 3.3.2003
http://www.beyond3d.com/previews/nvidia/gffxu/
While the rumour mill of ATI's latest release churned away, R300, the first tangible fruits of the union of ATI and ARTX, was eventually announced and managed to raise many eyebrows.Wem das nicht reicht, möge bitte die o.g. Anleitung zu selber suchen benutzen.

-

Und noch einmal: Ich wäre sehr an einem Link, oder einen Verweis interessiert, der diese Sach klar stellt. Ich konnte keinen Hinweis darauf finden, dass ATI die federführende Instanz (hinsichtlich der Entwicklungsleistung !) beim R300 war und das dieser nicht vom Flipper abstammte (der zugegebener maßen lange nicht so weit entwickelt war, wie der R300). Und ich habe KEINEN Hinweis darauf gefunden, dass der R300 in irgend einer Weise vom R200 abstammte...

Wäre also recht 'nett', liebe Leutz, wenn Ihr mich da mal aufklären könntet.

Bis denne

Razor

Razor
2003-04-13, 07:01:39
Originally posted by AlfredENeumann

Aber vielleicht kannst Du ja mal erklären, was Nvidia denn jetzt für den NV3X getan hat, ausser, dass sie 3DFx gekauft haben ?
Für den NV30 ?
Meinst Du das ernst ?
???

Razor

Razor
2003-04-13, 07:14:03
Originally posted by Piffan

Auf diesem Niveau würde ich keine Diskussion führen! Ist reichlich witzlos! Mir ist es schnurz, ob der Chip von Ati, von ArtX entwickelt wurde oder vom Himmel fiel! Was ändert dies an den Fakten? Derzeit sieht NV reichlich alt aus und Punkt! Wenn NV mit dem nächsten Chip die bessere Hardware hat und auch die Treiber wieder im Lot sind, dann hat NV halt die nächste Runde gewonnen und ich werde aufs Neue sehen, wo ich das Beste für die Kohle kriege!
Wo bitte sieht nVidia reichlich alt aus ?

Weil ihr viel zu spät releaster Chip NV30 (immerhin fast ein Jahr !) jetzt nur noch eine Lachnummer ist ?
Das 'Update' (nicht 'Refresh !) jetzt aber nach plan kommt und vermutlich ganz anders aussehen wird ?

Weil ATI Verluste einfährt und nVidia Gewinne ?
(selbst 'bereinigte' Erlöse ATI's kommen nicht mal ansatzweise an die von nVidia heran)

Oder woran machst Du das fest ?
???
Originally posted by Piffan

Falls ich den Eindruck habe, dass ich als Konsument verarscht werde, dann hätte dies dauerhafte Konsequenzen!
Wo bist Du denn 'verarscht' worden ?
Hat Deine gf4ti nicht gefunzt ?
Und glaubst Du ernsthaft, dass es für nVidia Konsequenzen hat, wenn Du hier rum pupst.
(sorry, aber mehrmachst Du hier nicht !)

Oder meinst Du die ATI-Kunden, die sich 'ne R9600 zulegen und dann fest stellen, dass es ja 'nur' 'ne RV350 ist und keinesfalls was mit der Leistungsfähigkeit einer R300 oder eines NV25 zu tun haben. Oder die Kunden der R9800, die damit einen ab Werk übertakteten R300 in die Finger bekommen.

Was genau meinst Du also ?
Originally posted by Piffan

Eigentlich finde ich es doof, sich auf Gedeih und Verderb an eine Marke zu hängen.....aber manche Dinge können einen schon dazu bringen, eine Firma zu hassen und darum nicht besonders rational zu handeln ;)
Und ich finde es Doof 'auf gedeih und verderb' etwas schlechtes zu suchen !
Sicher, auch ich bin weit davon entfernt, objektiv zu sein, das ändert aber nichts an der Tatasache, dass ich zumindest versuche, meine Ansicht zu belegen...
Originally posted by Piffan

Derzeit geht mir NV richtig auf die Nerven! Wenn ich sehe, dass die Radeon technisch auf der Höhe ist, aber dennoch durch gewisse "Optimierungen" für einen bestimmten Chiphersteller künstlich ausgebremst wird bzw. die Entwickler so proggen, dass manches auf der Radeon nicht läuft, dann werde ich richtig sauer!
Nun hör aber mal auf !
Auf die Belege, die das stützen, was Du hier gerade von Dir gibst, bin ich aber mal gespannt...
Originally posted by Piffan

Man kann nur hoffen, dass die Atis einen noch größeren Marktanteil erhalten und so die Progger es sich drei mal überlegen, ob sie nach der Pfeife von NV tanzen wollen.....
Bisher hat sich da nicht viel getan...
Wenn ich das richtig sehe, haben sie auf der einen Seite gewonnen, auf der anderen aber verloren.
Sehr viel schlechter, als vorher, geht es ihnen auf jeden Fall nicht...
;-)
Originally posted by Piffan

Nicht ganz unwichtig ist allerdings, wie lukrativ der PC- Spiele Markt ist. Wenn die Raubkopiererei noch weiter zunimmt, dann sehe ich langfristig schwarz für den PC als Plattform für Spiele.......und da müsste man sich nicht wundern, wenn sich die Entwickler auf die Konsolen stürzen und den PC konsolenmäßig bedienen, also nur für einen Grakachipsatz proggen........
Hat zwar nichts mit dem Thema zu tun, aber bitte:

Auch für die PS1/2 und für die XBox wird massiv kopiert. Und wenn der Bonus 'DVD-Games' weg ist (derzeitige DVD-Kopierer kostetn heute das, was vor einem Jahr noch CD-Brenner gekostet haben), ist damit auch schluss. Microsoft versucht ja Händeringend etwas gegen die Mod-Chips zu machen (die es sogar erlauben, Linux auf den Kisten laufen zu alssen ;-), aber nicht so richtig mit Erfolg.

Und im Gegensatz zu den Kosolenmärkten, ist der PC-Markt riesig... und er wächst immer weiter...
Auch sind sie ja alle gerade dabei, den PC 'Kopier-Sicher' zu machen.

-

Wie geasagt, weiß eigentlich nicht, was das mit dem Thema zu tun hat und ich wäre Dir sehr verbunden, wenn Du auf meinen Vorschlag eingehen würdest, und mal ein bissel argumentierst und nicht nur rumflamest, wie Du es jetzt schon wieder getan hast.

Und dann redest Du hier von 'Niveau' in Verbindung mit 'Diskussion' ?
Wo ist da was bei Dir zu erkennen ?
???

Bis denne

Razor

Razor
2003-04-13, 07:38:23
Originally posted by Mehrpack

naja ich denke auch nvidia wird nicht mehr so weiter machen können wie bisher.
denn a) war bis jetzt immer eine neue DX version das zugpferd für neue grafikkarten und MS hat ja offizell gesagt das bis DX10 es eine ganze ecke dauern wird (der boah das muss ich haben, weil geile neue effekte effekt) und b) werden die chips nicht kleiner sondern immer grosser und aufwendiger, was ja auch mehr aufwand, mehr ingeniure bedeutet.
Ja, und wenn man Demirug glauben schenken mag (was ich definitiv tue !), dann entwickeln sich GPU's immer mehr in Richtung CPU's, müssen also immer freier zu programmieren sein. Soweit, so gut.
Originally posted by Mehrpack

und c) die verfügbarkeit geeigneter fertigungsprozesse, und ich denke in zukunft wird es da noch mehr probleme geben bei den immer kleineren fertigungsgrössen als bisher, auch bei IBM imho.
Nur das IBM bereits am 0.09-Prozess arbeitet, während TMSC und UMC (sicher beide falsch buchstabiert ;-) bisher nicht mal den 0.13-Prozeß auf die Reihe bekommen. Ich denke schon, dass es mit IBM 'etwas' leichter werden wird, zukünftige Technologien auf nene Prozesse umzustellen. Auch geht es hier nicht nur um die Fertigunggröße, sondern auch um Verfahren wie SOI und dieses Kuper-Zeugs (mann, bin ich heut' wieder präzise ;-).
Originally posted by Mehrpack

ich denke auch nvidia wird wohl ausser ein paar refresh keine grundlegen neuen designs wirklich noch alle 12 bis 18 monate bringen können, sondern wird wohl auch aus wirtschaftlicher sicht auch auf 24 monate gehn.
nVidia hat schon immer einen 2-Jahres-Zyklus gehabt...
TNT -> GF -> GF3 -> GFFX (letzterer 'etwas' verspätet ;-)

Und dann kommen da noch die 'Zwischenprodukte', sog. 'Updates':
(i.e. ebenfalls alle 2 Jahre, nur zeitversetzt, aber keine Neuentwicklungen)
TNT2 -> GF2 -> GF4 -> NV35

Und natürlich die Refreshs, alle 12 Monate und wieder um 6 Monate versetzt:
ultra's, Pro's, Ti's, MX'er etc.pp

So kommt der 6-Monatszyklus zu stande, der in wirklichkeit aber nur ein 24-Monatszyklus für Neuentwicklungen ist.

Und wenn man sich jetzt die NV3x-Serie anschaut, sieht man ganz genau, was derzeit mit diesem Timing ist:
Neuentwicklung und 'Refresh' kommen fast Geichzeitig (siehe NV30/31/34). Das 'Update' (NV35/36) kommt vermutlich nur 2-3 Monate später und ich vermute (!) dass danach alles wieder 'normal' läuft.
Originally posted by Mehrpack

auch wenn sie es vielleicht nicht offizell zugeben, jedenfalls im moment.
denn um sowas offizell zumachen, ist im moment bei NV nicht die richtige zeit, bei ATI schon eher.

Das ist jedenfalls meine einschätzung der dinge.
Wie gesagt, sie brauchen nicht offiziell verlautbaren lassen, was schon seit jeher Gang und Gebe ist. ATI hat aber den R300 sehr schnell nach dem R200 heraus gebracht (nur ca. 12 Monate später) und sie wollten wohl nur die Erwartungshaltung abdämpfen, dass dies nun immer so sein wird. So kann man also auch schon erahnen, dass der R400 ebenfalls kein großer Wurf werden wird, würde dies doch dem vom ATI verlautbarten konträr entgegen treten.

Aber über das Ding ist so wenig bekannt, wie von nVidia's NV40... also warten wir da doch lieber noch ein bissel ab.
;-)

Bis denne

Razor

AlfredENeumann
2003-04-13, 09:05:58
Originally posted by Razor

Für den NV30 ?
Meinst Du das ernst ?
???

Razor

Ich sagte NV3X.

AlfredENeumann
2003-04-13, 09:07:07
Originally posted by Razor
Ich hab' jetzt mal ein bissel gesucht, oder besser suchen lassen...
Man gebe bei www.googel.de einfach die Wörtchen "artx ati r300" ein und schon bekommt man viele, viele Hinweise.
Aber KEINEN, dass ATI den R300 auch ohne ArtX hinbekommen hätte...


RAZOR für dich nochmal zum Mitlesen:

ArtX gibt es seit dem R100 schon nicht mehr !!!!!!!!!!!!!!!!!!!!

Razor
2003-04-13, 09:12:40
Originally posted by AlfredENeumann

RAZOR für dich nochmal zum Mitlesen:

ArtX gibt es seit dem R100 schon nicht mehr !!!!!!!!!!!!!!!!!!!!
Und für Dich als Lesehilfe:
"Hast Du meine Links überhaupt angeschaut ?"
(ein '!' hätte vollkommen gereicht ;-)

Und mach aus dem R100 ein R200 und es wird ein Schuh daraus...
;-)

Bis denne

Razor

AlfredENeumann
2003-04-13, 10:07:58
Originally posted by Razor

Und für Dich als Lesehilfe:
"Hast Du meine Links überhaupt angeschaut ?"
(ein '!' hätte vollkommen gereicht ;-)

Und mach aus dem R100 ein R200 und es wird ein Schuh daraus...
;-)

Bis denne

Razor

Ja. Habe ich.
Nein das reicht nicht. Denn du willst ja gar nicht kappieren. Ich weis du hast im moment deine Tage und bist mal wieder auf deinem alles gegen ATI Trip. Setz mal deine NV-Brille ab und versuch mal wieder objektiv zu werden.


Und PS: ATI hat vor dem release vom R100 ArtX übernommen. Mehr habe ich nicht gesagt. Die Ingenieure wurden von ATI übernommen.

16.2.2000: http://www.ati.com/companyinfo/press/2000/atiartx.pdf
09.5.2000: http://www.ati.com/companyinfo/press/2000/4295.html

Razor
2003-04-13, 10:20:51
Originally posted by AlfredENeumann

Ja. Habe ich.
Nein das reicht nicht. Denn du willst ja gar nicht kappieren. Ich weis du hast im moment deine Tage und bist mal wieder auf deinem alles gegen ATI Trip. Setz mal deine NV-Brille ab und versuch mal wieder objektiv zu werden.

Und PS: ATI hat vor dem release vom R100 ArtX übernommen. Mehr habe ich nicht gesagt. Die Ingenieure wurden von ATI übernommen.

16.2.2000: http://www.ati.com/companyinfo/press/2000/atiartx.pdf
09.5.2000: http://www.ati.com/companyinfo/press/2000/4295.html
Leider hast Du noch immer nichts dazu gesagt...
(und das, wo ich doch auch Beyond3D verlinkt hab', die es doch eigentlich wissen müssten)

Und zu Deinem 2. Link mal ein Zitat:
ATI Launches RADEON™: the World's Most Powerful and Feature-Packed Graphics Processor

RADEON marks ATI's entry and market leadership in the High-End Gaming and 3D Workstation segments:lol:

Bis denne

Razor

P.S.: Nein, habe nicht meine Tage, sondern einfach nur mal ein bissel Zeit...
;-)

Piffan
2003-04-13, 10:39:55
Originally posted by Razor

Leider hast Du noch immer nichts dazu gesagt...
(und das, wo ich doch auch Beyond3D verlinkt hab', die es doch eigentlich wissen müssten)

Und zu Deinem 2. Link mal ein Zitat:
:lol:

Bis denne

Razor

P.S.: Nein, habe nicht meine Tage, sondern einfach nur mal ein bissel Zeit...
;-)

Zu viel Zeit!

Warum ist es eigentlich wichtig, wer sich mit den Federn schmücken darf? Willst Du begründen, warum man von Ati nix mehr erwarten darf und warum NV den Dauererfolg gepachtet hat???

Sicher ist bei NV noch ne Menge offen. Aber ich glaube nicht an den frühen Launch der nächsten Chipgeneration! Wenn doch, dann wäre es für NV vielleicht klüger gewesen, den NV30 als Rohrkrepierer einzustampfen.....bei dem miesen Ruf, den das "Flaggschiff" eingefahren hat, werden die Derivate nicht gerade wie warme Semmeln verkauft.....schon gar nicht, wenn der Nachfolger in bäldigster Bälde auf dem Markt einschlagen soll (wers glaubt :|

Immerhin hat NV mit dem Gf4Ti noch ein gutes Produkt am Markt......

Gerade das Beschwören der fortschrittlichsten Technologien ist beim NV30 in die Hose gegangen. Vielleicht klappt es ja mit IBM, und NV kann dann den Lohn für die Risiken einfahren. Vielleicht.....Vielleicht kommt aber auch Ati mit dem 0,13µ- Prozess sofort klar, wer weiß......

Es fällt nur auf, dass Du Ati überhaupt nix zutraust.....und da halte ich es mit Dir: Es ist alles offen ;)

AlfredENeumann
2003-04-13, 10:42:15
"Leider hast Du noch immer nichts dazu gesagt...
(und das, wo ich doch auch Beyond3D verlinkt hab', die es doch eigentlich wissen müssten)"


Ich sag dazu nix mehr. ArtX ist ATI. Der NV3X ist deiner ansicht nach von 3DFx.


"Und zu Deinem 2. Link mal ein Zitat:
:lol:"

Zum Zeitpunkt des Releases war das so. Ätsch. GF2 war noch nicht draußen und R100 war besser und schneller als GF1.

zeckensack
2003-04-13, 10:48:55
Originally posted by Razor
P.S.: Ich dachte eigentlich, dass von Dir qualifiziertere Aussagen zu dem Thema zu erwarten sind, aber offensichtlich scheust Du Dich ebenfalls vor Argumenten, wie es auch bei zeckensack der Fall ist...
Was soll ich da argumentieren?

Ich sehe es so, wie ich's weiter oben geschrieben habe:
1)ATI's Entwicklungen stehst du skeptisch gegenüber. Du hast es nicht geschafft, einen einzigen zukünftigen ATI-Chip zu erwähnen, ohne einen Satz des Zweifels ala "wenn er denn überhaupt kommt" direkt dahinter zu setzen.

2)NV vertraust du. Bei NV wird schon alles klappen. Dein Optimismus ist zwar vorsichtig formuliert ala "dürfte, sollte, etc", was dich btw ehrt, aber im Kontrast zu deiner Haltung ggü ATI geradezu überschäumend.

Wenn du von mir jetzt Argumente gegen deine Position erwartet, dann tut's mir Leid, geht nicht. Deine Position besteht aus deinem Bauchgefühl, nicht aus diskutierbaren Fakten. Nicht daß ich's dir nicht gönne. Ich wollte dich ja nicht beleidigen, sondern einfach mal darauf hinweisen, wie ich (!) dein Posting aufgenommen habe.

Nochmal zur Forderung nach Argumentation, da müsste man wirklich übel gegenspekulieren um dir dein 'Bauchgefühl' kaputtzumachen. Warum sollte ich das wollen? NV hat mehr als genug Feuer abbekommen, vieles davon nicht mal verdient, und ehrlich gesagt finde ich das momentan ziemlich ermüdend.

Razor
2003-04-13, 10:57:39
Originally posted by Piffan

Warum ist es eigentlich wichtig, wer sich mit den Federn schmücken darf? Willst Du begründen, warum man von Ati nix mehr erwarten darf und warum NV den Dauererfolg gepachtet hat???
Dauererfolg ?
Und ATI hat selbst gesagt, dass da nix mehr kommt (R400 erst im Q1/2004)...
Wo ist also Dein Problem ?
Originally posted by Piffan

Sicher ist bei NV noch ne Menge offen. Aber ich glaube nicht an den frühen Launch der nächsten Chipgeneration! Wenn doch, dann wäre es für NV vielleicht klüger gewesen, den NV30 als Rohrkrepierer einzustampfen.....bei dem miesen Ruf, den das "Flaggschiff" eingefahren hat, werden die Derivate nicht gerade wie warme Semmeln verkauft.....schon gar nicht, wenn der Nachfolger in bäldigster Bälde auf dem Markt einschlagen soll (wers glaubt :|
Der 'miese' Ruf ist lediglich 'FX Flow'(TM) zu verdanken...
Und verkaufen tun sich die (in begrenzter Stückzahl verfügbaren) Karten sehr gut, wenn Du die 5800'er meinst, denn über die anderen kann man noch gar nichts sagen, da es die noch gar nicht gibt. Aber Hellsehen scheint hier ja 'in' zu sein...
Originally posted by Piffan

Immerhin hat NV mit dem Gf4Ti noch ein gutes Produkt am Markt......

Gerade das Beschwören der fortschrittlichsten Technologien ist beim NV30 in die Hose gegangen. Vielleicht klappt es ja mit IBM, und NV kann dann den Lohn für die Risiken einfahren.
Huh ?
???
Originally posted by Piffan
Vielleicht.....Vielleicht kommt aber auch Ati mit dem 0,13µ- Prozess sofort klar, wer weiß......
Was nach Verzögerung des eher einfach gestrickten R9600 ja eher nicht so aussieht... oder meinst Du ATI verbaut im neuen Aldi-PC aus spaß den R9500pro ?
Originally posted by Piffan

Es fällt nur auf, dass Du Ati überhaupt nix zutraust.....und da halte ich es mit Dir: Es ist alles offen ;)
Ich halte mich lediglich an verfügbare Fakten und träume mir nicht irgend etwas zusammen...
Spekualtionen kennzeichne ich auch so und stelle keine Wunschträume als Fakten hin.

Und noch einmal: nVidia fängt gerade erst an, bei ATI scheint (!) die Luft raus zu sein...

Bis denne

Razor

P.S.: Und nicht aufregen, schadet der Gesundheit...
;-)

Razor
2003-04-13, 10:59:44
@AlfredENeumann

"Ich sag dazu nix mehr."

Besser wäre das gewesen...

"ArtX ist ATI."

?

"Der NV3X ist deiner ansicht nach von 3DFx."

Ah ja...

"Zum Zeitpunkt des Releases war das so. Ätsch. GF2 war noch nicht draußen und R100 war besser und schneller als GF1."

Was vor allem für die Treiber galt...
mega-:lol:

Razor

Razor
2003-04-13, 11:11:13
Originally posted by zeckensack

Ich sehe es so, wie ich's weiter oben geschrieben habe:
1)ATI's Entwicklungen stehst du skeptisch gegenüber. Du hast es nicht geschafft, einen einzigen zukünftigen ATI-Chip zu erwähnen, oder einen Satz des Zweifels ala "wenn er denn überhaupt kommt" direkt dahinter zu setzen.
Ich werde doch wohl Zweifel anmelden dürfen, ob das mit dem 0.13-Prozeß "so einfach" klappt, wenn es ATI nicht mal schafft, den recht einfach gestrickten R9600 im 0.13 zu fertigen. Schließlich wurde gesagt, dass die auf der CeBit angekündigten Produkte dann auch sehr schnell zu haben sein werden. Was nun für den 9800 zu gelten scheint, nicht aber für die im 0.13 gefertigten R9600'er...

Hätte ich diesen Umstand dann anders formulieren oder gar 'schönreden' sollen ?
Warum ?

Und wenn man sieht, welche Probleme nVidia mit dem neuen Prozeß gehabt hat, dann übertrage ich dies natürlich auch auf ATI. Insofern traue ich nVidia nicht mehr zu als ATI oder eben umgekehrt. Aber eine Firma bevorzugen ? Wo ?
???
Originally posted by zeckensack
2)NV vertraust du. Bei NV wird schon alles klappen. Dein Optimismus ist zwar vorsichtig formuliert ala "dürfte, sollte, etc", was dich btw ehrt, aber im Kontrast zu deiner Haltung ggü ATI geradezu überschäumend.
Ich 'vertraue' nVidia ?
Wo ?

Meine Kommentare zu nVidia habe ich sogar eindeutig (!) als Spekulation gekennzeichnet !
Was soll ich denn bitte noch tun ?
Originally posted by zeckensack

Wenn du von mir jetzt Argumente gegen deine Position erwartet, dann tut's mir Leid, geht nicht. Deine Position besteht aus deinem Bauchgefühl, nicht aus diskutierbaren Fakten. Nicht daß ich's dir nicht gönne. Ich wollte dich ja nicht beleidigen, sondern einfach mal darauf hinweisen, wie ich (!) dein Posting aufgenommen habe.
Ok, wenn Du dies als Deine persönliche Meinung dargestellt hättest, dann wäre dieses Mißverständnis auch nicht aufgekommen. Nur leider tatest Du das nicht...

Du hast den Post zwar so eingeleitet, dann aber schlußendlich folgendes geschrieben:

"Bitte nicht bös nehmen, aber NVIDIA 'vertraust' du, und ATI eben nicht, das wird aus dem Post ganz deutlich."

Du hast nicht geschrieben, dass es für Dich 'ganz deutlich' wurde...
Originally posted by zeckensack

Nochmal zur Forderung nach Argumentation, da müsste man wirklich übel gegenspekulieren um dir dein 'Bauchgefühl' kaputtzumachen. Warum sollte ich das wollen? NV hat mehr als genug Feuer abbekommen, vieles davon nicht mal verdient, und ehrlich gesagt finde ich das momentan ziemlich ermüdend.
Keine Angst, da kannst Du nicht viel 'kaputtmachen'...

Ich habe nur versucht den Leutz hier ein bissel klar zu machen, dass überhaupt nichts entscheiden ist. Ganz im Gegenteil. Wenn man es genau betrachtet, dann scheint nVidia sogar einfach nach "Schema F"(TM) weiter zu machen, als ob überhaupt nichts passiert wäre... was ja auch so zu sein scheint... schließlich hat der Marktanteil von ATI nicht großartig zugenommen (oder meinetwegen der von nVidia nicht abgenommen), noch können sie (ATI) irgendwelche Umsatzerfolge verbuchen oder gar außerordentliche Gewinne aufgrund der jetzigen Situation.

Ich versuche das Ganze nur so zu bewerten, wie es sich mir gegenüber darstellt...
Und das sieht ganz knapp so aus:

1) bei ATI ist die Luft raus
2) bei nVidia ist noch alles drin

That's it !
Und das habe ich mir nicht ausgedacht...

Bis denne

Razor

P.S.: Und wenn Du müde bist, dann schlaf Dich docheinfach mal aus... hilft ungemein !
;-)

Piffan
2003-04-13, 11:16:39
Originally posted by Razor



Und noch einmal: nVidia fängt gerade erst an, bei ATI scheint (!) die Luft raus zu sein...

Bis denne

Razor

P.S.: Und nicht aufregen, schadet der Gesundheit...
;-)

Guter Tip! :rofl: :rofl: :rofl:

Demirug
2003-04-13, 11:18:18
Razor, ich sehe da durchaus eine sehr grosse Verwandtschaft zwischen R200 und R300.

Der R200 Pixelshader arbeitet nach folgeden Prinzip:



Programmspeicher für 12 Texturenaweisungen
Programmspeicher für 18 Mathematische Anweisungen

Bis zu 2 mal
(
Führe Texturnaweisung x - y aus (der Bereich von x - y darf höchstens 6 Anweisungen umfassen)
Führe MatheAnweisung x -y aus (x -y <= 8 Anweisungen
)


Und R300



Programmspeicher für 32 Texturenaweisungen
Programmspeicher für 64 Mathematische Anweisungen

Bis zu 5 mal
(
Führe Texturnaweisung x - y aus
Führe MatheAnweisung x -y aus
)


R200 PS zu R300 PS = Schleifenlimits erhöht, beschrängungen entfernt, ein paar neue Operationen hinzugefügt und das ganze auf FP umgestellt.

Was mir vom Flipper bekannt ist (nicht alzu viel da man schlecht an Infos kommt) arbeitet dieser auf dieser ebene doch etwas anders.

Mr. Lolman
2003-04-13, 11:29:14
Geh Razor hack nicht andauernd auf ATi rum. Die Treiber sind nahezu perfekt. Stabil ist die R300 und die BQ ist die beste bei Gleichzeitig höhchster Perfomance. (Da ists mir im Moment egal wieviele Dawns die NV35 rendern soll)

Und selbst wenn Mc Donalds am R300 mitentwickelt hätte, und selbst wenn ein Mc Donalds Logo auf der Karte wäre hätte ich sie mir gekauft. Wie war das nach dem Erscheinen des R300? Da wurde man nur gedizzed wenn man sagte, das der NV30 u.U. nicht so das Gelbe vom Ei wird. Der kommt nämlich eh spätestens in einem Monat und da schauts wieder ganz anders aus. Jetz is er da. Und er ist sch1ce. Und der NV35 wird natürlich viel besser.

Aber warum ist ATi aufeinmal sch1ce. ATi hat doch ArtX gekauft und nicht NV. ATi hat den guten Chip und nicht NV. ATi sagt offen, das nur mehr alle 24 Monate wirklich neue Chips gibt, und hält nicht krampfhaft am 6 Monatsrhythmus fest (der doch nie Einzuhalten ist, wo dann die Kunden vertröstet werden müssen)

Kaufst du dir überhaupt eine NV30 oder wartest du gleich auf die NV35?


(Bei ATi hätte man folgende Möglichkeiten das restliche Jahr ganz oben mitzuschwimmen: 9500 kaufen & modden, 9500pro kaufen & fett übertakten 9700 kaufen & modden, 9700pro kaufen (& modden?), 9800 kaufen, 9800pro kaufen - Wie man sieht ist da was für jede Preisklasse ab 190Euro dabei. Und was bietet NV? Achja nurmehr kurz auf den NV35 warten dann ist man wieder Speedking mit einer NV Karte :bonk: )

Und falls sich der Spiess wirklich mal umdrehen sollte (andere Firma hat das deutlich bessere Produkt) werde ich natürlich umsteigen. - Auch wenns mich giften würde :D

zeckensack
2003-04-13, 11:30:39
Originally posted by Demirug
Razor, ich sehe da durchaus eine sehr grosse Verwandtschaft zwischen R200 und R300.Ich auch ;)

Der R300 benutzt die exakt gleiche (!) Clipping-Logik wie der R200. Indiz dafür: die Performance ist taktnormalisiert identisch.

Bei diesem Chipteil hätte sich ein Austausch schon gelohnt, denn die erreichbare Performance ist im Gegensatz zur Konkurrenz (NV: Infinite guardband clipping) geradezu unterirdisch.

Die R9700Pro verliert im konstruierten worst case beispielsweise 97% (!) ihrer Geometrieleistung ans Clipping, während NV-Chips ab spätestens NV15 überhaupt keinen Einbruch erleiden :|

Mr. Lolman
2003-04-13, 11:39:00
Originally posted by zeckensack
Ich auch ;)

Der R300 benutzt die exakt gleiche (!) Clipping-Logik wie der R200. Indiz dafür: die Performance ist taktnormalisiert identisch.



Vielleicht gibts gibts da einen Unterschied zu d3d und Ogl. aber am Beispiel von ein selbstgebauten UT2003 Level merkte man, dass der R300 eindeutig die aggressivere Clippinglogik hat. Es ist mir nicht mehr möglich auf einer R300 einen Decolayer bestehend aus einer 2 seitigen Alpha Textur auf einem Polygon fehlerfrei darzustellen. Bei der R200 ging das problemlos. ('Baum - Wiesenscreenshot' im Benchmarkforum von mir zuletzt gelinkt)

zeckensack
2003-04-13, 11:49:07
Originally posted by Mr. Lolman



Vielleicht gibts gibts da einen Unterschied zu d3d und Ogl. aber am Beispiel von ein selbstgebauten UT2003 Level merkte man, dass der R300 eindeutig die aggressivere Clippinglogik hat. Es ist mir nicht mehr möglich auf einer R300 einen Decolayer bestehend aus einer 2 seitigen Alpha Textur auf einem Polygon fehlerfrei darzustellen. Bei der R200 ging das problemlos. ('Baum - Wiesenscreenshot' im Benchmarkforum von mir zuletzt gelinkt) Öhm sorry, aber kannste mal 'nen Link geben? Ich hab's auf die schnelle nicht gefunden :sulkoff:

ow
2003-04-13, 13:49:27
Originally posted by zeckensack


Die R9700Pro verliert im konstruierten worst case beispielsweise 97% (!) ihrer Geometrieleistung ans Clipping, während NV-Chips ab spätestens NV15 überhaupt keinen Einbruch erleiden :|

Der NV11 aka GF2MX erleidet da auch keinen Einbruch. Für den NV10 nehm ich mal selbiges an.

Lolman
2003-04-13, 14:55:34
Hier ist der Thread (http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=44386) hab ich im 'Eigenen Benchmark entwickeln (auf der vorletzten Seite) verlinkt gehabt.

Die Shots wurden mit einer Radeon 8500 BBA aufgenommen, und der Wiesenlayer hat als Grundlage ein Polygon mit einer 2 seitigen Alphatextur. Für die 'Wiesendarstellung' benutzte ich Back2Front rendering, da umgekehrt die Darstellung fehlerhaft war.

Bei der R300 ist die Darstellung selbst bei Back2Front fehlerhaft (ClippingFehler im vorderen Bereich) Es wirkt fast so als ob die R300 die die Tatsache das es Alphatexturen sind ignorieren würde, beim clipping. IMHO wären keine Fehler bei 'vollen' Texturen zu sehen. Front2back rendering verdeutlicht das ganze, da dann alle Polygone hinter dem ersten Wiesenwall geclippt sind. (war auf der R200 auch nicht so deutlich zu sehen)

Screenshot mit R300 kommt gleich...

*eigenenPCanwerfengeht*

Mr. Lolman
2003-04-13, 15:08:19
sorry - forget it. Hab in der Zwischenzeit UT2003 neu installiert (ohne dem ganzen Patchgesocks) und jetzt lüppts wieder perfekt. Womöglich dürfte da bei einem Patch das spielinterne Clipping optimiert worden sein.

Lange Rede kurzer Sinn: Keine Fehler mehr da. Alles sieht genauso aus wie auf der R200.

*screenshotmachenersparthab*


P.S.: Wie sieht denn so ein '97% Worst Case' aus?

Aquaschaf
2003-04-13, 16:13:08
Originally posted by Razor

Ich werde doch wohl Zweifel anmelden dürfen, ob das mit dem 0.13-Prozeß "so einfach" klappt, wenn es ATI nicht mal schafft, den recht einfach gestrickten R9600 im 0.13 zu fertigen.

einen Chip mit 75mio. Transistoren würde ich nicht unbedingt als einfach gestrikt bezeichnen

zeckensack
2003-04-13, 16:48:44
Originally posted by Lolman
Hier ist der Thread (http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=44386) hab ich im 'Eigenen Benchmark entwickeln (auf der vorletzten Seite) verlinkt gehabt.

Die Shots wurden mit einer Radeon 8500 BBA aufgenommen, und der Wiesenlayer hat als Grundlage ein Polygon mit einer 2 seitigen Alphatextur. Für die 'Wiesendarstellung' benutzte ich Back2Front rendering, da umgekehrt die Darstellung fehlerhaft war.Verzeih meine Unwissenheit :D
Aber was ist eine zweiseitige Alphatextur? Das habe ich noch nie gehört :|

Ist das ein spezielles Konstrukt des UnrealED, oder was? AFAIK (und ich bilde mir ein, mich da ganz gut auszukennen ;)) sind Texturen ungerichtet, können also garkeine 'Seiten' haben???

zeckensack
2003-04-13, 16:55:21
Originally posted by Mr. Lolman
P.S.: Wie sieht denn so ein '97% Worst Case' aus? Nujo, von jedem Dreieck ein Eckpunkt irgendwo im Bild, und die anderen beiden 'draußen'.

klück müch (http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=789807#post789807)
Originally posted by Achill
ArchMark 0.10.09alpha
Geometry
Mode RGBA5650 Z16 S0
--Plain vertices--------------------------------
Fan 61.154 MTris/s
List 42.498 MTris/s
Clip 2.477 MTris/s


Wobei ich mich da erstens verrechnet (sind 'nur' 96%), zweitens vertan habe (fan und clipped list kann man nicht 100%ig vergleichen) :|
Aber es sind mindestens (aber nur schlimmstenfalls ;)) 94% :bäh:

Demirug
2003-04-13, 16:56:55
Originally posted by zeckensack
Verzeih meine Unwissenheit :D
Aber was ist eine zweiseitige Alphatextur? Das habe ich noch nie gehört :|

Ist das ein spezielles Konstrukt des UnrealED, oder was? AFAIK (und ich bilde mir ein, mich da ganz gut auszukennen ;)) sind Texturen ungerichtet, können also garkeine 'Seiten' haben???

Ich vermute mal er meint Polygone auf denen sowohl für die Vorderseite wie auch auf der Rückseite eine Alpha-Texture benutzt wird. Was ich jetzt nur nicht weiss ist ob dabei jeweils die gleiche Texture und Koordinaten zu Einsatz kommen sollen oder unterschiedliche.

Demirug
2003-04-13, 17:08:09
Originally posted by zeckensack
Nujo, von jedem Dreieck ein Eckpunkt irgendwo im Bild, und die anderen beiden 'draußen'.

klück müch (http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=789807#post789807)


Wobei ich mich da erstens verrechnet (sind 'nur' 96%), zweitens vertan habe (fan und clipped list kann man nicht 100%ig vergleichen) :|
Aber es sind mindestens (aber nur schlimmstenfalls ;)) 94% :bäh:

Ich habe mal ein bischen Research (theoretisch) betrieben.

Scheinbar hat sich beim R300 aber doch was geändert.

R200: Kein Guard Band
R300: Guard Band von -960|-960 bis 2880|2880

Mehrpack
2003-04-14, 03:33:08
hi,
Originally posted by Razor

Ja, und wenn man Demirug glauben schenken mag (was ich definitiv tue !), dann entwickeln sich GPU's immer mehr in Richtung CPU's, müssen also immer freier zu programmieren sein. Soweit, so gut.

Nur das IBM bereits am 0.09-Prozess arbeitet, während TMSC und UMC (sicher beide falsch buchstabiert ;-) bisher nicht mal den 0.13-Prozeß auf die Reihe bekommen. Ich denke schon, dass es mit IBM 'etwas' leichter werden wird, zukünftige Technologien auf nene Prozesse umzustellen. Auch geht es hier nicht nur um die Fertigunggröße, sondern auch um Verfahren wie SOI und dieses Kuper-Zeugs (mann, bin ich heut' wieder präzise ;-).


schon klar, auch intel arbeitet am 90nm prozess, und auch klar das IBM mehr knowhow hat, bloss wir kommen immer mehr in grenz regionen und deswegen würde ich mich nicht wundern wenn man auch bei IBM bei den nächsten schritten wie 65nm oder 40nm mehr probleme hat als bis jetzt, imho.


nVidia hat schon immer einen 2-Jahres-Zyklus gehabt...
TNT -> GF -> GF3 -> GFFX (letzterer 'etwas' verspätet ;-)

Und dann kommen da noch die 'Zwischenprodukte', sog. 'Updates':
(i.e. ebenfalls alle 2 Jahre, nur zeitversetzt, aber keine Neuentwicklungen)
TNT2 -> GF2 -> GF4 -> NV35

Und natürlich die Refreshs, alle 12 Monate und wieder um 6 Monate versetzt:
ultra's, Pro's, Ti's, MX'er etc.pp
So kommt der 6-Monatszyklus zu stande, der in wirklichkeit aber nur ein 24-Monatszyklus für Neuentwicklungen ist.

Und wenn man sich jetzt die NV3x-Serie anschaut, sieht man ganz genau, was derzeit mit diesem Timing ist:
Neuentwicklung und 'Refresh' kommen fast Geichzeitig (siehe NV30/31/34). Das 'Update' (NV35/36) kommt vermutlich nur 2-3 Monate später und ich vermute (!) dass danach alles wieder 'normal' läuft.


aehm ich sprach von neutentwicklungen und du sagst bei ATI ist die luft raus weil sie auf einen 24 monatsrythmus gehn aber du sagst selber NV ist schon auf einem 24 monatsrythmus, also wo bitte schön ist dann ATI im hintertreffen?
ATI hat nur gesagt das sie neuentwicklung auf 24 monatsrythmus strecken.
ausserdem hat NV nie offizell gesagt das sie 24 monatsrythmus haben sondern das letzte offizelle, soweit ich weiss, ist immer noch einmal im Jahr, also 12 monate grob.

keiner kann wissen ob es danach wieder normal läuft, weil die infos dazu einfach nicht geben sind, keiner ausser NV selber kann beurteilen ab wann es wirklich wieder normal läuft.


Wie gesagt, sie brauchen nicht offiziell verlautbaren lassen, was schon seit jeher Gang und Gebe ist. ATI hat aber den R300 sehr schnell nach dem R200 heraus gebracht (nur ca. 12 Monate später) und sie wollten wohl nur die Erwartungshaltung abdämpfen, dass dies nun immer so sein wird. So kann man also auch schon erahnen, dass der R400 ebenfalls kein großer Wurf werden wird, würde dies doch dem vom ATI verlautbarten konträr entgegen treten.

Aber über das Ding ist so wenig bekannt, wie von nVidia's NV40... also warten wir da doch lieber noch ein bissel ab.
;-)

Bis denne

Razor

Ja ATI hat es gesagt um die Erwartungen net also hoch kommen zu lassen, sie hätten es auch wie NV machen können und einfach stillschweigen, wie gesagt bloss weil etwas gang und gäbe ist heisst es nochlange nicht das es auch "offizell" ist.
ich denke früher oder später wird auch NV offizell farbe bekennen müssen und sagen ja wir haben/machen einen 24 monatsrythmus, auch wenn es schon mehr oder weniger so ist, aber bei vielen ist immer noch der 12 Monatsrythmus intus, welcher ja auch soweit ich mich errinnern kann die letzte offizelle aussage war.

aehm komm, woraus willst du das erahnen.
ok er kommt später aber man kann nicht daraus erahnen das er nicht der grosse wurf ist.
genauso könnte man sagen auch der nv40 ist nicht der grosse wurf.

zwar hast du mit dem letzten satz recht, aber dann formulier es auch bitte so das es sein könnte und nicht gleich als festzemetierte tatsachen.

Mehrpack

Mr. Lolman
2003-04-14, 11:47:34
@ Zeckensack:

Naja, wird über einen Shader realisiert. Die Textur selbst ist natürlich ungerichtet, aber mit der Möglichkeit eines solchen UnrealED Shader kann man einseitige Polygone beidseitig bekleben, oder z.B. Wasser darstellen...

Unreal Shader Tutorial (http://unrealed.planet-multiplayer.de/index.php?P=tutorial&D=3-liquide-2) (am Beispiel von Wasser)