PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV basht ATI


Seiten : 1 [2] 3

SKYNET
2004-05-25, 22:08:16
Original geschrieben von Mr. Lolman
Hast du auch grad Giga gekuckt :???:

igitt, das genzt schon an starker beleidigung meine intellekts ;)

LovesuckZ
2004-05-25, 22:08:48
Original geschrieben von deekey777
Das gilt auch für beide.

Natuerlich. ich sage ja nicht, dass es so nicht ist .

SKYNET
2004-05-25, 22:10:13
Original geschrieben von [dzp]Viper
ja 3-5%... WOHA.... :bonk:

ich finde die fanboys (egal ob ati oder nv) echt witzig

eher 20-30% ;)

und wie gut das ich ne ATI habe/hatte(6800 is on the way)

also kannst dir sparen mich als fanboy zu betiteln bubi.

AMD fanboy darfste mich gerne nennen, das bin ich durch und durch, aber graka ist mir scheiß-egal ob matrox, ati, nv, sis, xgi, via oder sonstwas :P

deekey777
2004-05-25, 22:10:17
Original geschrieben von LovesuckZ
Natuerlich. ich sage ja nicht, dass es so nicht ist .

Doppelt hält besser, damit es zu keinen Mißverständnissen kommt. ;)

Gast
2004-05-26, 00:17:12
Original geschrieben von dildo4u
ui naja wenn das so ist dann hätte ATI beim FX ja ein richtiges Faß aufmachen können und das mit recht!

Haben sie doch auch und so ziemlich jeder Reviewer hat der Pageviewgeilheit wegen mitgemacht. Mei jetzt läufts halt mal anders herum. ATI hats doch irgendwo genauso verdient wie Nvidia letztes Jahr.

AYAlf
2004-05-26, 01:12:57
diese praesentation ist fuer mich ein grund nie wieder eine nvidia karte zu kaufen!

nvidia stinkt gewaltig. hat keine ahnung. hat die schlechteren techniker. und jetzt wie wir alle sehen koenen auch die schlechtere marketing abteilung. pfui, man sollte mit den eigenen produkten auffallen und nicht mit so einem dreck!

Etcetera PP
2004-05-26, 01:19:22
Komisch dabei ist immer daß wenn es ATi tut alles ok ist und bei Nvidia alles falsch.
Ich hab selber eine 9800 Pro von ATi aber ich werde mit Sicherheit wieder zu Nvidia wechseln. Diese Gründe aufzuzählen würde Stunden wenn nicht sogar Tage dauern daher laß ich es sein.

betasilie
2004-05-26, 01:22:03
@ Die, die ihr hier behauptet, dass ATI genauso vorgeht wie NV, zeigt doch mal bitte etwas von der Art, wie NV es hier gebracht hat, von ATI. :|

Also solche fiesen Diffamierungen, ob gegegen 3DFX, PowerVR oder jetzt gegen ATI, habe ich bisher nur von NV gesehen.

Etcetera PP
2004-05-26, 01:29:19
Die selbe Kacke war damals schon von Ati gekommen als die Radeon 8500er Karten mit 128 MB hochepriesen wurden mit höchstlöblichen MaxPayne Benchmarks und die damalige Geforce4 Ti4600 von Nvidia so schlecht wäre...
Hab leider keine Zeit im Forumsarchiv zu suchen aber dazu würde sich bestimmt was finden lassen.

Kai
2004-05-26, 01:30:34
Original geschrieben von Winter[Raven]
Ist es doch, eine kleine aber feine Zusammenfassung der Sachen die am R420 "FAUL" sind.

Oder die letzten internen, nvidianischen Zuckungen? ;)

Etcetera PP
2004-05-26, 01:33:39
http://www.forum-hardtecs4u.com/3dcenter/images/ati_128mb_praesentation/07.jpg

http://www.3dcenter.de/artikel/ati_128mb_praesentation/index2.php

bitte schön :D

betasilie
2004-05-26, 01:38:47
Original geschrieben von Etcetera PP
http://www.forum-hardtecs4u.com/3dcenter/images/ati_128mb_praesentation/07.jpg

http://www.3dcenter.de/artikel/ati_128mb_praesentation/index2.php

bitte schön :D
:kratz: Ist nicht dein Ernst? Wo basht ATI da NV?

Das ist für mich normales Marketing. Man will die eigenen Vorzüge hervorkehren. NV hat es aber nicht nur nötig die eigenen vermeintlichen Vorzüge aufzuzeigen, sondern die Konkurrenz zu diffamieren. Das sind wohl zwei paar Schuhe.

Etcetera PP
2004-05-26, 01:40:16
Ach nee? Dann ließ mal richtig.

Etcetera PP
2004-05-26, 01:42:32
Das sind natürlich zwei gaaaanz ;) unterschiedliche Sachen. Schon klar wie konnte ich nur ...

AYAlf
2004-05-26, 01:45:55
nvidia macht das immer wenn sie sich nicht mehr anders zu helfen wissen!!!

damal bei 3dfx genau der selbe scheiss.
man wenn ihre techniker zu bloed sind um eine ebenbuertige karte zu fertigen. dann haben sie halt pech gehabt.
besonders aergern mich die bewussten falschaussagen.

ich kenne kein grakaunternehmen was so eine schlechte werbung betreibt. hoffentlich boykotieren jetzt mehr leute die nvidia produkte.

betasilie
2004-05-26, 01:48:24
Original geschrieben von Etcetera PP
Das sind natürlich zwei gaaaanz ;) unterschiedliche Sachen. Schon klar wie konnte ich nur ...
Wo basht ATI NV? Sag mal wo liest Du das?

ATI versucht mit Tricksereien die eigenen Karten besser darstehen zu lassen. Das macht NV auch, was ich nicht verwerflich finde, wenn auch unfein.

Es geht darum, dass NV immer wieder die Konkurrenz schlicht schlecht macht und das habe ich in der Branche noch bei keinem anderen Hersteller in der Form erlebt.

Etcetera PP
2004-05-26, 01:54:24
Original geschrieben von betareverse
Wo basht ATI NV? Sag mal wo liest Du das?

ATI versucht mit Tricksereien die eigenen Karten besser darstehen zu lassen. Das macht NV auch, was ich nicht verwerflich finde, wenn auch unfein.

Es geht darum, dass NV immer wieder die Konkurrenz schlicht schlecht macht und das habe ich in der Branche noch bei keinem anderen Hersteller in der Form erlebt.

"ATi hat eine offensive Präsentation vom Stapel gelassen mit sehr frechen Seitenhieben auf nVidia - aber eben weitestgehend auf Basis von diskussionsfähigen und nicht von haltlosen Argumenten. Das diese Präsentation nur die nVidia-Schwachstellen und nicht die nVidia-Stärken zeigt, war zu erwarten - sie kommt schließlich nicht von einer unabhängigen Stelle, sondern direkt von ATi."

Kannst du nicht lesen? Fakt ist beide Seiten machen so etwas. Genau darum ging es auch nur Unterschiede gibts nur beim Wie...

betasilie
2004-05-26, 02:05:15
Original geschrieben von Etcetera PP
"ATi hat eine offensive Präsentation vom Stapel gelassen mit sehr frechen Seitenhieben auf nVidia - aber eben weitestgehend auf Basis von diskussionsfähigen und nicht von haltlosen Argumenten. Das diese Präsentation nur die nVidia-Schwachstellen und nicht die nVidia-Stärken zeigt, war zu erwarten - sie kommt schließlich nicht von einer unabhängigen Stelle, sondern direkt von ATi."

Kannst du nicht lesen? Fakt ist beide Seiten machen so etwas. Genau darum ging es auch nur Unterschiede gibts nur beim Wie...
Du sollst mir nicht vorlesen, was die Verfasser dieses Artikels meinen, sondern wo hier ATI NV diffamiert.

Auch wenn es scheinbar nicht in deinen Kopf geht; in den hier besprochenen Folien von NV ist der Inhalt ausschließlich darauf begrenzt ATI schlecht zu machen.

In den von dir gelinkten Folien geht es ATI darum die eigenen Hardware in ausgesuchten Situationen gut aussehen zu lassen im Vergleich zur Konkurrenz. Das macht wirklich jeder so in der Branche, gerade bei Vorabbenchmarks.

Wirklich schade, dass Du nicht in der Lage bist eine gezielte Diffamierung von einer fadenscheinigen Marketingaktion für die eigenen Hardware zu unterscheiden.
Und da dich das Thema scheinbar überfordert, lass ich das diskutieren an dieser Stelle mit dir auch sein.

Etcetera PP
2004-05-26, 02:11:15
Original geschrieben von betareverse
Du sollst mir nicht vorlesen, was die Verfasser dieses Artikels meinen, sondern wo hier ATI NV diffamiert.

Auch wenn es scheinbar nicht in deinen Kopf geht; in den hier besprochenen Folien von NV ist der Inhalt ausschließlich darauf begrenzt ATI schlecht zu machen.

In den von dir gelinkten Folien geht es ATI darum die eigenen Hardware in ausgesuchten Situationen gut aussehen zu lassen im Vergleich zur Konkurrenz. Das macht wirklich jeder so in der Branche, gerade bei Vorabbenchmarks.

Wirklich schade, dass Du nicht in der Lage bist eine gezielte Diffamierung von einer fadenscheinigen Marketingaktion für die eigenen Hardware zu unterscheiden.
Und da dich das Thema scheinbar überfordert, lass ich das diskutieren an dieser Stelle mit dir auch sein.

Entweder hast du einen Denkfehler oder du kapierst das Thema nicht! Bashen im eigentlichen Sinne tun beide nur über das Wie lässt sich streiten. Die Argumente die Nvidia bringt stimmen doch, selbst die Zitate kommen doch z.T. selbst von Ati gelle? :D

Showtime
2004-05-26, 02:36:01
Original geschrieben von AYAlf
nvidia macht das immer wenn sie sich nicht mehr anders zu helfen wissen!!!

damal bei 3dfx genau der selbe scheiss.
man wenn ihre techniker zu bloed sind um eine ebenbuertige karte zu fertigen. dann haben sie halt pech gehabt.
besonders aergern mich die bewussten falschaussagen.

ich kenne kein grakaunternehmen was so eine schlechte werbung betreibt. hoffentlich boykotieren jetzt mehr leute die nvidia produkte.

Sie haben doch eine ebenbürtige Karte. Im Moment kann man nicht sagen: Kauf X800, die ist schneller. Der NV40 ist in einigen Spielen langsamer, in anderen schneller, das würde ich als ebenbürtig empfinden.
Übrigens denke ich nicht, dass nVidia ernst meint, was sie auf ihre "Datenblätter" geschrieben haben. Sie wissen selbst, dass das meiste davon nicht stimmt, und sie wissen auch, dass jeder, der die Folien liest, weiß, dass es überzogen dargestellt ist. Daher ist das ganze auch lustig, das war wie das kleine Video, dass nVidia mal zu der 5800 Ultra gebastelt hat, in dem sie quasi sich selbst ausgelacht haben.

OT: Ich bin gerade mal 1 1/2 Monate hier registriert und mich regt diese scheiß Fanboymentalität jetzt schon auf. Bisher hatte ich nur nVidia Karten in meinem PC, trotzdem sage ich nie etwas gegen ATi und lobe nVidia nicht in den Himmel.
Konkurrenz belebt das Geschäft, ohne ATi würden wir heute für 999€ eine GF4 kaufen können. Ihr solltet echt froh sein, dass es wenigstens noch einen echten Konkurrenten gibt. Bisher fand ich es noch ganz lustig immer die Flamewars mit zu verfolgen, aber mittlerweile kotzen mich die ewigen "Meine Karte hat PS 3.0!" "Ja, na und, das ist aber Mist, und meine Karte hat 3Dc!" Diskussionen (wenn man das noch so nennen kann) echt an.

Agent500
2004-05-26, 02:39:54
So, nun ist ein ganz ganz geheimes Dokument aufgetaucht, das ich euch nicht länger vorenthalten möchte. ;D

Viel Spaß. :D

MfG

Niklas



http://www.hardware-tweaker.de/ATI-bashing.jpg

tb
2004-05-26, 02:48:10
Man stelle sich vor, John Carmack würde seine Engine nach Pressefolien entwickeln, der Arme würde ja hin und her portieren und nie fertig werden ;)

Thomas

Crushinator
2004-05-26, 02:54:13
:lolaway: Der war nicht nur echt g00t, sondern auch fies! :up:

tb
2004-05-26, 02:57:20
;) sorry, ich konnt einfach nicht wiederstehen

Thomas

nggalai
2004-05-26, 08:04:08
Original geschrieben von AYAlf
diese praesentation ist fuer mich ein grund nie wieder eine nvidia karte zu kaufen!So eine "Präsi" in sehr ähnlichem Stil gibt's auch von ATI zum NV40, Aufhänger ist "NV40 ist am Markt vorbei entwickelt etc. und ein schwacher Einstieg in die SM3.0-Klasse, hahahahha!!!". Ist einfach (noch?) nicht öffentlich gemacht worden. Nach deiner Logik dürftest Du dir auch keine ATI mehr kaufen.

Oder denkt hier wirklich wer, dass bei ATI keine solchen Präsentationen wie die Kyro-Präsi oder eben das hier rumgereicht werden?

Dieses ganze Gezanke, wer denn böser und gemeiner ist, bringt doch wirklich nichts. Der Normalo-User (die grösste Käuferschicht) wird solche Präsentationen kaum bis nie zu Gesicht bekommen. Und von den Leuten hier im Forum hätte ich eigentlich erwartet, dass sie differenziert und nach eigenen Gesichtspunkten entscheiden können, ob eine Karte was taugt oder nicht, und ob man sich das Teil kaufen möchte oder eben nicht. Oder hat sich hier echt wer durch diese Präsentation beeinflussen lassen, ausser vielleicht, dass er einige male schmunzeln musste?

Fänd ich schade. :(

93,
-Sascha.rb

nggalai
2004-05-26, 08:09:42
Original geschrieben von betareverse
Auch wenn es scheinbar nicht in deinen Kopf geht; in den hier besprochenen Folien von NV ist der Inhalt ausschließlich darauf begrenzt ATI schlecht zu machen.
Das ist knapp ein Drittel des gesamten Foliensatzes, der gezeigt wurde. Beim Rest kommt das nicht mehr vor. Und ja, ich find's auch nei, dass man sowas an einem Conference Call zeigt.

Andererseits darf man nicht vergessen, dass hier noch der Sprecher dazu fehlt. Ist ähnlich wie mit dieser lustigen ATI-Präsentation, wo Richards Vortrags-Notizen aus Versehen mit-veröffentlicht wurden: wenn man sich das Zeuch einfach nur anschaut, ohne den dazugehörigen Vortrag zu sehen / hören, kann man die gesamte Präsentation kaum bewerten. Mir wurde an der Uni auch beigebracht, bei Folienpräsis gefälligst nur die schlagkräftigsten Stichworte und Argumente zu zeigen, um meinen Vortrag zu untermalen--und nicht, den ganzen Vortrag 1:1 im Foliensatz abzubilden. Foliensätze sollen Vorträge ergänzen, nicht ersetzen.

Aber ja, das hätte der Autor wohl besser hingekriegt. Langsam sollten die Jungs wissen, dass Foliensätze getrennt vom Rest an die Öffentlichkeit gelangen können. ;)

93,
-Sascha.rb

nggalai
2004-05-26, 08:11:36
Original geschrieben von tb
Man stelle sich vor, John Carmack würde seine Engine nach Pressefolien entwickeln, der Arme würde ja hin und her portieren und nie fertig werden ;)

Thomas Ich glaub', das trifft's auf den Punkt. Gut gesagt! :D

93,
-Sascha.rb

Radeonator
2004-05-26, 08:13:15
Original geschrieben von AYAlf
nvidia macht das immer wenn sie sich nicht mehr anders zu helfen wissen!!!

damal bei 3dfx genau der selbe scheiss.
man wenn ihre techniker zu bloed sind um eine ebenbuertige karte zu fertigen. dann haben sie halt pech gehabt.
besonders aergern mich die bewussten falschaussagen.

ich kenne kein grakaunternehmen was so eine schlechte werbung betreibt. hoffentlich boykotieren jetzt mehr leute die nvidia produkte.

Meine Herren, so ein Quatsch...btw was ist nochmal mit 3dFX passiert...ach ja ;D

nV Ingenieure zu blöd...:lol: der war mal echt lustig. Wach aus deiner Traumwelt auf! Es geht hier um Geschäfte, Marktanteile, Aktion, schlicht und einfach UM KOHLE UND PRESTIGE! Das betreiben übrigens alle Firmen, es gibt kein gut und böse. Nimm mal deine rosa Brille ab und komm in die Realität!

majordiesel
2004-05-26, 08:18:04
guten morgen!also ich als unwissender anfänger in computerfragen aber im wahren leben sozialpädagoge kann nvidia schon nachvollziehen. über die vergangenen zwei jahre hat ati nvidia den schneid abgekauft und die besseren karten gemacht.das das dem ehemaligen marktführer nicht schmeckt ist klar. also haben sie gas gegeben und mit der 6800 ultra eine unbestreitbar großartige karte rausgebracht. nun hat ati mit ihrem konkurrenzprodukt aber schwierigkeiten gehabt und die nvidia ist in den meisten punkten besser. es gibt in der pädagogik nicht nur den schlechten verlierer sondern auch den schlechten gewinner, das zeigt nividia mit der präsentation, das ist so ätschibätsch... und zum thema schlechte verlierer: interessant das dieses thema ausgerechnet auf 3dcenter ausgebreitet wird, die bis heute noch nicht die atix800xt zum testen bekommen haben...nichts für ungut ich liebe eure seite!

seahawk
2004-05-26, 08:30:43
Ich kann NV verstehen. Wenn man die langsamere Hardware hat und in den Treibern cheatet, dann muss man eben zu solchen Mitteln greifen.

ow
2004-05-26, 09:12:08
Original geschrieben von seahawk
Ich kann NV verstehen. Wenn man die langsamere Hardware hat und in den Treibern cheatet, dann muss man eben zu solchen Mitteln greifen.

Frage: wieso cheatet eigentlich ATi in den Treibern?

tokugawa
2004-05-26, 09:13:08
Original geschrieben von betareverse
:kratz: Ist nicht dein Ernst? Wo basht ATI da NV?

Das ist für mich normales Marketing. Man will die eigenen Vorzüge hervorkehren. NV hat es aber nicht nur nötig die eigenen vermeintlichen Vorzüge aufzuzeigen, sondern die Konkurrenz zu diffamieren. Das sind wohl zwei paar Schuhe.

Also, bei der Präsentation "Save the Nanosecond" auf der GDC hat ATI ganz klar NVIDIA unterschwellig gebasht.

Was ich viel schlimmer finde als einen offenen Bash. Irgendwie eine hinterhältige Stichelei. Und das bei einer Konferenz, bei dem Grabenkämpfe eigentlich fehl am Platz sind (und bei anderen NVIDIA und ATI Präsentationen auch nicht vorhanden waren - die haben ja bei einigen Präsentationen auch kooperiert).

Ich heiße allerdings das Verhalten des NVIDIA-Marketings auch nicht gut. Schadet sicher mehr als es bringt. Und bringt den ganzen Konzern in Verruf. Und ATI-Jünger können ATI wieder mal in eine Opferrolle drängen, die es ganz sicher nicht hat.

Aber als den großen Skandal seh ich's nicht. So werden halt Marketing-Leute ausgebildet und trainiert, weil technisches Verständnis können die ja nicht vorweisen. Anders geht's ja auch nicht bei Wirtschaftsabsolventen :D (sorry, kleiner Seitenbash von mir in Richtung BWLer).

Andererseits kann ich's verstehen dass NVIDIA irgendwie eine PR-Kampagne nötig hat. Über ATI-Defizite (sh. AF) wurde ja fast nie gesprochen (hier schon, aber nicht im Schnitt über alle Medien hinweg), und es bekam NVIDIA auf jeden Fall öfter was auf den Deckel, obwohl es im selben Ausmaß beide verdient hätten.

Nur Brachial-Marketing ist halt eher kontraproduktiv. Schade, dass Marketing-Fuzzis den Ruf eines Unternehmen so ruinieren können.

tokugawa
2004-05-26, 09:19:52
Original geschrieben von nggalai
So eine "Präsi" in sehr ähnlichem Stil gibt's auch von ATI zum NV40, Aufhänger ist "NV40 ist am Markt vorbei entwickelt etc. und ein schwacher Einstieg in die SM3.0-Klasse, hahahahha!!!". Ist einfach (noch?) nicht öffentlich gemacht worden. Nach deiner Logik dürftest Du dir auch keine ATI mehr kaufen.

Oder denkt hier wirklich wer, dass bei ATI keine solchen Präsentationen wie die Kyro-Präsi oder eben das hier rumgereicht werden?

Dieses ganze Gezanke, wer denn böser und gemeiner ist, bringt doch wirklich nichts. Der Normalo-User (die grösste Käuferschicht) wird solche Präsentationen kaum bis nie zu Gesicht bekommen. Und von den Leuten hier im Forum hätte ich eigentlich erwartet, dass sie differenziert und nach eigenen Gesichtspunkten entscheiden können, ob eine Karte was taugt oder nicht, und ob man sich das Teil kaufen möchte oder eben nicht. Oder hat sich hier echt wer durch diese Präsentation beeinflussen lassen, ausser vielleicht, dass er einige male schmunzeln musste?

Fänd ich schade. :(

93,
-Sascha.rb

100% ACK.

Marketing-Leute werden IMMER so trainiert. Das ist dort so üblich. Auch bei ATI.

Bloß weil von ATI diesbezüglich kein Dokument "aufgetaucht" ist, heißt es ja nicht, dass sie nicht existieren.

Natürlich prägt sich jeder seine Meinung dadurch, welche Informationen er bekommt. Und aufgrund solcher "Teilveröffentlichungen" kann es dadurch zu verzerrten Ansichtsweisen kommen. Damit erkläre ich mir auch wieso so oft ATI in eine "Opferrolle" gedrängt wird.

Ich hab jedenfalls in meiner Meinung die Marketingabteilungen beider Grafikchipfirmen ausgeklinkt. Für mich ist Marketing einfach nicht relevant.

Und wie so oft von mir erwähnt: Die Entwickler- und Techniker-Abteilungen sowohl von ATI und NVIDIA geben sich nicht solche Grabenkämpfe, sondern sehen die Dinge technischer und objektiver (die NVIDIA Techniker/Entwickler sind sich der Schwächen des NV30 vollkommen bewußt gewesen, genauso wie sie wissen, wo der NV40 noch Defizite hat, und geben das auch offen zu).

EDIT:

PS: Wer Marketingleuten Beachtung schenkt, ist selber schuld :D

Gast
2004-05-26, 09:54:13
OMG, liebe Fanboy gemeinde...nur weil nVidia die bessere Karte am Start habt, hängt ihr euch jetzt am Marketing auf...ihr macht euch nur noch lächerlich. Werdet erwachsen!

seahawk
2004-05-26, 10:04:50
Original geschrieben von ow
Frage: wieso cheatet eigentlich ATi in den Treibern?

Weil sie von NV gelernt haben :D

LairD
2004-05-26, 10:18:12
OMG!
Mittlerweile ist es ja unerträglich hier einen Thread zu verfolgen.
80% der Posts sind von Fanboys,weitere 10% von Leuten die Ahnung haben,aber immer nur wieder die gleichen Argumente anführen.
Und die 10% die interessant sind werden von 9 sinnfreien Postings unterbrochen und man verliert völlig den zusammenhang.
Für was gibts hier auf der Seite eig. Mods und verbietet doch mal diese unsäglichen Gastpostings.
Dann wären schon mal 50% der sinnfreien Posts verhindert worden.

So sry für OT und Gastpost,aber informieren kann man sich auf eurer Seite wirklich nur noch mit sehr hohem Zeitaufwand und Zeit ist Geld.

gruss
LairD

www.towsurfer.com

LovesuckZ
2004-05-26, 10:21:07
Original geschrieben von LairD
So sry für OT und Gastpost,aber informieren kann man sich auf eurer Seite wirklich nur noch mit sehr hohem Zeitaufwand und Zeit ist Geld.


Forum <> Seite.

ow
2004-05-26, 11:18:28
Original geschrieben von LairD

Für was gibts hier auf der Seite eig. Mods und verbietet doch mal diese unsäglichen Gastpostings.
Dann wären schon mal 50% der sinnfreien Posts verhindert worden.




Anregungen zur Regpflicht bitte an den Chef des Forums (aka Leonidas).
Da hat die Moderation naemlich keinen Einfluss drauf.

Gast
2004-05-26, 11:38:50
Original geschrieben von Winter[Raven]
am besten finde ich immer noch die Anspielung auf Eminems "The real Slimshady please stand up" ^^.

http://activefuse.qsurf.org/~floppy/nvidia/7.jpg



Dumm nur, dass alles Stimmt was in den PDF's steht, gelle?

Naja, dumm nur das alle Statemants aus dem Zusammenhang gerissen worden sind und in keinster Weise zusammenpassen.

Mir liegen alle Gesamt-Statemants vor und ich finde dieses nvidia-paper einfach nur peinlich.

Aber egal, who cares !

x5
2004-05-26, 11:41:08
Original geschrieben von Gast
OMG, liebe Fanboy gemeinde...nur weil nVidia die bessere Karte am Start habt, hängt ihr euch jetzt am Marketing auf...ihr macht euch nur noch lächerlich. Werdet erwachsen!
Nvidia die bessere Karte?Für so ein Transistor-Monster ist die Performance geradezu jämmerlich.

LovesuckZ
2004-05-26, 11:43:28
Original geschrieben von x5
Nvidia die bessere Karte?Für so ein Transistor-Monster ist die Performance geradezu jämmerlich.

"jämmerlich"? :rofl:
man, ihr macht Aussagen, besser als jede "AnkeLightNight" Show!

aths
2004-05-26, 11:58:19
Original geschrieben von SKYNET
warum ? stimmt doch das die x800 nur ne aufgebohrte 9800er ist nix neues an dem ding ausser mehr takt und mehr pipes, NV40 dagegen ist nen absolut neuer chip, der garnix von den alten karten hat(ausser den namen "geforce") Na ganz so krass ist es nun auch wieder nicht. Das AA-Subsystem ist afaik "nur" verbessert, nicht "absolut neu".

aths
2004-05-26, 11:59:48
Original geschrieben von x5
Nvidia die bessere Karte?Für so ein Transistor-Monster ist die Performance geradezu jämmerlich. Wuss? Ich finde, für 400 MHz ist die Performance beeindruckend. Imo wird, was Shader angeht, noch mehr kommen.

betasilie
2004-05-26, 12:00:15
Original geschrieben von nggalai
Das ist knapp ein Drittel des gesamten Foliensatzes, der gezeigt wurde. Beim Rest kommt das nicht mehr vor. Und ja, ich find's auch nei, dass man sowas an einem Conference Call zeigt.

Andererseits darf man nicht vergessen, dass hier noch der Sprecher dazu fehlt. Ist ähnlich wie mit dieser lustigen ATI-Präsentation, wo Richards Vortrags-Notizen aus Versehen mit-veröffentlicht wurden: wenn man sich das Zeuch einfach nur anschaut, ohne den dazugehörigen Vortrag zu sehen / hören, kann man die gesamte Präsentation kaum bewerten. Mir wurde an der Uni auch beigebracht, bei Folienpräsis gefälligst nur die schlagkräftigsten Stichworte und Argumente zu zeigen, um meinen Vortrag zu untermalen--und nicht, den ganzen Vortrag 1:1 im Foliensatz abzubilden. Foliensätze sollen Vorträge ergänzen, nicht ersetzen.

Aber ja, das hätte der Autor wohl besser hingekriegt. Langsam sollten die Jungs wissen, dass Foliensätze getrennt vom Rest an die Öffentlichkeit gelangen können. ;)

93,
-Sascha.rb
Stimmt schon, aber auch mit Vortrag würde sich an der Intention, nämlich mit Gewalt ATI ins negative Licht zu stellen, imo nichts ändern.

ATI wird NV sicherlich auch schlecht machen, nur machen sie das etwas geschickter und nicht mit so brachialer Dummheit wie NV.

Original geschrieben von tokugawa
Also, bei der Präsentation "Save the Nanosecond" auf der GDC hat ATI ganz klar NVIDIA unterschwellig gebasht.

Was ich viel schlimmer finde als einen offenen Bash. Irgendwie eine hinterhältige Stichelei. Und das bei einer Konferenz, bei dem Grabenkämpfe eigentlich fehl am Platz sind (und bei anderen NVIDIA und ATI Präsentationen auch nicht vorhanden waren - die haben ja bei einigen Präsentationen auch kooperiert).

Ich heiße allerdings das Verhalten des NVIDIA-Marketings auch nicht gut. Schadet sicher mehr als es bringt. Und bringt den ganzen Konzern in Verruf. Und ATI-Jünger können ATI wieder mal in eine Opferrolle drängen, die es ganz sicher nicht hat.

Aber als den großen Skandal seh ich's nicht. So werden halt Marketing-Leute ausgebildet und trainiert, weil technisches Verständnis können die ja nicht vorweisen. Anders geht's ja auch nicht bei Wirtschaftsabsolventen :D (sorry, kleiner Seitenbash von mir in Richtung BWLer).

Andererseits kann ich's verstehen dass NVIDIA irgendwie eine PR-Kampagne nötig hat. Über ATI-Defizite (sh. AF) wurde ja fast nie gesprochen (hier schon, aber nicht im Schnitt über alle Medien hinweg), und es bekam NVIDIA auf jeden Fall öfter was auf den Deckel, obwohl es im selben Ausmaß beide verdient hätten.

Nur Brachial-Marketing ist halt eher kontraproduktiv. Schade, dass Marketing-Fuzzis den Ruf eines Unternehmen so ruinieren können.
Also ich finde unterschwellige Bashings nicht so dreist, wie zig Folien, die ausschließlich die vermeintlich negativen Seiten des Konkurrenzprodukts darstellen. Im Grunde ist jede Werbung, die die die vermeintlichen Vorteile (e.g. 3dc, SM3.0) eines Produkts hervorhebt, welche die Konkurrenz nicht hat, ein Bashing gegenüber der Konkurrenz. Die hier gezeigten Folien von NV sind da aber eine andere Dimension.

Und wie Du schon sagtest schadet NV sich eher durch solch ein übertrieben aggressives Marketing, als dass sie sich einen Vorteil verschaffen.

aths
2004-05-26, 12:02:44
Original geschrieben von betareverse
Wirklich schade, dass Du nicht in der Lage bist eine gezielte Diffamierung von einer fadenscheinigen Marketingaktion für die eigenen Hardware zu unterscheiden.
Und da dich das Thema scheinbar überfordert, lass ich das diskutieren an dieser Stelle mit dir auch sein. <br>, es gibt auch von ATI Folien, wo sie derbe über NV abziehen, und zwar teilweise mit sachlich falschen Argumenten.

aths
2004-05-26, 12:03:48
Original geschrieben von Showtime
Sie haben doch eine ebenbürtige Karte. Im Moment kann man nicht sagen: Kauf X800, die ist schneller. Der NV40 ist in einigen Spielen langsamer, in anderen schneller, das würde ich als ebenbürtig empfinden.Ich würde den NV40 als überlegen empfinden. Das Warum und Wieso wird Thema meines nächsten "richtigen" Artikels sein.

Was die Folien angeht habe ich heute morgen von NV die Bestätigung bekommen, dass sie echt sind. Sofern die Zeit bleibt, äußere ich mich zu den Folien noch :naughty:

betasilie
2004-05-26, 12:07:15
Original geschrieben von aths
<br>, es gibt auch von ATI Folien, wo sie derbe über NV abziehen, und zwar teilweise mit sachlich falschen Argumenten.
Sorry, aber kannst Du mir eine Quelle geben. Nicht dass ich das nicht glaube, aber ich habe sowas in der Art von ATI noch ncht gesehen.

Demirug
2004-05-26, 12:34:27
Original geschrieben von betareverse
Sorry, aber kannst Du mir eine Quelle geben. Nicht dass ich das nicht glaube, aber ich habe sowas in der Art von ATI noch ncht gesehen.

Erinnerst du dich noch an die schönen Bilder die gezeigt haben wie es aussieht wenn nVidia nur mit FP16 rendert? Die Kaffekanne zum Beispiel. Copy and Paste. ;)

Showtime
2004-05-26, 13:22:58
Original geschrieben von aths
Ich würde den NV40 als überlegen empfinden.

Er ist ungefähr genauso schnell wie der R420, und auf Grund der Features und der neueren Architektur (im Gegensatz zum R420) würde ich ihn auch als überlegen sehen, aber wenn ich das gleich so deutlich sage, werde ich eventuell als Fanboy abgestempelt, das Risiko wollte ich nicht eingehen ;)

Gast
2004-05-26, 13:36:54
http://www.hardware-tweaker.de/ATI-bashing.jpg



rofl?

gbm31
2004-05-26, 13:44:11
zu den folien: marketing ist marketing, und jeder hält sein produkt für das beste und die der konkurrenz für unterlegen.

wobei: es stimmt ja alles, aber der schuß geht trotzdem nach hinten los: eine "veraltete" karte hält mit der technologisch überlegenen mit... welche ist jetzt besser?

was ich in den letzten jahren gelernt hab:

ati: nix. jede karte war eine überraschung.

rage & tnt lass ich mal...

erste radeon: nicht ganz so schnell wie gts/pro, aber schönes bump mapping (hab damals sehr gern colinmcrae gezockt), treiber solala (hatte guter freund)

8500: technisch featuremäßig top, schneller als g3 (eigentlicher hauptkonkurrent), konnte sogar mit der g4 mithalten, ABER: treibermäßig und stabilitätsmäßig eine katastrophe, bin an meiner regelmäßig verzweifelt. (hatte also ich)

9700: sahnestück, genug features und ausreichend schnell (hab ich immer noch)

nvidia: jeder technologiefortschritt ist erst mit der nächsten generation nutzbar.

g1: schlagwort hardware t&l, die zukunft, nur wo? (hatte anderer kumpel)
g2: endlich ein paar spiele mit ht&l (außer 3dmark2000 ;) ), aber erst mit der pro auch 32 bit... (war ja schon bei der tnt (übrigens auch 2 generationen) versprochen, aber da hatte ich noch eine voodoo2 drin...) (hatte ich als pro)
g3: dx8, und zwar in schönen techdemos, die zukunft (schon wieder)... (hatte ich als ti200)
g4: hey, dx8 geht ja auch schnell ;), endlich aa (ODER af) (habe ich noch)
fx: cinefx, dx9, die zukunft (nutzt sich langsam ab), und auch noch heiss... (wollte ich gar nicht)
fx die zweite: hey, jetzt klappts sogar mit dx9... (hat der kumpel mit der g1)

conclusion (für mich): in jedem fall erstmal abwarten mit den neuen von ati&nvidia, aber zyklusmäßig ist nv mal wieder in der "neue features, die noch keiner braucht, und wenns soweit ist, zu langsam"-generation.

so, jetzt weiterbashen

Gust
2004-05-26, 13:48:06
Ich weiss nicht wieso die meisten sich hier aufregen *kopfschüttel* ICh finde die aktion von nv richtig cool. Sie zeigen damit, das sie sehr viel angst vor der konkurrenz haben und um ihr produkt zittern, sonst würde sie sowas nicht veranstalten. Ich wollte mir ja eigentlich eine 6800gt holen, weil ich den eindruck hatte nv wär technisch überlegener (was sie ja im grunde auch sind), aber nach dieser aktion habe ich mich gefragt, wenn ein produkt so gut ist warum sollte man dann die konkurrenzen bashen ? Doch nur weil man selbst weiss das die konkurrenz besser ist. Big thx an nv , hätte mir fast die falsche karte geholt :D

Gast
2004-05-26, 13:50:03
Vor ein paar Jahren hatte ich ein schönes Girl kennen gelernt.Sie hiess envidia! Sie war hübsch, selbstbewusst, grosse Titten ... ihr wisst schon! Am Anfang war alles so wunderbar.Mit ihr auszugehen, zu sprechen, zusammen zu sein und stundenlang über alles und nichts zu reden.Einfach total romantisch! Und ihr Körper! Sowas von perfektion, meine absolute Traumfrau!
Die Zeit verging ,ich war total verknallt in ihr, aber sie begann weniger mit mir zusammen zu sein! Ich wurde langsam misstrauisch, denn so war sie früher ja nicht! Also spionierte ich ihr nach, verfolgte sie Tag und Nacht, ich war wie von Sinnen nur im dem Gedanken das sie cheaten würde! Tagelang war ich an ihrem Fersen und am Ende erwischte ich sie! Das war das Ende für uns.
Ich suchte mir eine neue Freundin und fand sie: Sie hiess Ati! Was für ein hübscher Name! Und ihr Gesicht erst.Schöne lange Beine noch dazu.Und charakterlich schien sie auch anziehender als meine vorherige zu sein.Ja ich glaube ich hatte meine neue traumfrau gefunden!
Wie das schicksal aber es so will dauerte auch diese Beziehung nicht lange! Sie ging auch fremd!Sie cheatete auch ! Was für ein Schlag für mich, denn von ihr hätte ich es nicht erwartet! Ich begann an mich zu zweifeln:Wieso cheaten sie mich? Ich bin doch ein attraktiver gutaussehender Mann und Geld habe ich auch noch dazu und verwöhn sie doch! Warum... Die Tage vergingen und plötzlich rief mich envidia an.Sie war wieder allein und wollte mich sehen! Ich willigte ein , war neugierig was sie sagen würde!Sie kam und wir unterhielten uns, sie entschuldigte sich, sie wolle mich nie wieder cheaten ... und plötzlich klingelte es an der Tür.Ich ging, öffnete : Es war Ati! Sie bat reinzukommen um alles zu erklären.Ich sagte es gibt nichts zu erklären sie hat gecheatet.Sie fing an es zu bezweifeln, sie hat nicht mit den anderen geschlafen ,sie war nur zu besuch und das es alles nur anders aussah als es tatsächlich war!Ich wollte sie wegschicken aber sie flehte mich an sie reinzulassen um uns auszureden.Und ich lies sie rein... was für ein fehler! Envidia hatte ich nämlich vergessen.Wer ist diese Frau fragte Ati? Ist sie deine neue Freundin? Cheatest du mich? Eh nein... lass mich erklären... Wer ist diese zicke erwiderte Envidia? Ist das deine neue? Die sieht ja aus wie eine billige Tunte! Hätte nie gedacht das du dich mit so eine einlässt! Ach, hallt doch die klappe du blöde Kuh antwortet Ati! Schau dich doch mal selbst an! Deine billige grüne Aldi-klamotten und tust so als wärst du etwas besonderes! Zumindest trage ich kein knallrotes Lippenstift und Minirock als wär ich auf dem Strich wie du schrieh Envidia! Du bist hier die Hure, die cheatet und mit jedem geht antwortet wieder Ati! Ach und du cheatest nicht? Oder bist du nur so in dem Hotel mit dem anderen gegangen! Ja er hat mir alles erzählt erwiderte Envidia. Halt die klappe und verschwinde!Er gehört mir! Nein ich will wieder haben ! Nie ! Mach ne fliege oder ich zerkratz dir die Augen aus! Und ich lass dir die luft aus deinen Ballons! Raus ! Nein ! Jetzt reicht! Dumme Kuh! Selber ! Hilfe! ....

Und die Moral von der Geschichte: trau keiner die nvidia oder Ati heisst!
(Diese Geschichte ist erfunden.Jegliche Ähnlichkeiten mit Personen , Firmen etc. die im realen Leben existieren ist gewollt! Ansprüche , Schadensersatz etc. werden nicht anerkannt!)
cu

seahawk
2004-05-26, 13:54:30
Original geschrieben von betareverse
Sorry, aber kannst Du mir eine Quelle geben. Nicht dass ich das nicht glaube, aber ich habe sowas in der Art von ATI noch ncht gesehen.

Oh, da gibt es einige sehr schöne "Infos" für OEMs ...

LovesuckZ
2004-05-26, 14:00:08
Original geschrieben von betareverse
Sorry, aber kannst Du mir eine Quelle geben. Nicht dass ich das nicht glaube, aber ich habe sowas in der Art von ATI noch ncht gesehen.

Siehe meine Sigantur.

Gast
2004-05-26, 14:03:56
Original geschrieben von LovesuckZ
Siehe meine Sigantur.

Da steht nur was von 'other Companies'...

Gast
2004-05-26, 14:04:41
Original geschrieben von Gast
Da steht nur was von 'other Companies'...
bzw 'other graphic vendors'

Gast
2004-05-26, 14:06:52
Original geschrieben von Gust
Ich weiss nicht wieso die meisten sich hier aufregen *kopfschüttel* ICh finde die aktion von nv richtig cool. Sie zeigen damit, das sie sehr viel angst vor der konkurrenz haben und um ihr produkt zittern, sonst würde sie sowas nicht veranstalten. Ich wollte mir ja eigentlich eine 6800gt holen, weil ich den eindruck hatte nv wär technisch überlegener (was sie ja im grunde auch sind), aber nach dieser aktion habe ich mich gefragt, wenn ein produkt so gut ist warum sollte man dann die konkurrenzen bashen ? Doch nur weil man selbst weiss das die konkurrenz besser ist. Big thx an nv , hätte mir fast die falsche karte geholt :D

Anders herum gefragt. Wieso muss jemand Reviewern erzählen, man würde full Trillinear filtern und die Konkurenz nicht und wieso muss dieser jemand dann genau zeigen, wie man die Konkurenz gegen das eigene Produkt zu benchen hat und wo man die Settings findet, wenn man 100% überzeugt wäre, dass das eigene Produkt besser ist?

Sieht nicht so aus als wäre ATI überzeugt gewesen und wenn man mal ehrlich ist - abzüglich des ercheateten Vorsprungs ist der NV40 klar besser. Mindestens gleiche Performance bei mehr Technologie. 90% der Reviewer hätten ATI ohne den ercheateten Vorteil für ihre Technologiebremse zerissen bzw. diese klar hinter dem NV40 angesiedelt.

LovesuckZ
2004-05-26, 14:07:47
Original geschrieben von Gast
bzw 'other graphic vendors'

Da fehlt das Bild zur Deaktivierung vom "brilinear", dass stellt naemlich ein Nvidiatreibermenue dar...

Gast
2004-05-26, 14:08:25
Original geschrieben von Gast
bzw 'other graphic vendors'

ja und? der Screenshot den ATI dazu liefert in ihren Schmuddelfolien für die Reviewer ist aus Nvidias Treiber. Damit ganz klar auf Nvidia gezielt ohne wenn und aber.

Gast
2004-05-26, 14:09:28
hrhr ich finde es recht witzig!

Mal ernsthaft, wer braucht heute PS3.0 ? Richtig , die Leute die auf einen Patch für Far Cry warten, das wars dann aber auch schon. Alle anderen Spiele die in Zukunft evt. PS3.0 verwenden werden, kommen in 1-2 Jahren. Bei der heutigen Hardware entwicklung gibt es da schon 1-2 neue GPU-s von ATI und nv. Grundsätzlich hat nv mit der 6800 serie eine gute Karte entworfen, was nach der missratenen FX-Serie auch bitter nötig war. Leider haben Sie es aber auch bei der neuen Serie nicht geschafft, Ihren Karten einen "verfünftigen" Stromverbrauch und eine "erträgliche" Lautstärke anzueignen. Peinlich für nv, das ati mit einem alten Chipdesign schneller ist ( je nach Anwendung ) als nv, und zusätzlich leiser und kühler.

LovesuckZ
2004-05-26, 14:14:13
Original geschrieben von Gast
Leider haben Sie es aber auch bei der neuen Serie nicht geschafft, Ihren Karten einen "verfünftigen" Stromverbrauch und eine "erträgliche" Lautstärke anzueignen. Peinlich für nv, das ati mit einem alten Chipdesign schneller ist ( je nach Anwendung ) als nv, und zusätzlich leiser und kühler.

Ich denke, dass sagst du dir jeden Tag vor dem Spiegel, um dir den r420 schoen zu reden...

Janbo000
2004-05-26, 14:14:24
Hola allereits ...

Habe ein Kyro 2, die wunderbar lief. Okay, ein paar Treiberprobs, und bei neuesten Games ... vergesst es, sie ist einfach nicht mehr geeignet, obwohl UFO Aftermath und UT2003 immer noch ausreichend schnell liefen!

Dafür war das Interne Dokument von NVidia über den Kyro 2 sehr köstlich, selten so gelacht. Diese Internen Dinger sind sowieso immer sehr witzig, aber wie wir (fast) alle wissen entscheidet sich die Leistung einer Karte letztenendes über die Programme die sie nutzen. Und da wird es noch dauern, und ich bin gespannt, was da so kommen wird ...
Mutig und angenehm ehrlich (wenn sie denn korrekt sind) finde ich die Aussagen von ATI zum PS 3.0 und das sie nicht in der Lage seien, PS3 und SM3 zu vertretbarer Geschwindigkeit anzubieten. Warten wir ab, was NVidia gezaubert hat und wie es wirklich schmeckt. Bei meiner TNT-Karte gab es auch 32Bit-Farbtiefe, aber die Performance war miserabel.


Übrigens:
Wollte mir eine 9600 XT kaufen, weil ich den Stromverbrauch sehr angenehm fand, entdeckte nach der Online-Bestellung aber im Media Markt eine Hercules Prophet 9800 für 179,- Euro.

Tja, Vorsätze über Bord, Bestellung storniert und die 9800er mit einem Arctic VGA-Silencer eingebaut.

Glücklich!!!

Die Moral von der Geschicht: Was aktuell ist interessiert mich nicht. Ich kaufe nur Hardware der letzten Generation, denn die funktioniert wenigstens schon. :-)

An alle "Powergamer": Danke für die Beta-Tests :-)
Ohne Euch wüsste ich gar nicht, was ich mir als nächstes kaufen soll!!!

Gast
2004-05-26, 14:18:13
na wenigstens höre ich mich vor dem Spiegel reden, wenn der Rechner an ist ;).

tRpii
2004-05-26, 14:28:34
Ist mir ehrlich gesagt so wumpe ob nV auf ATi schiesst oder umgekehrt. Ich hole mir die Graka die MIR am besten gefällt. Ein das ist eindeutig die von ATi, ich brauch keine Features die eh vorerst keine Sau braucht. Das was ich möchte ist eine gute IQ (ist mir wumpe wer da wie trickst) und schön viel speed für games die in Zukunft rauskommen. Was nächstes Jahr in Sachen SM3.0 etc. ist interessiert mich heute nicht die Bohne.

x5
2004-05-26, 14:45:50
Original geschrieben von aths
Wuss? Ich finde, für 400 MHz ist die Performance beeindruckend. Imo wird, was Shader angeht, noch mehr kommen.
Für mich ist da nichts beeindruckend.Bei dem Aufwand,ist das was rauskam gegen die R420 Karten nicht gerade viel.
Wo doch der R420,laut Nvidias Folien,praktisch nichts an Board hat.

flatbrain
2004-05-26, 14:59:45
Ich verstehe die ganze Aufregung um die Folien nicht, sowas gibts in jeder grösseren Firma, die etwas verkaufen will, sei es nun Hardware oder Versicherungen... am Besten lassen sich nunmal die Vorzüge des eigenen Produktes an den (möglichen) Nachteilen der Konkurrenzprodukte demonstrieren. Thats life ;) ! Zumal diese Folien ja nicht dazu dienen, die Öffentlichkeit zu informieren, sondern in der Regel dazu genutzt werden, die eigenen Mitarbeiter auf den Verkauf des Produktes "einzuschiessen". Und eigentlich könnte man NV sogar unterstellen, die Folien wissentlich geleakt zu haben, sorgen sie doch webweit für Gesprächsstoff auf den relevanten Sites - wer jetzt argumentiert, dass diese Sites nur von Hardcoregamern und Bildqualitätsfetischisten ;) besucht werden, dem sei gesagt, dass sich der Ottonormaluser auch keine Highendgrafikkarte (und sei es nur der Highendpreis) kaufen wird! Also eigentlich ein cleverer Marketingschachzug *g*!

Marketing bzw. Werbung ist nun mal kein Streicheln der Konkurrenz, sondern ein knallhartes und auch sehr teures Instrument!

Und zu den Vorwürfen, dass der Inhalt der Folien zusammengewürfelt und aus dem Zusammenhang gerissen ist, der Vorwurf mag an sich ja stimmen, allerdings muss man dann aber auch zugestehen, dass diese Folien auch aus dem Zusammenhang rausgerissen sind und nur einen Bruchteil dessen wiedergeben, was in dem gesamten Conferenz calling geboten wurde!

Und zum Thema "Fanboys", diese verreissen hier sehr viele Diskussionen, die durchaus sachlich und argumentativ geführt werden könnten - vielleicht könnte Leonidas wirklich mal überlegen, den Gaststatus abzuschaffen, es sind ja wirklich überwiegend Gastposts, die eine gewisse Fanboyignoranz an den Tag legen! Vielleicht könnte die Mods sich ja mal mit dieser Frage/Bitte an Leonidas wenden ;) ?

cu flatbrain

betasilie
2004-05-26, 15:02:56
Original geschrieben von Demirug
Erinnerst du dich noch an die schönen Bilder die gezeigt haben wie es aussieht wenn nVidia nur mit FP16 rendert? Die Kaffekanne zum Beispiel. Copy and Paste. ;)
Irgendwas war da, aber ehrlich gesagt erinnere ich mich an nichts, was in die Dimension dieser Sache vorstößt. :ratlos:

Ist ja auch Wurst. ATI ist mit Sicherheit keine Abteilung der Samariter, aber nVidia ist mir bisher deutlich unsysmphatischer was das Marketing angeht.

Ich frage mich wieso so viele leute NV nicht mögen. Vielleicht genau wegen solcher Folien? Kommt wohl doch nicht von ungefähr. :spock:

Und ich bin bestimmt nicht der einizige bei denen sich NV mit solchen Methoden keine Symphatien erhascht, wobei ich mich natürlich nicht davon abhalten lassen würde einen NV-GraKa zu kaufen, wenn diese meiner Meinung nach das bessere P/L-Verhältniss hat.

Etcetera PP
2004-05-26, 15:05:42
>Ich frage mich wieso so viele leute NV nicht mögen. Vielleicht genau wegen solcher Folien? Kommt wohl doch nicht von ungefähr.<

Meistens liegts am lieben Geld. Siehe Intel vs. AMD

Crushinator
2004-05-26, 15:08:47
Original geschrieben von flatbrain
(...) vielleicht könnte Leonidas wirklich mal überlegen, den Gaststatus abzuschaffen, es sind ja wirklich überwiegend Gastposts, die eine gewisse Fanboyignoranz an den Tag legen! Vielleicht könnte die Mods sich ja mal mit dieser Frage/Bitte an Leonidas wenden ;)
Diese Bitte wurde Leo oft genug zugetragen, und eine forumweite Abstimmung brachte das Ergebnis, daß er bis auf Ausnahmen strikt gegen eine Zwangsregistrierung sei. Ich war/bin übrigens für den Gaststatus. Jetzt mal ehrlich, sind's wirklich die Gäste? Ich meine, es seien diejenigen welche sich provozieren lassen, und wenn die Gastbeiträge wirklich stören, können sie doch durch die Mods entsorgt werden....

ow
2004-05-26, 15:26:42
Original geschrieben von Gast
bzw 'other graphic vendors'

Duerfte doch klar sein, wer mit "one of our competitors" gemeint ist, oder?

joe kongo
2004-05-26, 15:27:46
Ich würde keine der beiden Firmen als seriös betrachten.
Diese Firmen haben NULL Werte ausser Gewinn für die sie stehen und arbeiten. Kundenverarschung durch Treiberoptimierungen und niveauloses PR sind an der
Tagesordnung.





:-(

SKYNET
2004-05-26, 15:36:23
Original geschrieben von seahawk
Weil sie von NV gelernt haben :D

aber nicht sehr gut...

1. schlechte treiber "also für das game brauchst du den treiber, für das den und für das hier wiederum den..."

2. linux treiber die mal richtig fürn arsch sind.

nene, ATI treiber kannste echt knicken, da fehlt noch viel nacharbeit damit die dinger mal detonator b.z.w. forceware niveau erreichen.

Radeonator
2004-05-26, 15:38:14
Original geschrieben von joe kongo
Ich würde keine der beiden Firmen als seriös betrachten.
Diese Firmen haben NULL Werte ausser Gewinn für die sie stehen und arbeiten. Kundenverarschung durch Treiberoptimierungen und niveauloses PR sind an der
Tagesordnung.
:-(

Das hat mit Seriös nix und null zu tun! "business as usual"
Es gibt keine Firma, die etwas anderes ausser ihren Gewinn als erste Priorität hat, in welcher Traumwelt leben viele hier eigentlich??? naja, wenigstens wachen einige noch zeitig auf ;)

SKYNET
2004-05-26, 15:39:50
Original geschrieben von aths
Na ganz so krass ist es nun auch wieder nicht. Das AA-Subsystem ist afaik "nur" verbessert, nicht "absolut neu".


ja, ich rede eigentlich vom chip-design selber, das die technologien dadrinne zum teil auchschon in der NV3x waren ist klar.

weil sonst müsste der A64 ja auchnur nen aufgebohrter K6 sein weil er 3Dnow hat :D

Gast
2004-05-26, 15:46:49
Original geschrieben von SKYNET
aber nicht sehr gut...

1. schlechte treiber "also für das game brauchst du den treiber, für das den und für das hier wiederum den..."

2. linux treiber die mal richtig fürn arsch sind.

nene, ATI treiber kannste echt knicken, da fehlt noch viel nacharbeit damit die dinger mal detonator b.z.w. forceware niveau erreichen.

1. Nein.

2. Ja.

Zu der hinzugefügten Meinung: Nein.

[dzp]Viper
2004-05-26, 15:48:18
Original geschrieben von SKYNET
aber nicht sehr gut...

1. schlechte treiber "also für das game brauchst du den treiber, für das den und für das hier wiederum den..."

2. linux treiber die mal richtig fürn arsch sind.

nene, ATI treiber kannste echt knicken, da fehlt noch viel nacharbeit damit die dinger mal detonator b.z.w. forceware niveau erreichen.

es reicht...

dieses dumme treibergelaber nervt einfach nur noch. Die ATI treiber sind absolut in ordnung. Man braucht überhaupt nicht für jedes spiel einen anderen treiber - ich frage mich wirklich, woher du das hast...

Wenn du weiter so extrem gegen ATI hetzen willst und mit solchen billigen argumenten kommst (die seit einem jahr schon lange nicht mehr gelten) dann machst du dich nur sehr sehr unglaubwürdig.

In sachen treibern nehmen sich ATI und NV nichts mehr. Beide Treiber sind durch und durch optimiert und haben beide nur noch wenige bugs.
Das Märchen, dass man für jedes spiel einen anderen treiber braucht, ist schon lange vorbei...

das einzige was in deinem post stimmt ist, dass die Linuxtreiber von ATI nicht gerade toll sind...

SKYNET
2004-05-26, 15:50:49
Original geschrieben von Gast
1. Nein.

2. Ja.

Zu der hinzugefügten Meinung: Nein.

ach, 1. nein ?

komisch nur das auf diversen boards imemr zulesen ist

"habe in dem game mit meiner 9800pro bildfehler, woran liegt das ?"

antwort: "du musst den cata. x.x nehmen dann sind sie wech, hatte das mit dem alten treiber auch."

"danke, hat geholfen"


das gleiche bei dutzenden anderen games. :P

also erzähle mir nicht das ATI gute treiber hat, weil auf meinen NV karten hatte ich nie bildfehler :P

Gast
2004-05-26, 15:53:12
Original geschrieben von SKYNET
ach, 1. nein ?

komisch nur das auf diversen boards imemr zulesen ist

"habe in dem game mit meiner 9800pro bildfehler, woran liegt das ?"

antwort: "du musst den cata. x.x nehmen dann sind sie wech, hatte das mit dem alten treiber auch."

"danke, hat geholfen"


das gleiche bei dutzenden anderen games. :P

also erzähle mir nicht das ATI gute treiber hat, weil auf meinen NV karten hatte ich nie bildfehler :P

Hi

Komischerweise hatte ich noch keine Probleme mit den ATi Treibern.

Auch die lieben nV Treiber haben ihre tücken.

Gruss labberlippe

SKYNET
2004-05-26, 15:53:29
Original geschrieben von [dzp]Viper
es reicht...

dieses dumme treibergelaber nervt einfach nur noch. Die ATI treiber sind absolut in ordnung. Man braucht überhaupt nicht für jedes spiel einen anderen treiber - ich frage mich wirklich, woher du das hast...

Wenn du weiter so extrem gegen ATI hetzen willst und mit solchen billigen argumenten kommst (die seit einem jahr schon lange nicht mehr gelten) dann machst du dich nur sehr sehr unglaubwürdig.

In sachen treibern nehmen sich ATI und NV nichts mehr. Beide Treiber sind durch und durch optimiert und haben beide nur noch wenige bugs.
Das Märchen, dass man für jedes spiel einen anderen treiber braucht, ist schon lange vorbei...

das einzige was in deinem post stimmt ist, dass die Linuxtreiber von ATI nicht gerade toll sind...

ich bezweifel das ich mich unglaubwürdig mache, habe ja selber ne 9800pro b.z.w. gehabt(is ja zur garantie)

und ich denke ich kann ganz gut abwägen obs stimmt oder nicht, und es stimmt.

Gast
2004-05-26, 15:57:51
Original geschrieben von SKYNET
ich bezweifel das ich mich unglaubwürdig mache, habe ja selber ne 9800pro b.z.w. gehabt(is ja zur garantie)

und ich denke ich kann ganz gut abwägen obs stimmt oder nicht, und es stimmt.

Skynet, laber niet so einen Driss!!!

Ein Treiber für alle Desktopkarten und ein Treiber für alle Spiele!

flatbrain
2004-05-26, 15:57:53
Original geschrieben von [dzp]Viper
es reicht...

dieses dumme treibergelaber nervt einfach nur noch. Die ATI treiber sind absolut in ordnung. Man braucht überhaupt nicht für jedes spiel einen anderen treiber - ich frage mich wirklich, woher du das hast...

Wenn du weiter so extrem gegen ATI hetzen willst und mit solchen billigen argumenten kommst (die seit einem jahr schon lange nicht mehr gelten) dann machst du dich nur sehr sehr unglaubwürdig.

In sachen treibern nehmen sich ATI und NV nichts mehr. Beide Treiber sind durch und durch optimiert und haben beide nur noch wenige bugs.
Das Märchen, dass man für jedes spiel einen anderen treiber braucht, ist schon lange vorbei...

das einzige was in deinem post stimmt ist, dass die Linuxtreiber von ATI nicht gerade toll sind...

In allen Punkten meine volle Zustimmung, bei uns im Forum gibt es sehr viele User, die noch Cat. 3.9 oder 4.1 zum Bsp. installiert haben und keine Probleme haben - egal welcher Form!

Btw. @ Skynet: was hat das mit der Präsentation, um die es in diesem Thread eigentlich geht, zu tun?!
Kannst du sowas nicht in den "Meiner ist grösser/schneller/weiter/länger/höher und sowieso am tollsten - Thread posten?!

@crushinator
Ok, das wusste ich nicht, war ja nur eine Überlegung von mir, die aus den Threads ala "Optimierungen" etc. geboren wurde ;) !

cu flatbrain

Gast
2004-05-26, 16:02:21
Original geschrieben von joe kongo
Ich würde keine der beiden Firmen als seriös betrachten.
Diese Firmen haben NULL Werte ausser Gewinn für die sie stehen und arbeiten. Kundenverarschung durch Treiberoptimierungen und niveauloses PR sind an der
Tagesordnung.





:-(

Aber nicht bei ATI! Bei den grünen ist das Niveau schon lange unten, ich darf nur an den Game-Comicflyer erinnern, der von nvidia kommt in dem die roten ATI-Monster die bösen sind und Adolf-Binden tragen.

Letztens wieder vor 3 Wochen auf dem Ingram-Event verteilt worden.

Das ist Geschmacklos und diese Form der Kommunikation in den Slides ist an den Haaren herbeigezogen.

Aber das machen die FAST-TOTEN immer, immer zum letzten Mittel greifen.

Meine persönliche Meinung, 2007 ist Schluss mit nv, dann wars das!

flatbrain
2004-05-26, 16:03:11
Original geschrieben von SKYNET
ach, 1. nein ?

komisch nur das auf diversen boards imemr zulesen ist

"habe in dem game mit meiner 9800pro bildfehler, woran liegt das ?"

antwort: "du musst den cata. x.x nehmen dann sind sie wech, hatte das mit dem alten treiber auch."

"danke, hat geholfen"


das gleiche bei dutzenden anderen games. :P

also erzähle mir nicht das ATI gute treiber hat, weil auf meinen NV karten hatte ich nie bildfehler :P

Komisch, warum haben wir das bei uns im Forum noch nicht mitbekommen - wir befassen uns ja nur überwiegend mit ATi-Grafikkarten *g* , btw. in 90% aller Fälle ist das Problem nicht der Treiber, sondern der, der vor dem Bildschirme sitzt (was an sich ja kein Problem ist) !

cu flatbrain

LovesuckZ
2004-05-26, 16:06:11
Original geschrieben von Gast
Aber nicht bei ATI! Bei den grünen ist das Niveau schon lange unten, ich darf nur an den Game-Comicflyer erinnern, der von nvidia kommt in dem die roten ATI-Monster die bösen sind und Adolf-Binden tragen.
Letztens wieder vor 3 Wochen auf dem Ingram-Event verteilt worden.

Zeige es uns doch mal.
Dann konntest du beweisen, dass an deinen Luftbla... aeh Drohungen auch etwas dran ist.

StefanV
2004-05-26, 16:06:51
Original geschrieben von SKYNET
aber nicht sehr gut...

1. schlechte treiber "also für das game brauchst du den treiber, für das den und für das hier wiederum den..."

nene, ATI treiber kannste echt knicken, da fehlt noch viel nacharbeit damit die dinger mal detonator b.z.w. forceware niveau erreichen.
Das ist völliger Schwachsinn bzw ein Märchen aus grauer Vorzeit, wie einige vor mir schon angemerkt haben.

Aktuell scheint es auch eher so zu sein, daß die ATI Karten runder laufen als die nV Karten, wie man am Beispiel Far Cry ev. erkennen kann...

Desweuteren hat das nicht wirklich was mit dem Topic zu tun und ist nur sinnloses rumgebashe, was wir lieber denen überlassen sollten, die dafür bezahlt werden...

deekey777
2004-05-26, 16:08:29
Original geschrieben von flatbrain
Komisch, warum haben wir das bei uns im Forum noch nicht mitbekommen - wir befassen uns ja nur überwiegend mit ATi-Grafikkarten *g* , btw. in 90% aller Fälle ist das Problem nicht der Treiber, sondern der, der vor dem Bildschirme sitzt (was an sich ja kein Problem ist) !

cu flatbrain

Welches Forum? ;D ;D ;D

Im letzten Jahr gab es nur einen grossen Ausrutscher bei ATi: cat. 3.5+9100+OpenGl-Spiele (wie MOH:AA oder JK II).
Bei mir ist immer der aktuellste Treiber drauf - nur weil er der aktuellste ist. Dass für viele der 3.7 die heilige Kuh ist, liegt eher daran, dass mit diesem Treiber die Performance in Aqua3 die beste zu sein scheint. Und mit RtCW iV mit cat. 4.1 soll es auch ein Problem geben. Aber dieser Vorwurf, die ATi Treiber seien heute alles andere als zuverlässig, sind zum :kotz: .

Darum SKYNET: :grenade:

aths
2004-05-26, 16:09:09
Original geschrieben von x5
Für mich ist da nichts beeindruckend.Bei dem Aufwand,ist das was rauskam gegen die R420 Karten nicht gerade viel.FP-TMUs, 64-Bit FP-Framebuffer, 32 Bit FP-Präzision pro Kanal, (und echter HW-Support von _PP :)), "kostenloses" NRM_PP, Ultra Shadow, Vertex Shader mit TMUs und Geometry Instancing, Pixelshader mit conditional branches, Early Out (!) und zwei (spezialisierten) Shading Units pro Pipe ist "nicht gerade viel"?

Original geschrieben von x5
Wo doch der R420,laut Nvidias Folien,praktisch nichts an Board hat. Praktisch nichts (nicht viel) gegenüber der 9700, ja.

Gast
2004-05-26, 16:09:16
Original geschrieben von LovesuckZ
Zeige es uns doch mal.
Dann konntest du beweisen, dass an deinen Luftbla... aeh Drohungen auch etwas dran ist.

Du willst ein Kopie des Flyers, nichts leichter als das!
schick mir eine email an crazymuc@web.de und ich schicke dir moin einen Scan, denn kannst du dann als User hier reinpacken.

Der Boardpartner der diese Flyer verteilt hat ist X-View, vieleicht findest du denn ja auch im WEB.

Ist aber wirklich wahr, ist zwar kein h-kreuz drauf, aber dammed an der gleichen stelle ein ähnliches symbol.

Übrings auch der linke Arm, Rote Binde mit Weissem Rand und Schwarzem Sysmbol in der Mitte, so wir es aus den Geschichtsbüchern kennen.

aths
2004-05-26, 16:10:26
Original geschrieben von betareverse
Ich frage mich wieso so viele leute NV nicht mögen. Vielleicht genau wegen solcher Folien? Kommt wohl doch nicht von ungefähr. :spock:Diese Folien sind meines Erachtens nicht besonders "schlimm". Imo sogar etwas weniger schlimm als das ATI-PDF, welches u. a. die 5200 bashte.

betasilie
2004-05-26, 16:11:08
Original geschrieben von Stefan Payne
Das ist völliger Schwachsinn bzw ein Märchen aus grauer Vorzeit, wie einige vor mir schon angemerkt haben.
Glaubst Du das weiß er nicht? Der will doch nur gegen ATI flamen. :crazy:

LovesuckZ
2004-05-26, 16:12:48
Original geschrieben von aths
Imo sogar etwas weniger schlimm als das ATI-PDF, welches u. a. die 5200 bashte.

Ja, die Aussage, dass die 9200 die bessere DX9 Karte waere, übertrifft bis heute noch so vieles...

betasilie
2004-05-26, 16:18:00
Original geschrieben von aths
Diese Folien sind meines Erachtens nicht besonders "schlimm". Imo sogar etwas weniger schlimm als das ATI-PDF, welches u. a. die 5200 bashte.
Wieso bekomme ich sowas nicht mit? :kratz:

deekey777
2004-05-26, 16:18:59
Original geschrieben von aths
Diese Folien sind meines Erachtens nicht besonders "schlimm". Imo sogar etwas weniger schlimm als das ATI-PDF, welches u. a. die 5200 bashte.

Meinst du das:
http://www.ystart.net/upload/20040526/1085580976.jpg

Aus der: Press Tour Presentation (http://www.de.tomshardware.com/column/20030702/images/press_tour_presentation.zip) , Seite 34.

Nachtrag: Das Beispiel mit der Teekanne ist auch in dieser Präsentation zu sehen.

LovesuckZ
2004-05-26, 16:21:49
Gaynau!

Gast
2004-05-26, 16:23:18
Original geschrieben von aths
Diese Folien sind meines Erachtens nicht besonders "schlimm". Imo sogar etwas weniger schlimm als das ATI-PDF, welches u. a. die 5200 bashte.

Wobei die FX5200 auch wirklich gebasht gehört!

DX9 Specs hin oder her, dem User wird vorgegaukelt er können mit einer 79€ Graka DX9 Games spielen in allerbester Kinoqualität.


ein fall für " was drauf steht ist nicht drin"

Gast
2004-05-26, 16:24:24
Original geschrieben von deekey777
Meinst du das:
http://www.ystart.net/upload/20040526/1085580976.jpg

Aus der: Press Tour Presentation (http://www.de.tomshardware.com/column/20030702/images/press_tour_presentation.zip) , Seite 34.

Stimmt ja auch was da steht!

Kann mann ja an Toombraider wunderbar NACHVOLLZIEHEN!!!!

ow
2004-05-26, 16:25:02
Original geschrieben von Gast
Wobei die FX5200 auch wirklich gebasht gehört!

DX9 Specs hin oder her, dem User wird vorgegaukelt er können mit einer 79€ Graka DX9 Games spielen in allerbester Kinoqualität.


ein fall für " was drauf steht ist nicht drin"


Wo wird das dem User vorgegaukelt?

ow
2004-05-26, 16:26:45
Original geschrieben von Gast
Stimmt ja auch was da steht!

Kann mann ja an Toombraider wunderbar NACHVOLLZIEHEN!!!!



NVs Dokumente (um die es hier geht) stimmen ebenso, falls dir das entgangen sein sollte.

LovesuckZ
2004-05-26, 16:28:09
Original geschrieben von Gast
ein fall für " was drauf steht ist nicht drin"

:???:
Bist du der selbe gast, von dem ich den Flyer bekommen sollte? Wenn ja, die Mail ist rausgegangen.

dildo4u
2004-05-26, 16:28:32
Original geschrieben von ow
Wo wird das dem User vorgegaukelt?
Es wird mit Full DX9 geworben für die karte die wahrheit ist aber das die karte zu lahm ist deshalb wenden viele games und sogar die Nvidia eigene techdemo fallbacks für die karte an weil sie für "echtes" DX9 zu lahm is

DrumDub
2004-05-26, 16:28:45
kann jemand mal die gäste abstellen. :freak:

diese folie beweist eben mal wieder ganz klar, dass ati exakt die gleichen methoden wie nv einsetzt. marketing halt.

Gast
2004-05-26, 16:29:43
Original geschrieben von ow
Wo wird das dem User vorgegaukelt?

Schau dir mal eine Retailbox von der FX5200'er an oder lies mal das:

Chipsatz
nVidia GeForce FX5200 Ultra

AGP-Rate

8x

Arbeitsspeicher

128MB DDR

Anschlüsse

1x DVI,1x TV-OUT

Abmessungen/Format

AGP

Besonderheiten


Chiptakt: 325MHz
Speichertakt: 650MHz

256-Bit Grafikprozessor
10,4GB/s Speicherbandbreite
1,3Mrd. Texel/s Füllrate
81 Millionen Dreiecke pro Sekunde

CineFX Engine
Für Kinoeffekte jenseits aller Vorstellungskraft. Die ausgeklügelten Vertex- und Pixel-Shader-Funktionen erlauben atemberaubend komplexe Spezialeffekte. Und die stärkere Leistung garantiert schnellere und ruckfreiere Spiele.

Hochpräzisionsgrafik
Die GeForce FX-GPUs bringen den unglaublichen Dynamikbereich modernster 3D-Filme mit hochpräzisen 128-Bit-Studiofarben zusammen und erzielen damit die beste Farbqualität der Branche - selbst bei anspruchsvollsten Anwendungen.

DirectX 9.0-Optimierungen und Unterstützung
Ausgelegt auf Kompatibilität mit der neuesten Spiele- und Multimediasoftware, ist die GeForce FX 5200 die einzige DX9-GPU ihrer Klasse

Gast
2004-05-26, 16:31:19
Original geschrieben von DrumDub
kann jemand mal die gäste abstellen. :freak:

diese folie beweist eben mal wieder ganz klar, dass ati exakt die gleichen methoden wie nv einsetzt. marketing halt.

Naja,

was macht es für einen Sinn sich als USer anzumelden wenn dabei so ein Output wie von dir kommt ;)

betasilie
2004-05-26, 16:31:31
Original geschrieben von deekey777
Meinst du das:
http://www.ystart.net/upload/20040526/1085580976.jpg

Aus der: Press Tour Presentation (http://www.de.tomshardware.com/column/20030702/images/press_tour_presentation.zip) , Seite 34.

Nachtrag: Das Beispiel mit der Teekanne ist auch in dieser Präsentation zu sehen.
Hoho, das ist wirklich nicht schlecht. :o

DrumDub
2004-05-26, 16:34:08
Original geschrieben von Gast
Naja,

was macht es für einen Sinn sich als USer anzumelden wenn dabei so ein Output wie von dir kommt ;)

nun ja. wenigstens laufen auf ner 5200 (wenn auch extrem langsam) alle demos im 3dmark03, ganz im gegensatz zur 9200. :P

deekey777
2004-05-26, 16:34:15
Original geschrieben von betareverse
Hoho, das ist wirklich nicht schlecht. :o

Die nächsten Seite sind auch nicht besser - aggressiv -, aber nicht falsch!

Original geschrieben von DrumDub
nun ja. wenigstens laufen auf ner 5200 (wenn auch extrem langsam) alle demos im 3dmark03, ganz im gegensatz zur 9200. :P

Hehe... In den PS Tests des alten 3d2001 SE ist die 9200 um einiges schneller als die 5200.

Gast
2004-05-26, 16:36:02
Guck ma unter :http://www.wer-weiss-was.de/theme22/article2132494.html

Das ist die bittere Wahrheit bezüglich FX5200 und auch die MEinung der entäuschten Kunden.

Fanboy hin oder her, das ist die Basis !


Zitat: Moin

Aufgrund eklatanter Grafikschwächen bei dem Spiel "Far Cry" ließ ich, zum ersten Mal, einen Benchmark-Test laufen; und zwar den Futuremark 3DMark03 - Professional Edition.
Ich wusste zwar das meine Grafikkarte Geforce FX5200, um es gnädig auszudrücken, nicht die beste ist, aber der Test erscheint mir doch etwas "unter der Würde"!

Have a look:

Benchmark
Width:--------------------1024
Height:-------------------768
Pixel Processing:---------None
Texture Filtering:--------Bilinear
Max Anisotropy:-----------1
Vertex Shaders:-----------Optimal
Disable Optimized Shaders:No
Repeat Tests:-------------Off
Fixed Framerate:----------Off
Comment

3DMark Score
GT1 - Wings of Fury:--------12,9 fps------------Game Tests
GT2 - Battle of Proxycon:----1,4 fps------------Game Tests
GT3 - Troll's Lair:----------1,4 fps------------Game Tests
GT4 - Mother Nature:---------2,9 fps------------Game Tests
CPU Score:-------------------233 CPUMarks-------CPU Tests
CPU Test 1:------------------22,3 fps-----------CPU Tests
CPU Test 2:-------------------4,8 fps------------CPU Tests
Fill Rate (Single-Texturing): 90344000,0 MTexels/s ---Feature Tests
Fill Rate (Multi-Texturing): 178165120,0 MTexels/s ---Feature Tests
Vertex Shader:---------------4,2 fps------------Feature Tests
Pixel Shader 2.0:------------3,1 fps------------Feature Tests
Ragtroll:--------------------1,5 fps------------Feature Tests
No sounds:-------------------0,0 fps----Not supported Sound Tests
24 sounds:-------------------0,0 fps----Not supported Sound Tests
60 sounds:-------------------0,0 fps----Not supported Sound Tests

Display Device
Description:-------------------NVIDIA GeForce FX 5200
Manufacturer:------------------NVIDIA
Total Local Video Memory:------128 MB
Total Local Texture Memory:----128 MB
Total AGP Memory:--------------128 MB
Driver File:-------------------nv4_disp.dll
Driver Version:----------------5.6.7.2
Driver Details:
Driver Date:-------------------24.03.2004
Driver WHQL Certified:---------FALSCH
Max Texture Width:-------------4096 px
Max Texture Height:------------4096 px
Max User Clipping Planes:------6
Max Active Hardware Lights:----8
Max Texture Blending Stages:---8
Fixed Function Textures In Single Pass: 8
Vertex Shader Version:---------2
Pixel Shader Version:----------2
Max Vertex Blend Matrices:-----0
Max Texture Coordinates:-------8

DirectX Info
Version:----------9
Long Version:-----4.09.00.0902


Desweiteren besitze ich einen AMD Athlon XP 2400+, 512MB DDR-RAM und ein Syntax SV400 Mainboard.

Ich hoffe das reicht an Informationen (Der komplette Test-Bericht würde glaub ich den akzeptablen Rahmen dieses Beitrages sprengen).

Wie schon erwähnt habe ich zum ersten Mal einen Benchmarktest laufen lassen und auch keine Erfahrung in Bezug auf evtl. Einstellungen im Programm selbst. Könnte es daran gelegen haben? Ich mein, ihr könnt mir sagen was ihr wollt, aber diese Werte würde ich allerhöchstens einer Geforce 2MX zusprechen aber keiner FX!

Ich hoffe das mir dahingehend geholfen werden kann

Thx

Jim

betasilie
2004-05-26, 16:36:44
Original geschrieben von DrumDub
nun ja. wenigstens laufen auf ner 5200 (wenn auch extrem langsam) alle demos im 3dmark03, ganz im gegensatz zur 9200. :P
Na da hat man auch was von. :eyes:

LovesuckZ
2004-05-26, 16:40:36
Dann soll sich der enttaeuschte Kunde doch eine 9200 kaufen.
Ohman, ich finde es richtig lustig, wie man versucht die 5200 schlecht zu machen. Aber wir wissen ja warum: Sie kommt von Nvidia.
Nunja, solln'se eben wieder die Technologiebremse spielen. Wobei, dann werden sie ja wieder kritisiert :|

deekey777
2004-05-26, 16:42:15
Original geschrieben von LovesuckZ
Dann soll sich der enttaeuschte Kunde doch eine 9200 kaufen.
Ohman, ich finde es richtig lustig, wie man versucht die 5200 schlecht zu machen. Aber wir wissen ja warum: Sie kommt von Nvidia.
Nunja, solln'se eben wieder die Technologiebremse spielen. Wobei, dann werden sie ja wieder kritisiert :|

Nanana :nono:

Die 9200 ist auch nicht das Rosa vom Ei.

DrumDub
2004-05-26, 16:43:36
Original geschrieben von betareverse
Na da hat man auch was von. :eyes:

es geht um die features. die sind da. die speed halt nicht. als entwickler ist die karte völllig ausreichend, um dinge zu testen, die man programmiert hat.

auch nem gelegenheitsspieler kann man auch heute guten gewissens keine 9200 mehr empfehlen. da muss schon mindestens ne 9600 her.

karten für unter 100€:

spieler -> 9600 (128-bit)

entwickler -> 5200 (128-bit)

was ist daran so schwer zu verstehen?

Gast
2004-05-26, 16:46:35
Original geschrieben von deekey777
Nanana :nono:

Die 9200 ist auch nicht das Rosa vom Ei.

Das sagt ja ATI auch, nicht umsonst wurde als DX9 Spielefähige Karte die 9600'er positioniert.

Der Spruch das die 9200'er im Vergleich zur FX5200'er die bessere DX9 KArte ist bezieht sich nur auf den Umstand, das die meisten Games wie zB. Toomraider automatisch auf DX8.1 Modus bei der FX5200'er wechseln, das kann aber die 9200'er wie BEcnhmarks belegen deutlich schneller!

Die 9200'er wurde nie als Gamingkarte beworben, sondern als reine Offciekarte die DX8.1 unterstützt.

Überflüssges gelöscht

dildo4u
2004-05-26, 16:46:44
Original geschrieben von LovesuckZ
Dann soll sich der enttaeuschte Kunde doch eine 9200 kaufen.
Ohman, ich finde es richtig lustig, wie man versucht die 5200 schlecht zu machen. Aber wir wissen ja warum: Sie kommt von Nvidia.
Nunja, solln'se eben wieder die Technologiebremse spielen. Wobei, dann werden sie ja wieder kritisiert :| jo genauso kann man Nvida verschwendung vorwerfen weil man sich ein paar transistoren einsparen hätte können denn der DX9 part ist sowas von unnütz auf der karte und verschwendet nur strom und damit auch wichtige Energie ressourcen und erhöt gleichzeitig noch die umwelt verschmutzung aber so sind sie halt die Ammis Umwelt kümmert die ein dreck

*eg*

Fadl
2004-05-26, 16:49:44
Original geschrieben von dildo4u
jo genauso kann man Nvida verschwendung vorwerfen weil man sich ein paar transistoren einsparen hätte können denn der DX9 part ist sowas von unnütz auf der karte und verschwendet nur strom und damit auch wichtige Energie ressourcen und erhöt gleichzeitig noch die umwelt verschmutzung aber so sind sie hat die Ammis Umwelt kümmert die ein dreck

*eg*

DAS ist nun aber doch sehr lächerlich ;)

LovesuckZ
2004-05-26, 16:50:45
Original geschrieben von Gast
Die 9200'er wurde nie als Gamingkarte beworben, sondern als reine Offciekarte die DX8.1 unterstützt.


"Radeon 9200 will play DX9 class games faster[...]"
"nie als Gamingkarte beworben"?
:rofl:

dildo4u
2004-05-26, 16:57:03
Original geschrieben von Fadl
DAS ist nun aber doch sehr lächerlich ;)
wenn du wüsstest was IT schon jetzt anteilig am gesammt strom verbrauch ausmacht

x5
2004-05-26, 16:58:06
Original geschrieben von aths
FP-TMUs, 64-Bit FP-Framebuffer, 32 Bit FP-Präzision pro Kanal, (und echter HW-Support von _PP :)), "kostenloses" NRM_PP, Ultra Shadow, Vertex Shader mit TMUs und Geometry Instancing, Pixelshader mit conditional branches, Early Out (!) und zwei (spezialisierten) Shading Units pro Pipe ist "nicht gerade viel"?

Praktisch nichts (nicht viel) gegenüber der 9700, ja.

Na ja aths,das ganze Zeug muß dann aber auch erstmal jemand nutzen.Das was dieses und wohl nächstes Jahr an Games kommt(und für nix anderes brauch ich die Karte,doch für meine Sammlung)wird die Fähigkeiten das NV40 kaum 100% ausnutzen.Dann kommt aber schon wieder die neue Generation an Karten.

Fadl
2004-05-26, 17:01:39
Original geschrieben von dildo4u
wenn du wüsstest was IT schon jetzt anteilig am gesammt strom verbrauch ausmacht

Klar wird da einiges verbraucht. Aber die DX9 Fähigkeit der FX5200 hat damit wohl kaum zu tun ;)

Tigerchen
2004-05-26, 17:02:19
Original geschrieben von LovesuckZ
Dann soll sich der enttaeuschte Kunde doch eine 9200 kaufen.
Ohman, ich finde es richtig lustig, wie man versucht die 5200 schlecht zu machen. Aber wir wissen ja warum: Sie kommt von Nvidia.
Nunja, solln'se eben wieder die Technologiebremse spielen. Wobei, dann werden sie ja wieder kritisiert :|

Ohman, ich finde es richtig lustig wie man versucht die 5200 schön zu reden. Aber wir wissen ja warum:
Sie kommt von nVidia.
Wann wurde nVidia denn jemals als Technologiebremse kritisiert?
Kritisiert wurde eigentlich so ein Schrott wie die FX5200er Serie weil man so tat als ob man DX9 wirklich damit nutzen könnte.

kami
2004-05-26, 17:03:30
Original geschrieben von Tigerchen

Ohman, ich finde es richtig lustig wie man versucht die 5200 schön zu reden. Aber wir wissen ja warum:
Sie kommt von nVidia.
Wann wurde nVidia denn jemals als Technologiebremse kritisiert?
Kritisiert wurde eigentlich so ein Schrott wie die FX5200er Serie weil man so tat als ob man DX9 wirklich damit nutzen könnte.


Bei der GeForce4Mx die im Gegensatz zur Gf4Ti nur Dx 7 bot.

ice cool69
2004-05-26, 17:03:48
Ich weiß nur eines: Weder NV noch ATI haben mich überzeugen können ihre neue Grafikkartengeneration zu kaufen.
Entweder die Series5 kommt raus oder ich warte halt auf die Refreshs, dann gibts auch mehr Takt und vielleicht die eine oder andere kleine Neuerung (und vielleicht genug Leistung bei NV um S3.0 wirklich in der Praxis nutzen zu können).

aths
2004-05-26, 17:04:04
Original geschrieben von LovesuckZ
Ja, die Aussage, dass die 9200 die bessere DX9 Karte waere, übertrifft bis heute noch so vieles... Kritischer sehe ich die Behauptung, die 5200 würde DX9 verlangsamen (wo die Karte lt. Demirugs Test ggü. Refrast ca. 100x schneller ist) und die Pipeline-Diagramme stimmen ohnehin nicht.

betasilie
2004-05-26, 17:04:33
Original geschrieben von Gast
Der Spruch das die 9200'er im Vergleich zur FX5200'er die bessere DX9 KArte ist bezieht sich nur auf den Umstand, das die meisten Games wie zB. Toomraider automatisch auf DX8.1 Modus bei der FX5200'er wechseln, das kann aber die 9200'er wie BEcnhmarks belegen deutlich schneller!
Ack

Mr. Lolman
2004-05-26, 17:04:38
Original geschrieben von DrumDub
entwickler -> 5200 (128-bit)

was ist daran so schwer zu verstehen?


Ich kann mir nicht vorstellen, dass das Entwickeln auf euner FX5200 Spass machen kann.

Wenn rthdribl, trotz PP und allen weggeschalteten Details schon grauslichst ruckelt, wie schauts dann aus, wenn die Karte mal wirklich was aufwändigeres als Kugeln rechnen muss?

aths
2004-05-26, 17:05:12
Original geschrieben von Gast
Die 9200'er wurde nie als Gamingkarte beworben,Doch.

Tigerchen
2004-05-26, 17:06:52
Original geschrieben von LovesuckZ
"Radeon 9200 will play DX9 class games faster[...]"
"nie als Gamingkarte beworben"?
:rofl:

DAS ist mal wieder Marketing was du da treibst. DAS ist nämlich der Teil eines Statements welches sich über die DX9 Fähigkeiten der 5200 (zu recht) lustig macht. Wenn du schon zitierst dann bitte nicht immer mit aus dem Zusammenhang gerissenen Halbsätzen. Dieses machst du nämlich sehr gerne.

aths
2004-05-26, 17:07:26
Original geschrieben von x5
Na ja aths,das ganze Zeug muß dann aber auch erstmal jemand nutzen.Das was dieses und wohl nächstes Jahr an Games kommt(und für nix anderes brauch ich die Karte,doch für meine Sammlung)wird die Fähigkeiten das NV40 kaum 100% ausnutzen.Dann kommt aber schon wieder die neue Generation an Karten. Ohne Features keine Games.

Keine Karte wird featuremäßig zu 100% ausgenutzt.

LovesuckZ
2004-05-26, 17:07:36
Original geschrieben von Tigerchen
Ohman, ich finde es richtig lustig wie man versucht die 5200 schön zu reden.

Tja, neben DX9 gibt es noch einsetzbares MSAA und als Option SSAA, sehr schnelles und sehr schoenes AF, brilinear (für viele ein Pluspunkt, weil man die Unterschiede zu trilinear nicht sehen würde...) etc.


Wann wurde nVidia denn jemals als Technologiebremse kritisiert?

*hint* GF4MX *hint*?

Kritisiert wurde eigentlich so ein Schrott wie die FX5200er Serie weil man so tat als ob man DX9 wirklich damit nutzen könnte.
[/COLOR]

Man kann DX9 nutzen. Wahrscheinlich sind die Kritiker nur zu bloed, den vernünftigen Knopf zu druecken...

Gast
2004-05-26, 17:07:59
Original geschrieben von aths
Doch.

Aber nicht im Zusammenhang mit DX9, ausserdem ist der Fokus bei Gaming bei der 9600'er

aths
2004-05-26, 17:09:04
Original geschrieben von Tigerchen
[COLOR="#000088"]
DAS ist nämlich der Teil eines Statements welches sich über die DX9 Fähigkeiten der 5200 (zu recht) lustig macht.Das ist Marketing was davon ablenken soll, dass ATI kein DX9-Einsteigerprodukt hat.

DrumDub
2004-05-26, 17:09:35
Original geschrieben von Mr. Lolman
Ich kann mir nicht vorstellen, dass das Entwickeln auf euner FX5200 Spass machen kann.

Wenn rthdribl, trotz PP und allen weggeschalteten Details schon grauslichst ruckelt, wie schauts dann aus, wenn die Karte mal wirklich was aufwändigeres als Kugeln rechnen muss?

guck mal hier im forum. es gibt hier jemanden der hat eine 5200 und bastelt damit shader und testet sie. das geht mit der karte wunderbar.

so lange du keine speed brauchst, isses egal.

man sollte die sache nicht immer aus der sicht des spielers sehen.

deekey777
2004-05-26, 17:10:05
Original geschrieben von aths
Das ist Marketing was davon ablenken soll, dass ATI kein DX9-Einsteigerprodukt hat.

Das ist Marketing was davon ablenken soll, dass ATI kein DX9-Einsteigerprodukt hatte.

Tigerchen
2004-05-26, 17:11:27
Original geschrieben von kami
Bei der GeForce4Mx die im Gegensatz zur Gf4Ti nur Dx 7 bot.

Ach das war doch beiderseitig und nicht ernst zu nehmen. Richthofen hat das der Radeon 7500 vorgeworfen und dann kamen die GF4MX und dann war das eine "geniale" Idee. Wenn man ehrlich haben da beide gebremst, daher braucht da keiner dem anderen was vorzuwerfen.

LovesuckZ
2004-05-26, 17:11:28
Original geschrieben von Tigerchen

Wenn du schon zitierst dann bitte nicht immer mit aus dem Zusammenhang gerissenen Halbsätzen. Dieses machst du nämlich sehr gerne.

Ich habe seine These widerlegt. Die karte wurde in der Folie als "Gamingkarte" beworben.
Daher solltest du bitte erstmal den Zusammenhang erkennen, in welchen ich meinen Post abgegeben habe.

Gast
2004-05-26, 17:11:46
Original geschrieben von aths
Das ist Marketing was davon ablenken soll, dass ATI kein DX9-Einsteigerprodukt hat.

Ein Einstiegsprodukt macht ja auch keinen Sinn bei DX9 wenn wir mal ganz ehrlich sind, ausserdem kommt ja noch die Radeon 9550 mit 128BIT als Gegenstück in den Channel.

Wobei diese, belegbar durch Toombraider DX9 voll unterstütz und eine spielbare Framerate realisiert!

Das ist ja bei der FX5200 gar nicht möglich!

Tigerchen
2004-05-26, 17:15:41
Original geschrieben von LovesuckZ
Ich habe seine These widerlegt. Die karte wurde in der Folie als "Gamingkarte" beworben.
Daher solltest du bitte erstmal den Zusammenhang erkennen, in welchen ich meinen Post abgegeben habe.

Ich kann deinen Stil schon ganz gut einschätzen. Der Ton macht die Musik und deine Töne könnten auch der Klavitatur ein Brian Burke entsprungen sein. Das fällt auf.:biggrin:

LovesuckZ
2004-05-26, 17:17:13
Original geschrieben von Tigerchen

Ich kann deinen Stil schon ganz gut einschätzen. Der Ton macht die Musik und deine Töne könnten auch der Klavitatur ein Brian Burke entsprungen sein. Das fällt auf.:biggrin:


Und? Ich hab seine These einfach eindrucksvoll widerlegt. Wenn er mit schon die Tuere so weit offenlaesst, darf man das nicht ausnutzen?

Tigerchen
2004-05-26, 17:21:52
Original geschrieben von aths
Das ist Marketing was davon ablenken soll, dass ATI kein DX9-Einsteigerprodukt hat.

Natürlich ist das Marketing. Und nicht gelogen. die nVidia Präsentation dieser Tage ist ja auch nicht gelogen.

Ist dir ein Featurest wichtiger als reale Leistung?

Tigerchen
2004-05-26, 17:22:53
Original geschrieben von LovesuckZ
Und? Ich hab seine These einfach eindrucksvoll widerlegt. Wenn er mit schon die Tuere so weit offenlaesst, darf man das nicht ausnutzen?

DAS ist doch mal eine ehrliche Antwort. :)

Gast
2004-05-26, 17:26:40
Mit dem ICE Express nach München

Gast
2004-05-26, 17:30:52
Und mit PCI-Express in die Zukunft!
So wie es Ati will (X300, X600).

DAS ist doch mal ein Feature, das noch keiner braucht :-)

seahawk
2004-05-26, 17:34:03
Langsam wird hier ede Diskussion in diesem Forum sinnlos. Nur NV gegen ATI Gebashe. Schade eigentlich.

jagger
2004-05-26, 17:39:31
Zur News:

Wieso sollen sich ConCall und Powerpoint Präsentation beissen!?!

Hab ich fast jeden Tag: Netmeeting.

deekey777
2004-05-26, 17:40:05
Original geschrieben von seahawk
Langsam wird hier ede Diskussion in diesem Forum sinnlos. Nur NV gegen ATI Gebashe. Schade eigentlich.

Hast Recht - zu wenig ATi gegen nVidia Gebasche...

Dennoch ist die 9200 die bessere Spielegrafikkarte als die 5200.

Gibt es eigentlich eine vergleichbare NV Präsentation, wo die RV250/280 fertig gemacht werden?

LovesuckZ
2004-05-26, 17:40:51
Original geschrieben von deekey777
Dennoch ist die 9200 die bessere Spielegrafikkarte als die 5200.


These steht. Argumente: < bitte einsetzen >

StefanV
2004-05-26, 17:46:25
Original geschrieben von LovesuckZ
These steht. Argumente: < bitte einsetzen >

www.digit-life.com <- da mal schauen...

Sobald Pixelshader eingesetzt werden, wird die 5200 von der 9000/9200 regelrecht versägt...

deekey777
2004-05-26, 17:51:54
Original geschrieben von LovesuckZ
These steht. Argumente: < bitte einsetzen >


Seite 31(35)ff in der ATi Präsentation (aaO).

:weg:

aths
2004-05-26, 17:54:21
Original geschrieben von Gast
Fanboy hin oder her, das ist die Basis !


Zitat: Moin

Aufgrund eklatanter Grafikschwächen bei dem Spiel "Far Cry" ließ ich, zum ersten Mal, einen Benchmark-Test laufen; und zwar den Futuremark 3DMark03 - Professional Edition.Das sagt's jetzt, oder wie? :eyes:

Gast
2004-05-26, 17:54:34
Original geschrieben von deekey777
Seite 31(35)ff in der ATi Präsentation (aaO).

:weg:

http://www.big-smilie.de/SmilieSeiten/Schilder/152.gif http://www.big-smilie.de/SmilieSeiten/Schilder/112.gif

aths
2004-05-26, 17:56:16
Original geschrieben von Gast
Ein Einstiegsprodukt macht ja auch keinen Sinn bei DX9 wenn wir mal ganz ehrlich sind,Warum nicht? Sollten Einsteigerprodukte auf DX7 beschränkt bleiben?
Original geschrieben von Gast
ausserdem kommt ja noch die Radeon 9550 mit 128BIT als Gegenstück in den Channel.Wann soll die kommen, was soll die kosten?
Original geschrieben von Gast
Wobei diese, belegbar durch Toombraider DX9 voll unterstütz und eine spielbare Framerate realisiert!

Das ist ja bei der FX5200 gar nicht möglich! Von einer Einsteigerkarte kann man wohl nicht verlangen, dass ein Spiel mit allen Effekten aufgedreht in hohen Auflösungen flüssig läuft.

aths
2004-05-26, 17:56:35
Original geschrieben von deekey777
Das ist Marketing was davon ablenken soll, dass ATI kein DX9-Einsteigerprodukt hatte. Was haben sie jetzt?

aths
2004-05-26, 17:58:40
Original geschrieben von Tigerchen
[COLOR="#000088"]
Natürlich ist das Marketing. Und nicht gelogen.Doch.

- Die FX 5200, im Gegensatz zu ATIs Behauptung, beschleunigt DX9.

- Sie hat mehr als eine Fullprecison-Pipeline (nämlich zwei.)

Original geschrieben von Tigerchen
Ist dir ein Featurest wichtiger als reale Leistung?
Welche DX9-Leistung hat eine 9200, die ATI in der Präsentation gegen die 5200 setzt? Die 5200 hat (sehr) geringe DX9-Performance, die 9200 keine. Das ist der Punkt, der ATI weh tut, weshalb sie die 5200 bashen. Der normale Kunde hätte halt gerne "DX9", und fragt erst an zweiter Stelle (wenn überhaupt) nach der DX9 Spiele-Performance.

deekey777
2004-05-26, 17:58:56
Original geschrieben von aths
Was haben sie jetzt?

Ist das jetzt eine rhetorische Frage?

Falls ja, antworte ich dennoch: 9550(seit kurzem) und 9600 SE(seit mehreren Monaten).

[dzp]Viper
2004-05-26, 18:00:00
Original geschrieben von LovesuckZ
These steht. Argumente: < bitte einsetzen >


guck mal bei Digit-life vorbei... du wirst staunen...

aths
2004-05-26, 18:00:06
Original geschrieben von Gast
Mit dem ICE Express nach München Mit dem Flieger X-D

aths
2004-05-26, 18:02:08
Original geschrieben von deekey777
Ist das jetzt eine rhetorische Frage?

Falls ja, antworte ich dennoch: 9550(seit kurzem) und 9600 SE(seit mehreren Monaten). Die 9550 kenne ich nicht :| (hab wohl was verpasst :ups: ). Die 9600 SE? Da hätte ich lieber die FX 5200 mit 128 Bit :)

deekey777
2004-05-26, 18:05:19
Original geschrieben von aths
Doch.

- Die FX 5200, im Gegensatz zu ATIs Behauptung, beschleunigt DX9.

...

Von einer DX9-Grafikkarte wird auch erwartet, dass sie DX9 beschleunigt. Die 5200 ist - wenn wir ehrlich sind - eine DX9-Bremse, die aber technologisch gesehen weiterentwickelter ist als die X800er Serie.

Original geschrieben von aths
Welche DX9-Leistung hat eine 9200, die ATI in der Präsentation gegen die 5200 setzt? Die 5200 hat (sehr) geringe DX9-Performance, die 9200 keine.

Da steht auch:

RADEON 9200 will play DX9 class games faster and better through DX8.1 code path
RADEON 9600 has the internal substance to deliver real performance running DX9 class cinematic effects.


PS: Kennst du noch so eine lustige Präsentation, aber von nVidia?

kami
2004-05-26, 18:06:15
Wo bremst sie denn? Schneller als via CPU-Emulation ist sie allemal.

seahawk
2004-05-26, 18:06:55
Original geschrieben von deekey777
Hast Recht - zu wenig ATi gegen nVidia Gebasche...

Dennoch ist die 9200 die bessere Spielegrafikkarte als die 5200.

Gibt es eigentlich eine vergleichbare NV Präsentation, wo die RV250/280 fertig gemacht werden?

Wie verbohrt muss man sein. Wer sich ne 5200 oder ne 9200 zum spiele holt, der hat soieso keine Ahnung und darf keine Wunder erwarten. Flüssig mit allen Details und Effekten bei 1024x768 für unter 80 Euro. Nicht wirklich.

aths
2004-05-26, 18:09:18
Original geschrieben von deekey777
Von einer DX9-Grafikkarte wird auch erwartet, dass sie DX9 beschleunigt. Die 5200 ist - wenn wir ehrlich sind - eine DX9-Bremse, DX9 wird mit der 5200 beschleunigt. Weniger stark als mit anderen DX9-Grafikkarten, aber immerhin.

Original geschrieben von deekey777
Da steht auch:Die 9600 ist auch ein bisschen teurer als die 5200.

Original geschrieben von deekey777
PS: Kennst du noch so eine lustige Präsentation, aber von nVidia? Nvidia hatte sich mal zum 3dfx-FSAA geäußert; so viel Unsinn in so wenig Zeilen komprimiert habe ich selten gelesen.

Gast
2004-05-26, 18:14:22
Original geschrieben von Gast
Und mit PCI-Express in die Zukunft!
So wie es Ati will (X300, X600).

Das ist doch mal ein Feature, das noch keiner braucht :-)

Lol....

1. Ist PCI-Express der Keypoint für alle OEM's (HP, ACER, Dell)

2. Ist wird diese Technik ab July jeden Tag im TV (Werbung), Intel & co. anbieten

..sprich, spät. ab Weihnachten kennt jedes Kind PCI-Express.....

Ati hat ein 100% PCI Express Design und volle 4GB/sec auf beiden Wegen!

Eine Bridge-Lösung hat hingegen der Meinungen vieler hier einen WICHTIGEN Nachteil!

Die physi. Begrenzung auf wenige Bushaltestellen beim Upload zum System. 1GB/sec Upload max.ist nicht HDV-Standart und wird auch mit Optimierungen nicht ausgelichen.

Es ist RICHTIG das zu Beginn einige Mainboards beide Schnittstellen AGP-PCI-E anbieten werden. Alle haben nur einen Nachteil, sie haben eine Bridge intern.

Im schlimmsten Fall werden Benchmarks ohne Optimierungseinstellungen vorhanden sein und dort kann nv böse auffalllen. Sicherlich ist das Schlagwort Optimierungen ja auch gerade im Thema!

Da frga ich mich doch wie dann die Meinung einiger hier sein wird.

Ist im Prinzip ja nichts anderes als Cheaten!

oder etwa doch Mettbrötchen??? ;)

Gast
2004-05-26, 18:17:37
Original geschrieben von aths
DX9 wird mit der 5200 beschleunigt. Weniger stark als mit anderen DX9-Grafikkarten, aber immerhin.

Die 9600 ist auch ein bisschen teurer als die 5200.

Nvidia hatte sich mal zum 3dfx-FSAA geäußert; so viel Unsinn in so wenig Zeilen komprimiert habe ich selten gelesen.

aths,

stimmt nicht!

Toombraider ist ein DX9 Game und alle relevanten Einstellungen bezüglich DX9 in den erweiterteten Grafikeinstellungen unter dem Game sind DEAKTIVIERT und da gibt es auch kein wenn und aber.... FX5200 ist keine DX9 Karte!

Es ist ein DX9-Cheat!

Der User wird vor einer langsamen Bit by bit kommenden "geilen Braut" geschützt und bekommt nicht mit das sein Spiel im Zeitlupentempo läuft und Lara stottert!

Gast
2004-05-26, 18:19:07
Dieser Thread errinert stark an das Explosiv/Exclusive (?) Niveu - warum tobt ihr euch nicht auf der Spielwiese aus und diskutiert im Grakaforum über Themen wie Bildqualität, Filtermethoden, Texturen, Polygone, Leistung...

Gast
2004-05-26, 18:20:34
Original geschrieben von aths
Was haben sie jetzt?

Radeon 9550 256MB mit 128Bit und DX9 - SRP: 129€-149€

StefanV
2004-05-26, 18:24:26
Original geschrieben von aths
Die 9550 kenne ich nicht :| (hab wohl was verpasst :ups: ). Die 9600 SE? Da hätte ich lieber die FX 5200 mit 128 Bit :)

Warum??

Sicher nicht weil die 5200 schneller ist, denn das ist sie mitnichten, besonders wenn Pixelshader zum Einsatz kommen, sonst sind die beiden mehr oder minder gleichauf...

Gast
2004-05-26, 18:24:35
Original geschrieben von Gast
Dieser Thread errinert stark an das Explosiv/Exclusive (?) Niveu - warum tobt ihr euch nicht auf der Spielwiese aus und diskutiert im Grakaforum über Themen wie Bildqualität, Filtermethoden, Texturen, Polygone, Leistung...

Dann lies doch wo anders!

Was zum Nachdenken!

Zitat Albert Einstein:

Geniale Menschen sind selten ordentlich, ordentliche selten genial

Gast
2004-05-26, 18:26:07
Original geschrieben von Stefan Payne
Warum??

Sicher nicht weil die 5200 schneller ist, denn das ist sie mitnichten, besonders wenn Pixelshader zum Einsatz kommen, sonst sind die beiden mehr oder minder gleichauf...

12.05.2004, 14:52 | Quelle: DigiTimes
Radeon 9550 auch in Europa?
ATI will neue Mainstream-Grafikkarte angeblich auch global vermarkten

Ende März wurde bekannt, dass ATI Technologies mit der Radeon 9550 eine neue Mainstream-Grafikkarte plant. Diese soll den Einsteigerprodukten von nVidia - GeForce FX5200 und FX5500 - Konkurrenz machen, die aufgrund ihrer Kompatibilität zu DirectX 9.0 besser zu vermarkten sind als die 'nur' DX8.1-fähigen Radeon 9000 bis 9200. Zunächst gab es die Radeon 9550 nur in China, aber jetzt will ATI diese nach taiwanesischen Medienberichten auch in Europa und Nordamerika auf den Markt bringen. Die Grafikkarte dürfte etwa 10 bis 20 Euro teurer sein als die Radeon 9600 SE, die derzeit schon für 70 bis 80 Euro zu haben ist. Dafür bietet die Radeon 9550 aber auch eine höhere Leistung aufgrund der doppelt so breiten Speicherschnittstelle (128 statt 64 bit).
ATI wollte zu den angeblichen Plänen, die Radeon 9550 nach Europa zu bringen, bisher offiziell noch nicht Stellung beziehen.

ow
2004-05-26, 18:42:09
Original geschrieben von dildo4u
Es wird mit Full DX9 geworben für die karte die wahrheit ist aber das die karte zu lahm ist deshalb wenden viele games und sogar die Nvidia eigene techdemo fallbacks für die karte an weil sie für "echtes" DX9 zu lahm is

Die Karte ist full DX9.
Muss man dir jetzt noch Markting erklären?

Davon abgesehen wird die 5200 NICHT als Gamer-Karte von NV beworben.

Gast
2004-05-26, 18:55:18
Original geschrieben von Stefan Payne
www.digit-life.com <- da mal schauen...

Sobald Pixelshader eingesetzt werden, wird die 5200 von der 9000/9200 regelrecht versägt...

im großen und ganzen ist die 9000 bzw. 9200 trozdem schlechter.
Das DX9 bei der FX5200 kannst als Zusatz sehen den die 9000 und 9200 nicht hat.

Zusätzlich fehlen den ATI Karten noch ein gescheites nutzebares AA und ein vernünftig aussehendes AF.
Das AF ist R200 like und damit total unzumutbar.
Ansonsten ein netter Test hier aus der Launch Zeit der entsprechenden Produkte:

http://www.nordichardware.com/reviews/graphiccard/2003/Budget_Roundup/

Die FX5200 ist in jedem Fall klar über der 9200 einzuordnen. Ist einfach ausgewogener das Teil. Zusätzlich gibts noch zum probieren und mal antesten DX9 dazu.
Trägt auch zum höheren DX9 Verbreitungsgrad weltweit bei.

Die ATI Präsentation ist deshalb auch reines Marketing, dass davon ablenken soll das man dort gepennt hat.
Und das man dort gepennt hat ist ja erwiesen. Sonst hätte sich Nvidia nicht so gut halten können die letzten 15 Monate.
FX5200 und FX5600 machens möglich. ATI lag in seiner Einschätzung dort einfach mal falsch. Das bleibt unterm Strich.

Die Diskussion hatten wir doch nun schon 100erte Mal. Das führt zu nix. Auch wenn ATI im High End und upper Mainstream vieles richtig gemacht hat, so haben sie doch kapitale Fehler im unteren Preissegment begangen.

Das gleiche könnte wieder passieren. Nvidia wird SM3.0 auf allen Ebenen anbieten. ATI nicht, weil sie es nicht haben.
Das ist doch eigentlich ziemlich bitter und peinlich zugleich, wenn eine 100 Euro Karte mehr technische Innovation hat als ein 500 Euro Produkt. Ich finde das sollte sich ATI mal sehr genau überlegen. Da gibts imho kein Schönreden.

Gast
2004-05-26, 19:08:26
Original geschrieben von Gast
im großen und ganzen ist die 9000 bzw. 9200 trozdem schlechter.
Das DX9 bei der FX5200 kannst als Zusatz sehen den die 9000 und 9200 nicht hat.

Zusätzlich fehlen den ATI Karten noch ein gescheites nutzebares AA und ein vernünftig aussehendes AF.
Das AF ist R200 like und damit total unzumutbar.
Ansonsten ein netter Test hier aus der Launch Zeit der entsprechenden Produkte:

http://www.nordichardware.com/reviews/graphiccard/2003/Budget_Roundup/

Die FX5200 ist in jedem Fall klar über der 9200 einzuordnen. Ist einfach ausgewogener das Teil. Zusätzlich gibts noch zum probieren und mal antesten DX9 dazu.
Trägt auch zum höheren DX9 Verbreitungsgrad weltweit bei.

Die ATI Präsentation ist deshalb auch reines Marketing, dass davon ablenken soll das man dort gepennt hat.
Und das man dort gepennt hat ist ja erwiesen. Sonst hätte sich Nvidia nicht so gut halten können die letzten 15 Monate.
FX5200 und FX5600 machens möglich. ATI lag in seiner Einschätzung dort einfach mal falsch. Das bleibt unterm Strich.

Die Diskussion hatten wir doch nun schon 100erte Mal. Das führt zu nix. Auch wenn ATI im High End und upper Mainstream vieles richtig gemacht hat, so haben sie doch kapitale Fehler im unteren Preissegment begangen.

Das gleiche könnte wieder passieren. Nvidia wird SM3.0 auf allen Ebenen anbieten. ATI nicht, weil sie es nicht haben.
Das ist doch eigentlich ziemlich bitter und peinlich zugleich, wenn eine 100 Euro Karte mehr technische Innovation hat als ein 500 Euro Produkt. Ich finde das sollte sich ATI mal sehr genau überlegen. Da gibts imho kein Schönreden.

Das ist wünschenswert, dann wäre nv eher wech vom Fenster als ich bisher schätze.

PS 3.0 auf einer grünen 99€ Karte mit der Performance einer FX5200 ist der IDEALFALL für ATI.

Bei Pixelshader-Anwendungen wird der Cheat bekannt!

Ich sehe schon die Aufschreie der Presse!

flatbrain
2004-05-26, 19:25:17
@Gast über mir
Du bist dir sicher, dass du aber schon verstanden, worum es in diesem Thread geht?!

cu flatbrain

PS: Wie war doch gleich der Satz über das Einnehmen bewussteinsverändernder Substanzen...?

betasilie
2004-05-26, 19:56:47
Original geschrieben von aths
Das ist Marketing was davon ablenken soll, dass ATI kein DX9-Einsteigerprodukt hat.
Das ist Marketing was darauf aufmerksam machen soll, dass NVidia ebenfalls kein DX9-Einsteigerprodukt hat, jedenfalls keins was DX9 in der Spielepraxis beherrscht. :bäh:

Original geschrieben von aths
Warum nicht? Sollten Einsteigerprodukte auf DX7 beschränkt bleiben?

Lieber eine Karte die wenigstens unter DX8 brauchbare Leitung liefert, als eine Karte, wo DX9 draufsteht, die aber weder bei DX9 noch bei DX8 brauchbare Leistung leifert. ;)

Aber im Endeffekt hast Du natürlich recht, dass ATI bloß der Schuh drückte, weil NV mit DX9 Featureset bei der FX5200 werben durfte und ATI mit deren 9200er nicht.

Für mich ist dieser Performancebereich sowieso uninteressant, weil keine der Karten zu ihren Lebzeiten für mich und andere Gamer von echtem Interesse waren.

StefanV
2004-05-26, 20:07:02
Original geschrieben von Gast
im großen und ganzen ist die 9000 bzw. 9200 trozdem schlechter.
Das DX9 bei der FX5200 kannst als Zusatz sehen den die 9000 und 9200 nicht hat.

Zusätzlich fehlen den ATI Karten noch ein gescheites nutzebares AA und ein vernünftig aussehendes AF.
Das AF ist R200 like und damit total unzumutbar.
Ansonsten ein netter Test hier aus der Launch Zeit der entsprechenden Produkte.

1. bei den alten Spielen sind beide etwa gleich gut, die RV250/280 filtert hingegen voll trilinear.

DX9 ist nicht wirklich relevant, zumal die RV250 auch PS1.4 beherrscht, was näher an PS2 ist als PS1.3.

2. öhm, FSAA und AF sind bei einem Value Produkt irrelevant, da man das meist eh nicht nutzen kann, da nicht genug Performance vorhanden ist, zumal man für aktuellere Spiele eh die Details runterregeln darf.

Dummerweise wird der Abstand zuungunsten der FX5200 immer größer je mehr Pixelshader zum Einsatz kommen, dabei ist es aber völlig irrelevant ob es PS1.1 oder PS1.4 ist...

Gast
2004-05-26, 20:19:29
FÜR ALLE DIE GLAUBEN NVIDIA IST SO VIEL BESSER:

http://www.3dcenter.org/artikel/versteckte_optimierungen/

Wobei ich natürlich hinzufügen möchte, dass ich mir eine Grafikkarte, die Langsamer ist als eine X800XT, schlechtere Bildquali hat, Strom braucht wie woanders ganze PC's nicht, 2 Slots besetzt, sämtliche Ergebnisse in Benchmarks ercheatet sind usw , selbstverständlich kaufen würde, ist ja viel INTELLIGENTER.

Außerdem ist es mir egal, dass eine Radeon X800XT fast lautlos ist während eine Geforce 5800Ultra oda eine 6800 irgendwas sogar das Spiel übertönt....

Radeonator
2004-05-26, 20:36:11
Original geschrieben von betareverse
Das ist Marketing was darauf aufmerksam machen soll, dass NVidia ebenfalls kein DX9-Einsteigerprodukt hat, jedenfalls keins was DX9 in der Spielepraxis beherrscht. :bäh:


Lieber eine Karte die wenigstens unter DX8 brauchbare Leitung liefert, als eine Karte, wo DX9 draufsteht, die aber weder bei DX9 noch bei DX8 brauchbare Leistung leifert. ;)

Aber im Endeffekt hast Du natürlich recht, dass ATI bloß der Schuh drückte, weil NV mit DX9 Featureset bei der FX5200 werben durfte und ATI mit deren 9200er nicht.

Für mich ist dieser Performancebereich sowieso uninteressant, weil keine der Karten zu ihren Lebzeiten für mich und andere Gamer von echtem Interesse waren.

Netter Flame, aber man weiss ja wo es wech kommt... ;D
Natürlich hat im Einsteigerprodukt bereich nV die Nase vorn. Hallo, es geht in dem Fall nicht um Spiele Leistung, nur um gute Vermarktbarkeit. Es ist so ein Quatsch bei Einsteiger Karten das gleiche Maß wie bei Highend anzusetzen. Versuch mal den Markt etwas zu kapieren, vielleicht geht dir dann ein Lichtlein auf und das FLamen findet ein Ende ?

Anstatt sich darüber zu freuen, das man mit der kommenden Generation eine kewle auswahl hat, heulen alle wieder nur rum "Meiner ist der längste"...

So, nu lasst bitte mal gut sein mit der Kinder Kagge...naja, bei dem Thread Thema natürlich net einfach, finde die Presentation auch sehr "Comedy" Preis verdächtig ;)

flatbrain
2004-05-26, 20:37:30
Worum gehts in diesem Thread überhaupt noch... um Optimierungen - eher nicht, darum, wer nun die "bessere" Lowendkarte hat... eher auch nicht, vielleicht um Marketingstrategie und "geleakte" Folien...:kratz2: ...genau!

cu flatbrain

aths
2004-05-26, 20:47:45
Original geschrieben von Gast
aths,

stimmt nicht!

Toombraider ist ein DX9 Game und alle relevanten Einstellungen bezüglich DX9 in den erweiterteten Grafikeinstellungen unter dem Game sind DEAKTIVIERT Von Nvidia?
Original geschrieben von Gast
und da gibt es auch kein wenn und aber.... FX5200 ist keine DX9 Karte!Ich kenne Leute, die mir gegenüber versichert haben, DX9-Shader (PS und VS) auf ihrer FX 5200 HW-beschleunigt gesehen zu haben. Diesen Leuten vertraue ich.

Original geschrieben von Gast
Es ist ein DX9-Cheat!Die FX 5200 erfüllt afaik alles, was zur DX9-Compliance erforderlich ist (und sogar eine Menge mehr.) Was sollte der 5200 zu DX9-Compliance fehlen?

Tigerchen
2004-05-26, 20:48:20
Original geschrieben von aths
Doch.

- Die FX 5200, im Gegensatz zu ATIs Behauptung, beschleunigt DX9.

- Sie hat mehr als eine Fullprecison-Pipeline (nämlich zwei.)

Welche DX9-Leistung hat eine 9200, die ATI in der Präsentation gegen die 5200 setzt? Die 5200 hat (sehr) geringe DX9-Performance, die 9200 keine. Das ist der Punkt, der ATI weh tut, weshalb sie die 5200 bashen. Der normale Kunde hätte halt gerne "DX9", und fragt erst an zweiter Stelle (wenn überhaupt) nach der DX9 Spiele-Performance.

Erst solche Machenschaften in verschiedenen Artikeln verwerflich finden und jetzt propagieren.
Auf die Optimierungsartikel gemünzt müßte das wohl so heißen:
Der Kunde hätte halt gerne Spieleperformance und fragt erst an zweiter Stelle (wenn überhaupt) nach Qualitätsfiltern.

Ja was denn nun aths?

Tigerchen
2004-05-26, 20:51:19
Original geschrieben von aths
Von einer Einsteigerkarte kann man wohl nicht verlangen, dass ein Spiel mit allen Effekten aufgedreht in hohen Auflösungen flüssig läuft.

Ne. Aber warum reagieren Fanboys immer so gereizt wenn man auf diese einfache Tatsache hinweist. Dann wird immer ein riesen Eiertanz aufgeführt um diese Karten dann doch noch irgendwie als tolle Technik hinzustellen.

aths
2004-05-26, 20:53:34
Original geschrieben von betareverse
Das ist Marketing was darauf aufmerksam machen soll, dass NVidia ebenfalls kein DX9-Einsteigerprodukt hat, jedenfalls keins was DX9 in der Spielepraxis beherrscht. :bäh:Wird die 5200 von NV als Spielekarte vermarktet? :eyes: ATI schießt da gegen Dinge, die NV nicht behauptet hat.
Original geschrieben von betareverse
Lieber eine Karte die wenigstens unter DX8 brauchbare Leitung liefert, als eine Karte, wo DX9 draufsteht, die aber weder bei DX9 noch bei DX8 brauchbare Leistung leifert. ;)Lieber eine Karte, die Multisampling-AA und vernünftiges AF beherrscht :)

Original geschrieben von betareverse
Für mich ist dieser Performancebereich sowieso uninteressant, weil keine der Karten zu ihren Lebzeiten für mich und andere Gamer von echtem Interesse waren. Behauptung: Der Gelegenheitsgamer ist mit der FX5200 (128 Bit) durchaus ganz gut bedient. Kein Leistungswunder, schon gar nicht was "Shader-Spiele" angeht, klar. Aber für ein Spielchen zwischendurch reichts, und er hat das gute Gefühl, mit DX9-Support in HW auf dem neuesten Stand zu sein :)

aths
2004-05-26, 20:55:17
Original geschrieben von Gast
Außerdem ist es mir egal, dass eine Radeon X800XT fast lautlos ist während eine Geforce 5800Ultra oda eine 6800 irgendwas sogar das Spiel übertönt.... Meine 5900 (XT) ist sehr leise. Ich nehme sehr stark an, dass es 6800-er geben wird, die auch sehr leise sind.

Tigerchen
2004-05-26, 20:56:16
Original geschrieben von flatbrain
@Gast über mir
Du bist dir sicher, dass du aber schon verstanden, worum es in diesem Thread geht?!

cu flatbrain

PS: Wie war doch gleich der Satz über das Einnehmen bewussteinsverändernder Substanzen...?

Hast du auch was zur Sache zu sagen?

Tigerchen
2004-05-26, 20:57:47
Original geschrieben von aths
Behauptung: Der Gelegenheitsgamer ist mit der FX5200 (128 Bit) durchaus ganz gut bedient. Kein Leistungswunder, schon gar nicht was "Shader-Spiele" angeht, klar. Aber für ein Spielchen zwischendurch reichts, und er hat das gute Gefühl, mit DX9-Support in HW auf dem neuesten Stand zu sein :)

Da isser ja schon, der Eiertanz. ;D

aths
2004-05-26, 20:57:48
Original geschrieben von Tigerchen
[COLOR="#000088"]
Ne. Aber warum reagieren Fanboys immer so gereizt wenn man auf diese einfache Tatsache hinweist. Dann wird immer ein riesen Eiertanz aufgeführt um diese Karten dann doch noch irgendwie als tolle Technik hinzustellen.Die Techik ist doch toll. Meine Mutter bekam zu ihrem Geburtstag (u. a. von mir :)) eine Home Theater von Asus geschenkt, Basis: NV34 (mit dem Homecinema-Modul von NV.) Da kann ich bei Gelegenheit (vielleicht schon dieses Wochenende) einige Tests fahren. An Technik wird jedenfalls volle CineFX-Unterstützung geboten, das ist weitaus mehr als ATI mit der X800 XT bietet.

aths
2004-05-26, 21:00:35
Original geschrieben von Tigerchen
[COLOR="#000088"]
Erst solche Machenschaften in verschiedenen Artikeln verwerflich finden und jetzt propagieren.Was finde ich wo verwerflich, was ich jetzt propagiere?
Original geschrieben von Tigerchen
Auf die Optimierungsartikel gemünzt müßte das wohl so heißen:
Der Kunde hätte halt gerne Spieleperformance und fragt erst an zweiter Stelle (wenn überhaupt) nach Qualitätsfiltern.

Ja was denn nun aths?Ja, tut er. Leider. Um hier ein neues Bewusstsein zu schaffen, tu ich was ich kann. Das wichtigste ist nicht unbedingt, Artikel zu schreiben, sondern Mitstreiter zu finden.

(Gerne würde ich wissen, worin die Gemeinsamkeit bestehen soll, einer Einsteigerkarte sehr gute Shaderfeatures zu spendieren; und mittels Treiber-Update die Grafikverbesserungen stark zu verschlechtern.)

Gast
2004-05-26, 21:13:01
[SIZE=1]Original geschrieben von betareverse
Das ist Marketing was darauf aufmerksam machen soll, dass NVidia ebenfalls kein DX9-Einsteigerprodukt hat, jedenfalls keins was DX9 in der Spielepraxis beherrscht. :bäh:


Darum gehts bei DX9 nicht. Entweder es ist da oder es ist nicht da. Wie schnell es geht interessiert nicht da langsam immer noch schneller ist als gar nicht.


Lieber eine Karte die wenigstens unter DX8 brauchbare Leitung liefert, als eine Karte, wo DX9 draufsteht, die aber weder bei DX9 noch bei DX8 brauchbare Leistung leifert. ;)


Du bist ein jämmerlicher Fanboy. Das Review von Nordichardware zeigt, dass du falsch liegst.
Die FX5200 ist in jedem Fall das rundere Produkt, weil sie dem Gelegenheitsspieler sehr viel mehr Auswahl an Settings erlaubt, um je nach Spiel die Grafik aufzupeppeln.
Bei ATI ist da totale Fehlanzeige.
Die R9000/9200 hat nur unbrauchbares zu bieten auf dem Gebiet.
AA ein Witz weil es reines SS ist und das ist für so eine Karte einfach zu heftig und AF sieht so grausam aus, da bleib ich lieber gleich beim normalen Trillinear. Das Mip Map Banding bei R2xx und RV2xx Derivaten ist ja hinlänglich bekannt.

Zu dem Thema wurde ohnehin bereits alles gesagt und dass sich Nvidia dort gut halten konnte zeigt, dass Sie, und wir die die FX5200 verteidigen (nicht weil sie ein Überfliegerprodukt ist, sondern weil sie zu dem Preis das beste Low End Produkt ist und die Konkurenz nur schlechteres zu bieten hat) Recht haben und die ganzen fanatischen Fanboys aus dem ATI Lager schlichtweg keine Argumente haben weil das Game in dem Preissegment zu Nvidias Gunsten entschieden wurde in der gerade abgelaufenen Generation.

Dort wurde ATI bestraft für ihre Kurzsichtigkeit, genauso wie Nvidia im upper Mainstream und High End bestraft wurde für Designfehler im Produkt GF FX, welche dort mehr zur Geltung kommen. Deshalb macht sich ATI mit der Präsi auch nur lächerlich. Dass sie dort falsch lagen ist schon seit gut 15 Monaten erwiesen und hat sich über diesen gesamten Zeitraum auch so gefestigt.

aths
2004-05-26, 21:20:15
Original geschrieben von Tigerchen

Da isser ja schon, der Eiertanz. ;D In der Regel schreibt Ceiser Söze kluge Sachen, so auch hier: http://www.withingames.net/index.php?show=blog&type=show&id=18

flatbrain
2004-05-26, 21:31:41
Original geschrieben von Tigerchen

Hast du auch was zur Sache zu sagen?


Zu deinem Fanboyeinheitsbrei? Nö, an so etwas beteilige ich mich nicht *g*!
Und zum Threadthema hab ich meine Meinung schon kundgetan.

Nur soviel zu deiner vorgefestigten Meinung:
Original geschrieben von Ceiser Söze
Daher gilt: Wenn schon Lowest-End, dann die FX 5200. Mit an Sicherheit grenzender Wahrscheinlichkeit, werden die betroffenen User keinen Unterschied zu anderen Produkten in diesem Preissegment wahrnehmen, aber sie vergrössern die DX9-Basis und nutzen damit allen Benutzern, nicht zuletzt den Enthusiasten mit den neuesten & teuersten High-End DX9-Beschleunigern. Und dies kann man beim besten Willen von Besitzern einer Radeon 9200 (DX8) oder gar einer Intel Extreme Graphics-Lösung (DX7!!) nicht behaupten.


Wenn sich IHVs nicht gelegentlich dazu hinreissen lassen würden, innovative Neuerungen auch in Produkte für den OEM/Low End Markt einfliessen zu lassen, würden wir wahrscheinlich immernoch Bauklötze über halbwegs flüssige 3D-Grafik in 640x480 staunen...!

cu flatbrain

Gast
2004-05-26, 21:34:34
Hm seitdem ATI mal dafür bekannt wurde, dass sie bei der Qualität mogel, ist die Firma für mich gestorben...

Achja Werbung ist Werbung und wieso sollte nVidia dies nicht machen? Denn haben ATI Graka Benutzer oftmals grottenschlechte Framerates oder viele Spiele-grafikfehler oder ist das nVidia? *sich bei dem Gedanken die Liste von etwa 200 nicht-mit-ATI-funktionierenden Spielen anseh*

Tigerchen
2004-05-26, 21:37:05
Original geschrieben von aths
In der Regel schreibt Ceiser Söze kluge Sachen, so auch hier: http://www.withingames.net/index.php?show=blog&type=show&id=18

Diesen Schmarrn kenn ich schon.:)
Die FX5200 verbreitert eher die Basis für DX8 Spiele da Spielentwickler immer einen Fallbackmodus für die lendenlahme FX5200 einbauen müßen. Wenn sie nicht direkt bei DX8 bleiben.
Die Basis für DX9 Spiele hat wohl eher der Erfolg der R300 Serie geschaffen.

Sphinx
2004-05-26, 21:37:53
Original geschrieben von Gast
Hm seitdem ATI mal dafür bekannt wurde, dass sie bei der Qualität mogel, ist die Firma für mich gestorben...

Achja Werbung ist Werbung und wieso sollte nVidia dies nicht machen? Denn haben ATI Graka Benutzer oftmals grottenschlechte Framerates oder viele Spiele-grafikfehler oder ist das nVidia? *sich bei dem Gedanken die Liste von etwa 200 nicht-mit-ATI-funktionierenden Spielen anseh*

? :) - in was für einer Welt lebst du ?

Tigerchen
2004-05-26, 21:39:33
Original geschrieben von Gast
Hm seitdem ATI mal dafür bekannt wurde, dass sie bei der Qualität mogel, ist die Firma für mich gestorben...

Achja Werbung ist Werbung und wieso sollte nVidia dies nicht machen? Denn haben ATI Graka Benutzer oftmals grottenschlechte Framerates oder viele Spiele-grafikfehler oder ist das nVidia? *sich bei dem Gedanken die Liste von etwa 200 nicht-mit-ATI-funktionierenden Spielen anseh*

Was soll der Unfug?

Crushinator
2004-05-26, 21:42:50
Original geschrieben von aths
Die Techik ist doch toll. Meine Mutter bekam zu ihrem Geburtstag (u. a. von mir :)) eine Home Theater von Asus geschenkt, Basis: NV34 (mit dem Homecinema-Modul von NV.) Da kann ich bei Gelegenheit (vielleicht schon dieses Wochenende) einige Tests fahren. An Technik wird jedenfalls volle CineFX-Unterstützung geboten, das ist weitaus mehr als ATI mit der X800 XT bietet. Die All-In-Wonder DV 8500 meiner Ex-Freundin bot für diesen Zweck vor genau 3 Jahren mehr Technik als das was Du hier auffährst. Das schlimme daran war auch noch, daß alles was sie dafür an Technik bot zur vollsten Zufriedenheit funktionierte, so what? Oder wolltest Du mehr darauf hinaus, daß es egal ist, ob man das was das Produkt bietet benutzt oder nicht? Hauptsache es hört sich toll an und man träumt davon, es auch zu benutzen? Irgendwie kann ich diese Logik beim besten Willen nicht nachvollziehen.

LovesuckZ
2004-05-26, 21:43:48
Original geschrieben von Tigerchen

Diesen Schmarrn kenn ich schon.:)
Die FX5200 verbreitert eher die Basis für DX8 Spiele da Spielentwickler immer einen Fallbackmodus für die lendenlahme FX5200 einbauen müßen. Wenn sie nicht direkt bei DX8 bleiben.


Erklaere doch mal den Fallbackmodus: Worin unterscheidet sich diese zum normalen DX8 Modus?

flatbrain
2004-05-26, 21:50:53
Um nochmal auf das Threadthema zurück zu kommen, zwischendurch keimte immer wieder die "Forderung" auf, man könne ja auch mit Positivwerbung " Das Konkurrenzprodukt ist gut, aber wir sind da und da besser" Umsatz machen... so was funktioniert nicht! Welche Website würde über so ein "positves" Beispiel der Vermarktung nur ein Sterbenswörtchen verlieren - keine... und wieviel Leser würden dann auf die Werbung aufmerksam werden - keine!

Sex sells, so ähnlich lässt sich das auch auf andere Marketingstrategien übertragen, wenn ein Kunde an einem Produkt interessiert ist, wird er sich schon im Vorfeld über die Eigenschaften des Produkts vertraut machen, vielleicht in "objektiven" Printmedien, vielleicht im Fachmarkt, weil "man ist ja nicht blöd", wenn der Kunde dann von den Fachmedien oder den "Fachverkäufern" vorgepaukt bekommt, wie schlecht das Produkt eigentlich ist, für welches man sich interessiert, greift der Ottonormaluser eben zum Konkurrenzprodukt, weil ja "Fachleute" Ahnung haben müssen und wenn die schon nur Negatives berichten, dann muss das ja schlecht sein!

Ich hab mal in einem "Fachmarkt" mitbekommen, wie sich ein Kunde für eine Gamergrafikkarte interessierte, Geld spielte keine Rolle, also hatte er sich eigentlich für eine Radeon 8500 , grade auf den Markt gekommen, entschieden! Der "Fachverkäufer" konnte ihn dann schliesslich von einem schwerwiegenden Fehler abhalten und ihm das Highend Produkt mit überragender Spieleleistung und berauschender BQ "Geforce2 Pro" der Marke Powercolor verkaufen... für 75% des Preises einer R8500... ;) - der Fachverkäufer hatte keine Ahnung, aber er wusste, wie man durch das blosse Runterbeten vermeintlicher Nachteile und sinnloser Features des Konkurrenzproduktes Ladenhüter verkauft!
Dieses Beispiel liesse sich mit Sicherheit auf jeden X-Beliebigen "Fachmarkt" und Ottonormalverbraucher anwenden!

cu flatbrain

Tigerchen
2004-05-26, 22:00:59
Original geschrieben von LovesuckZ
Erklaere doch mal den Fallbackmodus: Worin unterscheidet sich diese zum normalen DX8 Modus?

Ich glaube du hast das falsch verstanden.
Schalt maL deine Spielchenmaschine im Kopf ab und versuche das einfach zu verstehen auch wenn ich mich ein wenig unglücklich ausgedrückt haben sollte. Du kannst das bestimmt.:)

LovesuckZ
2004-05-26, 22:04:26
Original geschrieben von Tigerchen

Ich glaube du hast das falsch verstanden.
Schalt maL deine Spielchenmaschine im Kopf ab und versuche das einfach zu verstehen auch wenn ich mich ein wenig unglücklich ausgedrückt haben sollte. Du kannst das bestimmt.:)

Die FX5200 verbreitert eher die Basis für DX8 Spiele da Spielentwickler immer einen Fallbackmodus für die lendenlahme FX5200 einbauen müßen. Wenn sie nicht direkt bei DX8 bleiben.


Keine Angst, des Lesen bin ich maechtig. Deswegen habe dich auch gebeten, mir den Unterschied zwischen den "Fallback-" und "DX8" Modus zu erklaeren.
Ansonsten: Lass doch deinen Kampf gegen die 5200 ruhen. So schlimm koennen deine vergangenen Begegnungen nicht gewesen sein, dass dein Hass so unruhbar ist...

Tigershark
2004-05-26, 22:10:36
Original geschrieben von LovesuckZ
Die FX5200 verbreitert eher die Basis für DX8 Spiele da Spielentwickler immer einen Fallbackmodus für die lendenlahme FX5200 einbauen müßen. Wenn sie nicht direkt bei DX8 bleiben.


Keine Angst, des Lesen bin ich maechtig. Deswegen habe dich auch gebeten, mir den Unterschied zwischen den "Fallback-" und "DX8" Modus zu erklaeren.
Ansonsten: Lass doch deinen Kampf gegen die 5200 ruhen. So schlimm koennen deine vergangenen Begegnungen nicht gewesen sein, dass dein Hass so unruhbar ist...

Es ging um DX 9 ;)

Und er meinte deshalb, dass die 5200 eher die DX 8 Basis verbreitert, weil die Programmierer einen Fallback Modus (der dann=DX8 ist) einbaun.

Tjell <--- noch Gast
2004-05-26, 22:11:32
Original geschrieben von Gast
Lol....

1. Ist PCI-Express der Keypoint für alle OEM's (HP, ACER, Dell)

2. Ist wird diese Technik ab July jeden Tag im TV (Werbung), Intel & co. anbieten

..sprich, spät. ab Weihnachten kennt jedes Kind PCI-Express.....

Ati hat ein 100% PCI Express Design und volle 4GB/sec auf beiden Wegen!

Zu 1.:
Richtig, bei den OEMs. Kaufst Du Dir aber Stangenware? Ich denke die meisten Leute in Foren wie diesen holen sich die Retailkarten und wieviele von denen werden wohl rennen, um sich eine der neuen PCI-Express(only)-Karten zu sichern!? Hm? ROFL

Zu 2. (sofern es dazugehört, s.o.):
Du scheinst also zu glauben, daß Karten mit PCI-E mit den vollen 4 GB/s Up- und Downstream schneller sind, als AGP-Karten?
Dann bieten also auch AGP8X-Karten höhere Geschwindigkeiten als AGP4X-Karten... wieder mal ROFL

Ne, also ich sehe PCI-E wirklich als tolle Technik an, aber so wie Ati das machen will und Intel auf dem Kreuzzug pro PCI-E zu folgen beschreiten sie einen ziemlich schmalen Grad zwischen einerseits erfolgreicher Vermarktung mit Technologie-Führerschaft und andererseits Falschdeutung der Martkerfordernisse.

Wenn sie scheitern und viel mehr PCI-E-GPUs herstellen, als es der Markt akzeptiert (also wir Käufer), könnten sie finanzielle Mittel einbüßen, die sie besser im Wettbewerb mit NVidia bräuchten. NVidia ist da mit der Bridge-Lösung sehr flexibel.

Und auf absehbare Zeit wird dank großem Speicher auf der Graka die Anbindung ans System (PCI-E oder AGP) noch lange nicht an Grenzen stoßen bzw. irgendwelche Vor- oder Nachteile ausmachen.


Deinen übrigen Ausführungen sind nicht mein Thema.

deekey777
2004-05-26, 22:13:29
Wo ist denn diese ATi Präsentation, wo behauptet wurde, dass die DX9-Einsteigerklassen noch in diesem Jahr in einigen Spielen auf den DX8-Pfad ausweichen werden müssten?

LovesuckZ
2004-05-26, 22:17:45
Original geschrieben von Tigershark
Und er meinte deshalb, dass die 5200 eher die DX 8 Basis verbreitert, weil die Programmierer einen Fallback Modus (der dann=DX8 ist) einbaun.

Ja und diesem "Fallbackmodus" moechte ich erklaert haben. Dieser muesse sich nach seiner Beschreibung vom normalen DX8 Modus, der mitnicht durch die 5200 entsteht, unterscheiden.
Ansonsten finde ich diese Aussage falsch, dass die 5200 nicht zur Verbreitung von DX9 beitrage. Denn Leistung ist nicht alles. Und wenn dies so waere, müsste jede Karte unter 9500pro/5900XT auch als DX8 Karte gelten.
Es gab doch mal Erklaerungen von Demirug und nggalai, dass Publisher auch anhand von Marktforschungen und die Verbreitung von der Hardware entscheiden, wie groß der Zeitaufwand für einzelne DX Versionen ist.
Aber egal: Dank ATi und Tigerchen müssen 5200 User auf DX9 verzichten. Nicht weil sie es wollen, sondern weil man sie zwingt...

aths
2004-05-26, 22:22:18
Original geschrieben von Tigerchen
[COLOR="#000088"]
Diesen Schmarrn kenn ich schon.:)Ceiser Söze ist nicht nur jemand mit großem Wissen, sondern auch einer der sich seine Meinung gut überlegt (und kein Marketing-Zeug nachplappert.) Wenn man auch nicht mit ihm einer Meinung sein muss – das als Schmarrn zu bezeichnen, halte ich für etwas vermessen.
Original geschrieben von Tigerchen
Die FX5200 verbreitert eher die Basis für DX8 Spiele da Spielentwickler immer einen Fallbackmodus für die lendenlahme FX5200 einbauen müßen. Wenn sie nicht direkt bei DX8 bleiben. Das ist ja das gute an DX9: DX8 ist inkludiert :)
Original geschrieben von Tigerchen
Die Basis für DX9 Spiele hat wohl eher der Erfolg der R300 Serie geschaffen.Nicht eher die 9600?

Schreibt Ceiser, dass die 5200 die Basis geschaffen hätte, oder schreibt er nicht, dass sie die Basis verbreitert?

Tjell <--- noch Gast
2004-05-26, 22:22:33
Achja, und den vielen Leuten hier, die sagen NVdia "basht" Ati oder anders herum oder wie auch immer:

Diese Folien sind "Marketing at its best" bzw. eher ein "Scharfmachen" der eigenen Verkäufer und festen Partner.

Leute, geht einfach mal arbeiten. Ich mutmaße jetzt einfach mal, daß fast alle Firmen ab mittlerer Größe so Etwas oder Ähnliches machen. Anhand von Stichpunkten (Schlagworten) werden die eigenen überlegenen Punkte unterstrichen, das hat nix mit "bashen" zu tun:

"bashing -
Informal. To criticize (another) harshly, accusatorially, and threateningly: “He bashed the... government unmercifully over the... spy affair” (Lally Weymouth). "

Und DAS tut kaum jemand. Man sucht Verkaufsargumente für eigene bzw gegen Fremdprodukte. Das ist das tagtägliche Brot von Kaufleuten in Führungsposition.

Leute, Leute... "Bashing"... *Kopfschüttel-und-lach*

Ich will eigentlich niemanden was unterstellen, aber ich glaube die meisten die sowas schreiben sind noch... ehm... ziemlich grün hinter den Ohren.

Sphinx
2004-05-26, 22:29:11
Original geschrieben von LovesuckZ
Aber egal: Dank ATi und Tigerchen müssen 5200 User auf DX9 verzichten. Nicht weil sie es wollen, sondern weil man sie zwingt...

Das ich das nochmal erleben darf das du was richtig erkannt hast.

Ergänze dieses noch mit :

Dank Ati + Nvidia müssen 5200 User + R9xxx(LOWEND) User auf DX9 verzichten. Nicht weil sie es wollen, sondern weil man sie zwingt rein Performance-Mäßig ! Damit sie Spiele flüssig auf ihrem PC, welches sie für ein Schnäppchen bei einem Discounter erworben haben,spielen wollen...

Und die Puplisher wollen Kohle sehen (Absatz) und eine zufriedene Käuferschaft haben damit das nächste Spiel welches sie Herstellen wieder ein Megaerfolg wird...

Schon alleine der SupportAufwand, warum das Spiel bei 1-10 FPS läuft (also unspielbar)... undsoweiter.


Edit : Vielleicht erlebe ich es ja noch das LOW END bald wirklich mal verboten wird... damit wir alle eine wirklich Performantere Entwicklungsbasis besitzen als z.Zt. vorhanden. Ja ich verstehe die Allgemeinheit sich keine 500Euro Karte leisten zu können... aber was solls dann spart man halt mal eine längere Zeit auf was Vernünftiges.

aths
2004-05-26, 22:35:43
Original geschrieben von crushinator
Die All-In-Wonder DV 8500 meiner Ex-Freundin bot für diesen Zweck vor genau 3 Jahren mehr Technik als das was Du hier auffährst. Das schlimme daran war auch noch, daß alles was sie dafür an Technik bot zur vollsten Zufriedenheit funktionierte, so what? Oder wolltest Du mehr darauf hinaus, daß es egal ist, ob man das was das Produkt bietet benutzt oder nicht? Hauptsache es hört sich toll an und man träumt davon, es auch zu benutzen? Irgendwie kann ich diese Logik beim besten Willen nicht nachvollziehen. Natürlich ist es egal, ob man die Feature-Palette des Produktes zur Gänze ausfährt, oder nicht. Was möglich ist, sollte möglich gemacht werden. (Z. B. vernünftiges 8x AF :naughty: ).

Wenn man zwei Karten zum gleichen Preis hätte, beide auf gleichem Performance-Niveau, aber eine davon bietet noch (langsame) DX9-Unterstützung, welche Karte ist besser? Die 9200 ist hier und da schneller als die 5200, dafür bietet die 5200 mehr (vor allem sinnvollere) Optionen zur BQ-Steigerung. Argumentiert man, BQ-Settings sei in der Preisklasse ohnehin nicht drin, könnte man auch sagen, dass die 5200 in dieser Preisklasse ausreichend schnell ist. Wie viele Spiele von allen Spielen brauchen DX9-HW? Kaum welche. Wie viele Spiele brauchen mehr Leistung, als die 5200 bietet? Ebenfalls kaum welche. So, die 5200 hat nur sehr langsame DX9-Unterstützung. Im Endeffekt eine MX 440 mit DX9. So what? Besser ein Feature zu haben, als es nicht zu haben.

flatbrain
2004-05-26, 22:39:32
Original geschrieben von Tjell <--- noch Gast
Achja, und den vielen Leuten hier, die sagen NVdia "basht" Ati oder anders herum oder wie auch immer:

Diese Folien sind "Marketing at its best" bzw. eher ein "Scharfmachen" der eigenen Verkäufer und festen Partner.

Leute, geht einfach mal arbeiten. Ich mutmaße jetzt einfach mal, daß fast alle Firmen ab mittlerer Größe so Etwas oder Ähnliches machen. Anhand von Stichpunkten (Schlagworten) werden die eigenen überlegenen Punkte unterstrichen,

...

Man sucht Verkaufsargumente für eigene bzw gegen Fremdprodukte. Das ist das tagtägliche Brot von Kaufleuten in Führungsposition.


Mein Reden...!

cu flatbrain

Winter[Raven]
2004-05-26, 22:42:48
Ohh mann ... da ist man für paar Stunden in der Schule, kommt wieder und der Tread ist durch Gäste BSE und Fanboys zugespammt :(

Sphinx
2004-05-26, 22:44:57
Original geschrieben von Winter[Raven]
Ohh mann ... da ist man für paar Stunden in der Schule, kommt wieder und der Tread ist durch Gäste BSE und Fanboys zugespammt :(

Wilkommen in der nicht realen Welt des anonymen Internets.

Gast
2004-05-26, 22:47:12
Bis Ati nicht mal gescheite Linuxtreiber bringt hamm sie bei mir eh verkackt. Von daher Go Nvidia go :>

Sphinx
2004-05-26, 22:51:05
Original geschrieben von Gast
Bis Ati nicht mal gescheite Linuxtreiber bringt hamm sie bei mir eh verkackt. Von daher Go Nvidia go :>

Und als LinuxUser brauchst du die GeForce6800 UEE... und die Welt ist eine Scheibe... und Eva war eine Transe*...

Quasar
2004-05-26, 23:34:13
Was spricht gegen Linux und dem Wunsch nach einer ordentlichen 3D-Beschleunigung?

AYAlf
2004-05-26, 23:37:01
Original geschrieben von aths
Wird die 5200 von NV als Spielekarte vermarktet? :eyes:


sorry .. aber fuer office anwendungen brauche ich keine dx8/9 karte. also ist sie wohl eine spiel karte.

Original geschrieben von aths
ATI schießt da gegen Dinge, die NV nicht behauptet hat.
Lieber eine Karte, die Multisampling-AA und vernünftiges AF beherrscht :)

aa und af bei einer karte, das ich leider nicht verwenden kann. weil sie dafuer viel zu langsam ist. (selbst getestet)

Original geschrieben von aths
Behauptung: Der Gelegenheitsgamer ist mit der FX5200 (128 Bit) durchaus ganz gut bedient. Kein Leistungswunder, schon gar nicht was "Shader-Spiele" angeht, klar. Aber für ein Spielchen zwischendurch reichts, und er hat das gute Gefühl, mit DX9-Support in HW auf dem neuesten Stand zu sein :)

also kaufst du deine grafikkarten wegen eines guten gefuehls? ich dachte immer man kauft sie weil man damit spass und schoene grafik haben will?! trollich ;D

Gast
2004-05-27, 00:13:21
oh man zu geil hier. einfach mal pc ausmachen. kleiner tipp.

Gast
2004-05-27, 00:14:49
Entweder Ati Fan oder Klappe halten. So liesst sich das

kiss
2004-05-27, 00:28:09
Original geschrieben von AYAlf

aa und af bei einer karte, das ich leider nicht verwenden kann. weil sie dafuer viel zu langsam ist. (selbst getestet)



Super gemacht! :lol:

Lieber eine Karte die genauer rechnet und bessere quali bietet als eine die nur auf Leistung und schlechter quali ausgelegt ist.
NV setzt auf Zukunft, hilft jedem Programmierer die Shader 3.0 zu verwirklichen. Das nenne ich eine Graka :)

ATIs 800Pro/XT ist zwar in der Leistung wirklich überragend, aber irgendwie gefällt sie mir nicht. Es ist einfach eine 9800Xt. Einfach mehr Pipes reingeballert...paar MHZ mehr und fertig!
Für mich ist es kein NextGen Chip. Von der Leistung ja, aber sonst nicht :(

Gast
2004-05-27, 00:45:57
Original geschrieben von kiss
Super gemacht! :lol:

Lieber eine Karte die genauer rechnet und bessere quali bietet als eine die nur auf Leistung und schlechter quali ausgelegt ist.
NV setzt auf Zukunft, hilft jedem Programmierer die Shader 3.0 zu verwirklichen. Das nenne ich eine Graka :)

ATIs 800Pro/XT ist zwar in der Leistung wirklich überragend, aber irgendwie gefällt sie mir nicht. Es ist einfach eine 9800Xt. Einfach mehr Pipes reingeballert...paar MHZ mehr und fertig!
Für mich ist es kein NextGen Chip. Von der Leistung ja, aber sonst nicht :(

Von den Treibern bei Ati mal ganz zu schweigen! Bis heute läuft Battlefield Vietnam nicht ohne Tools mit Anisotropic Filtering.

SKYNET
2004-05-27, 00:47:23
Original geschrieben von Gast
Von den Treibern bei Ati mal ganz zu schweigen! Bis heute läuft Battlefield Vietnam nicht ohne Tools mit Anisotropic Filtering.

das ist soetwas was ich meine... ATI treiber sind fürn popo.

betasilie
2004-05-27, 01:01:19
Original geschrieben von Gast
Von den Treibern bei Ati mal ganz zu schweigen! Bis heute läuft Battlefield Vietnam nicht ohne Tools mit Anisotropic Filtering.
Wenn Du Vogel auch nur ein bischen Ahnung hättest, wüsstest Du, dass BF:V (EA) dem Treiber nur sagen muss, dass alle Texturestages trilinear gefiltert werden müssen. Dan gibt es keine Fehler mehr. ATI lässt den Aplikationen die Wahl. EA hat da schinbar kein interesse dran, was vielleicht an der Cooperation mit NV liegt. ;)

Von Skynet kann man leider so ein Hintergrundwissen nicht erwarten. ;(

Gast
2004-05-27, 01:11:18
Original geschrieben von betareverse
Wenn Du Vogel auch nur ein bischen Ahnung hättest, wüsstest Du, dass BF:V (EA) dem Treiber nur sagen muss, dass alle Texturestages trilinear gefiltert werden müssen. Dan gibt es keine Fehler mehr. ATI lässt den Aplikationen die Wahl. EA hat da schinbar kein interesse dran, was vielleicht an der Cooperation mit NV liegt. ;)

Von Skynet kann man leider so ein Hintergrundwissen nicht erwarten. ;(

Ich sagte ohne Tools du Vogel!

Gast
2004-05-27, 01:16:25
Oder glaubst du alle Leute die sich so eine Karte kaufen sind so schlau und wissen wo es inoffizielle Tools gibt?
Im Rage3d.com Forum liesst man die schönsten Geschichten und wenn man 1 und 1 zusammenzählen kann , dann zeigt sich das Ati weiterhin genug Probleme damit hat neue Games zu fixen. Der Normalo User will zocken und nicht auf irgendwelchen Patches bzw. Fixes warten.

Winter[Raven]
2004-05-27, 01:30:42
Du Vogel

Sorry, aber merkst du nicht langsamm, dass du in letzter Zeit etwas den falschen Ton triffst, und gleich Beleidigend wirst?

Egal ob Gast, LS und andere!

Crushinator
2004-05-27, 01:50:25
Original geschrieben von aths
Natürlich ist es egal, ob man die Feature-Palette des Produktes zur Gänze ausfährt, oder nicht. Was möglich ist, sollte möglich gemacht werden. (Z. B. vernünftiges 8x AF :naughty: ). Du argumentierst aber mit expliziter Erwähnung, daß die angesprochene Karte weit mehr bietet als z.B. die R420-Serie, und ich sage daß der Vergleich einfach hinkt, weil viele Features die Du anführst nicht mal auf den großen Brüdern des NV34 ausreichend schnell sind, um ernsthaft eingesetzt zu werden. Du erweckst auch den Eindruck, daß es nur wichtig sei sinnvoll 8xAF einsetzen zu können, und all die anderen Vorteile (weil einsetzbar) ob nun AA, HDR oder MRT blendest Du hier einfach aus. Du vermittelst den Eindruck, daß eine Technik allein deshalb besser sei, weil sie irgendetwas mehr kann. Ob die Implementierung gut und problemlos, sprich praxistauglich sei, interessiert dabei scheinbar nicht. Diese Art der Argumentation bin ich zwar von unseren Marketingsheinis gewohnt, nur dachte ich nicht daß sich ein Techniker jemals auf diese Ebene begeben würde.
Wenn man zwei Karten zum gleichen Preis hätte, beide auf gleichem Performance-Niveau, aber eine davon bietet noch (langsame) DX9-Unterstützung, welche Karte ist besser? Für mich persönlich ist die Karte besser, bei der ich die meisten Features auch oft einsetzen kann. Wenn ich auf DX9 abfahren würde, würde ich eine Karte kaufen, die DX9-würdig ist und keine die dessen Einsatz mehr zum Qual werden läßt. Mit dieser "Wenn überhaupt schon, dann ordentlich" Einstellung hab' ich's jedenfalls weit genug gebracht, um beurteilen zu können, daß sie zumindest nicht falsch ist.
Die 9200 ist hier und da schneller als die 5200, dafür bietet die 5200 mehr (vor allem sinnvollere) Optionen zur BQ-Steigerung. Argumentiert man, BQ-Settings sei in der Preisklasse ohnehin nicht drin, könnte man auch sagen, dass die 5200 in dieser Preisklasse ausreichend schnell ist. Es ist selbstverständlich Dein gutes Recht, für Dich selbst über sinnvoll und sinnlos zu entscheiden, nur erwarte nicht daß Andere auch gleicher Meinung sind. Ich mag jedenfalls keine der beiden Karten und erwarte jedes Game, das ich besitze in 1152x864 mit mindestens 4xRGMSAA und möglichst dem Maximum an verfügbarem AF-Grad bei 30+ fps spielen zu können.
Wie viele Spiele von allen Spielen brauchen DX9-HW? Kaum welche. Wie viele Spiele brauchen mehr Leistung, als die 5200 bietet? Ebenfalls kaum welche. Wie bitte? Einerseits stellst Du die 5200 als DX9-Hardware dar, weil sie DX9 wenn auch extrem langsam beschleunigt, und das müsse ja zwangsläufig besser sein als ganz ohne, andereseits behauptest Du, daß kaum welche Spiele DX9-HW bräuchten, welche auf der 5200 eh' nicht spielbar liefen, was das zuvor befürwortete Feature nur adabsurdum führt. Das hört sich für mich an wie Doppelmoral.
So, die 5200 hat nur sehr langsame DX9-Unterstützung. Im Endeffekt eine MX 440 mit DX9. So what? Besser ein Feature zu haben, als es nicht zu haben. aths, Du kannst nicht einerseits die NV17-Reihe verteufeln und andererseits ein ähnliches Ding befürworten. Denn NV34 stellt für mich - im übertragenen Sinne - inzwischen nichts anderes dar, wenn DX9-Spiele nach Erkennung dieser Chipreihe lieber den DX8 (ohne .1) Pfad einschlagen.

betasilie
2004-05-27, 02:49:30
Original geschrieben von Gast
Ich sagte ohne Tools du Vogel!
Ja, ohne Tools, wenn EA das wollte. Das Spiel darf sich aussuchen welche Texturstages wie gefiltert werden. ... Jetzt kapiert? :)

betasilie
2004-05-27, 02:50:20
Original geschrieben von Winter[Raven]
Sorry, aber merkst du nicht langsamm, dass du in letzter Zeit etwas den falschen Ton triffst, und gleich Beleidigend wirst?

Egal ob Gast, LS und andere!
Komm Du erst mal von deinem infantilem NV-Trip runter, dann können wir weiter reden.

Sphinx
2004-05-27, 03:19:25
@ Betareverse : Mach es wie ich und lass sie im glauben...

Wenn ich mir wirklich alles so durchlese - liest es sich nach einer typisch Deutsch Pupertären Diskussion einiger Möchtegern Hardcore Freaks, die im Glauben zu sein scheinen...

...ohne jegliche Basis der Fakten und Tatsachen.

-
Ich kann mich selbst schon teilweise nicht zusammenreißen welch ein unfug Gäste hier ins Forum trollen nur um die Diskussionen auflodern zu lassen und einige auf dieser Welle gerne Mitreiten wollen...

Aus sozialen Gründen frage ich mich manchmal - ist das die Jungend die Deutschland zu bieten hat? - Die in ihrer Anonymität soviel Schwachsinn und inhaltsloser Postings von sich geben, daß einem nur noch Mitleidsgefühle hochkommen...

so long - basht,trollt und schmußt noch weiter miteinander rum...
... im Endeffekt sind wir doch nur Marionetten der Wirtschaft. Die sich köstlich mit eurer Kohle die dicken Hummer verspeißen und sich die edelsten Nutten ins Hotel bestellen...

Aber Gottseidank ,) Kann ich mir trotz des Marionettendaseins auch edle Nutten ins Hotel bestellen... :)

x5
2004-05-27, 07:40:14
Original geschrieben von SKYNET
das ist soetwas was ich meine... ATI treiber sind fürn popo.
Warum haste überhaupt ne Ati-Karte?

LovesuckZ
2004-05-27, 07:40:56
Original geschrieben von Sphinx
Dank Ati + Nvidia müssen 5200 User + R9xxx(LOWEND) User auf DX9 verzichten. Nicht weil sie es wollen, sondern weil man sie zwingt rein Performance-Mäßig ![...]

Achja. Du willst also entscheiden, was "schnell genug" ist. Da stellt sich mir nur die Frage, wie du das machen willst...
Den Rest spar ich mir, soviel Unsinn auf so wenig virtuellen Platz findet man nicht oft vor...

LovesuckZ
2004-05-27, 07:46:22
Original geschrieben von Sphinx
Wenn ich mir wirklich alles so durchlese - liest es sich nach einer typisch Deutsch Pupertären Diskussion einiger Möchtegern Hardcore Freaks, die im Glauben zu sein scheinen...
...ohne jegliche Basis der Fakten und Tatsachen.
Aus sozialen Gründen frage ich mich manchmal - ist das die Jungend die Deutschland zu bieten hat? - Die in ihrer Anonymität soviel Schwachsinn und inhaltsloser Postings von sich geben, daß einem nur noch Mitleidsgefühle hochkommen...


Geht's noch?
"ohne jegliche Basis der Fakten und Tatsachen" beledigst du gerade Leute, die du in keinster Weise kennst.
Wenn man ehrlich ist: Schreibst du wie "ein typisch[er] Deutsch[er] Pupertären[der] Diskussion[sunfaehiger [...] Möchtegern Hardcore Freak, [der] im Glauben zu sein schei[t] [etwas zu wissen]..." Der Rest trifft 1:1 auch auf dich zu. Fasse dich doch erstmal an die eigene Nase, bevor du fremde Leute, ja auch mich, derart beleidigst, weil du unfaehig bist, vernünftig zu diskutieren.

seahawk
2004-05-27, 08:13:17
Original geschrieben von Sphinx
Das ich das nochmal erleben darf das du was richtig erkannt hast.

Ergänze dieses noch mit :

Dank Ati + Nvidia müssen 5200 User + R9xxx(LOWEND) User auf DX9 verzichten. Nicht weil sie es wollen, sondern weil man sie zwingt rein Performance-Mäßig ! Damit sie Spiele flüssig auf ihrem PC, welches sie für ein Schnäppchen bei einem Discounter erworben haben,spielen wollen...

Und die Puplisher wollen Kohle sehen (Absatz) und eine zufriedene Käuferschaft haben damit das nächste Spiel welches sie Herstellen wieder ein Megaerfolg wird...

Schon alleine der SupportAufwand, warum das Spiel bei 1-10 FPS läuft (also unspielbar)... undsoweiter.


Edit : Vielleicht erlebe ich es ja noch das LOW END bald wirklich mal verboten wird... damit wir alle eine wirklich Performantere Entwicklungsbasis besitzen als z.Zt. vorhanden. Ja ich verstehe die Allgemeinheit sich keine 500Euro Karte leisten zu können... aber was solls dann spart man halt mal eine längere Zeit auf was Vernünftiges.

Mit Verlaub gesagt ist das Blödsinn. Die allermesiten PCs werden heute mit Low-End Grafikkarten verkauft. Was ist den in den typischen Mediamarkt und Saturn Schätzchen ?? Eine 9200SE oder eine FX5200. Und hoffentlich ist es eine 5200, denn dann wird s eine Statistik gegeb die sagt, dass mehr als 70% aller 2003 oder 2004 verkauften Rechner bereits DX9 fähig sind. Und das erlaubt den Spielefirmen DX9 Engines zu entwicklen, weil einfach genug Käufer da sind. Für die High-End-Freaks lohnt es sich nicht eine Engine zu etwickeln, außer Du möchtest irgendwann 150 Euro für ein Spiel zahlen.

Auf eine FX5200 läuft heute jedes Spiel in 640x480 mit reduzierten Details. Mehr muss so eine Karte nicht können.

Mr. Lolman
2004-05-27, 08:36:30
Original geschrieben von seahawk
Auf eine FX5200 läuft heute jedes Spiel in 640x480 mit reduzierten Details. Mehr muss so eine Karte nicht können.


Siehst du, und auf ner 9200 läuft jedes Spiel min in 800x600 (mit reduzierten Details), dafür braucht man sich dann auch nicht ärgern, dass DX9 selbst in 320x240 ruckelt... ;)

MasterElwood
2004-05-27, 09:14:21
Bashen oder nicht.

Tatsache ist: ATI hat uns allen mit den neuen Chips richtig geschadet.

Begründung: Kein Entwickler wird sich bemühen einen standart zu interplentieren wenn ihn nicht BEIDE großen GraKaHersteller unterstützen. Also werden sie ihn auslassen und gleich zum nächsten übergehen.

Dasselbe hatten wir schon mal mit DX8. Das ist auch extrem vorsichtig und zaghaft von den Spieleentwicklern angegangen worden, weil NV ihr topselling Produkt DX7 gelassen hat (GF4MX). Und schon war DX8 für Entwickler uninteressant.

Und jetzt mach ATI dasselbe mit PS3. Zwar im kleineren Umfang, aber doch.

ALSO: 1 : 1

Mr. Lolman
2004-05-27, 09:36:53
Original geschrieben von MasterElwood
Bashen oder nicht.

Tatsache ist: ATI hat uns allen mit den neuen Chips richtig geschadet.

Begründung: Kein Entwickler wird sich bemühen einen standart zu interplentieren wenn ihn nicht BEIDE großen GraKaHersteller unterstützen. Also werden sie ihn auslassen und gleich zum nächsten übergehen.

Dasselbe hatten wir schon mal mit DX8. Das ist auch extrem vorsichtig und zaghaft von den Spieleentwicklern angegangen worden, weil NV ihr topselling Produkt DX7 gelassen hat (GF4MX). Und schon war DX8 für Entwickler uninteressant.

Und jetzt mach ATI dasselbe mit PS3. Zwar im kleineren Umfang, aber doch.

ALSO: 1 : 1


Andersrum wird ein Schuh draus:

ATi hat uns mit den neuen Chips was richtig gutes getan, weil dessen technische Unterlgegenheit die Entwicklung am Grafiksektor bremst, was wiederum bedeutet, dass man nicht alle 6 Monate neue HW braucht ;)

[dzp]Viper
2004-05-27, 09:42:09
Original geschrieben von Mr. Lolman
Andersrum wird ein Schuh draus:

ATi hat uns mit den neuen Chips was richtig gutes getan, weil dessen technische Unterlgegenheit die Entwicklung am Grafiksektor bremst, was wiederum bedeutet, dass man nicht alle 6 Monate neue HW braucht ;)

naja - das ist ein zweiseitiges Schwert ;)

Das ist zwar nicht schlecht, aber DX9 als standard wäre auch nicht schlecht ;)

Gast
2004-05-27, 09:44:23
ich kapier es einfach nicht.

ich verstehe die argumente von lz, ow, raven und einigen gaesten nicht. klaert mich mal bitte auf!

wir sprechen doch hier von einer lowend karte (fx 5200) wie kann man bei solch einer karte die vorzuege von dx9 aa und af hervorheben? diese features funktionieren doch gar nicht mit den herkoemlichen spielen. also kann man sie auch ganz einfach weg lassen. wie z.b bei der mx4xx serie. die nur dx7 konnte weil sie fuer dx8 viel zu langsam ist.

dieses dummgelaber von wegen nvidia tut was fuer die zukuenftigen spiele nehmt ihr doch selber nicht ernst? was bringt es fuer die zukunft das eine lowendkarte features besitzt die keiner anwenden kann? selbst die highendkarten von nvidia koennen ihrer features gar nicht ausreizen (8xaf) weil sie viel zu lahm dafuer sind. ein normaler user (zocker) wird diese features niemals anruehren. weil sie die performanz der karte viel zu sehr beeintraechtigt. kommt doch mal von eurem hohen ross runter. die features, die die 3dgurus von nv oder auch ati anpreisen sind fuer den normalen user einfach voellig sinnlos. weil die karten, die performanz dafuer einfach nicht haben.
ganz oben an moechte ich da nvidia stellen (nicht weil ich ein ati fanboy bin) die nvidia karten sind ja schoen schnell. aber stellt man irgendein feature bei spielen an (aa oder auch af) dann geht die performanz der karte so sehr in den keller, dass sich das jeder spieler 2x uberlegt und diese features lieber ausgestellt laesst.

eine grafikkarte kaufe ich in erster linie wegen der performanz. als 2tes kommt dann die qualitaet. aber ich moechte keine qualitaet wenn das spiel, welches ich spielen moechte nicht mehr spielbar ist.

deshalb duerfen eure seltsamen argumente fuer niemanden gelten das eine lowend karte bestimmte features mitbringt. weil mit diesen features kann nieman etwas anfangen. "nice 2 have" spielt in diesem fall also keine rolle!

Leonidas
2004-05-27, 10:28:00
Original geschrieben von Gast
DirectX 9.0-Optimierungen und Unterstützung
Ausgelegt auf Kompatibilität mit der neuesten Spiele- und Multimediasoftware, ist die GeForce FX 5200 die einzige DX9-GPU ihrer Klasse



;)

Haben da die Anwälte mitgeschrieben? Für mich ließt sich das so: DX9 ja, aber nur dort, wo es nicht zu langsam ist.

Leonidas
2004-05-27, 10:30:50
Original geschrieben von LovesuckZ
"Radeon 9200 will play DX9 class games faster[...]"
"nie als Gamingkarte beworben"?
:rofl:


Momentan gibt es kaum noch 9200er mit 128 Bit Speicherinterface zu kaufen :)

Leonidas
2004-05-27, 10:32:35
Original geschrieben von deekey777
Das ist Marketing was davon ablenken soll, dass ATI kein DX9-Einsteigerprodukt hatte.



Na noch isses nicht da. Und die Folien sind auch schon recht alt. Und ATi hat wirklich lange gebraucht, um der 5200 mal was gegenzusetzen.

Leonidas
2004-05-27, 10:33:31
Original geschrieben von jagger
Zur News:

Wieso sollen sich ConCall und Powerpoint Präsentation beissen!?!

Hab ich fast jeden Tag: Netmeeting.



Mmh. Ja, magst Du Recht haben.

Leonidas
2004-05-27, 10:35:00
Original geschrieben von Gast
Eine Bridge-Lösung hat hingegen der Meinungen vieler hier einen WICHTIGEN Nachteil!




Wo sind diese "vielen", Herr Gast?



Ich sehe bis auf Spezialfälle wie Video jedenfalls nicht, daß PCI-E in den nächsten Jahren irgendwelche Vorteile für Grafikkarten bringen wird. Theorie ist die eine Seite, Praxis die andere.

Noch dazu wo PCI-E aufgrund des höheren Schnittverlusts weit davon entfernt ist, ein Dimmensionssprung zu sein. Praktisch kann man davon ausgehen, daß PCI-Ex16 3 GB/sec reale Daten übertragen kann, AGPx8 2 GB/sec. Welcher Spiele-Entwickler wird hier ein Spiel entwickeln, was unbedingt diese 3 GB/sec braucht, wenn er mit nur ein wenig Einschränkung auch alle AGPx8-User mitnehmen könnte? Unwahrscheinlich. Die Spiele-Entwickler werden aufgrund des geringen Unterschieds zwischen PCI-Ex16 und AGPx8 weiterhin bei AGPx8 als kleinsten gemeinsamen Nenner bleiben.

Einzige Ausnahme: Ein Entwickler will den hohen Upload von PCI-E nutzen. Mir fällt nur ehrlicherweise keine Anwendung dafür ein - außer außerhalb von Spielen.

roman
2004-05-27, 10:47:03
Original geschrieben von Gast
dieses dummgelaber von wegen nvidia tut was fuer die zukuenftigen spiele nehmt ihr doch selber nicht ernst? was bringt es fuer die zukunft das eine lowendkarte features besitzt die keiner anwenden kann? selbst die highendkarten von nvidia koennen ihrer features gar nicht ausreizen (8xaf) weil sie viel zu lahm dafuer sind. ein normaler user (zocker) wird diese features niemals anruehren. weil sie die performanz der karte viel zu sehr beeintraechtigt. kommt doch mal von eurem hohen ross runter. die features, die die 3dgurus von nv oder auch ati anpreisen sind fuer den normalen user einfach voellig sinnlos. weil die karten, die performanz dafuer einfach nicht haben.
ganz oben an moechte ich da nvidia stellen (nicht weil ich ein ati fanboy bin) die nvidia karten sind ja schoen schnell. aber stellt man irgendein feature bei spielen an (aa oder auch af) dann geht die performanz der karte so sehr in den keller, dass sich das jeder spieler 2x uberlegt und diese features lieber ausgestellt laesst.

Sorry, aber das ist Blödsinn. Die derzeitigen Highend- und Midrange-Karten von NV und Ati sind durchaus in der Lage, hochwertiges AA und AF (oder das, was davon übrig geblieben ist) in spielbaren Frameraten darzustellen, zumindest in 99% der Games.

Mantikor
2004-05-27, 10:48:58
Naja, so schlimm finde ich die FX 5200 auch nicht...
Als Ich für kurze Zeit jene so verspottete Karte in meiner Kiste hatte konnte ich Far Cry 800 x 600 und 2xAA mit Mittleren bis (meist;-)) niedrigen Detail spielen:jumping:




Mfg Der Mantikor

Gast
2004-05-27, 11:01:36
Original geschrieben von Romanski
Sorry, aber das ist Blödsinn. Die derzeitigen Highend- und Midrange-Karten von NV und Ati sind durchaus in der Lage, hochwertiges AA und AF (oder das, was davon übrig geblieben ist) in spielbaren Frameraten darzustellen, zumindest in 99% der Games.


so bloedsinnig ist das gar nicht. ich moechte dich mal ut2k3-4, fcry, bf42, bfv, cs:cz, pk, cod, sp:pt, sacred oder spellforce mit 8xaf spielen sehen !!!lol!!! (mit einer nvidia karte)

roman
2004-05-27, 11:11:18
Original geschrieben von Gast
so bloedsinnig ist das gar nicht. ich moechte dich mal ut2k3-4, fcry, bf42, bfv, cs:cz, pk, cod, sp:pt, sacred oder spellforce mit 8xaf spielen sehen !!!lol!!! (mit einer nvidia karte)

OK - 98% der Games.

Gast
2004-05-27, 11:24:11
wie man sieht habn wieder mal 100 % von euch keine ahnung . all die tollen spiele benchmarks die ihr bei den ganen tests gesehen habt basieren auf sm 2.0 technologie . jetzt wuerde ein inteligenter mensch feststellen , das nvidias karten fuer sm 3.0 gebaut sind . und er wuerde auch bemerken , das der x800 fuer sm 2.0 gebaut ist. somit wuerde er feststelllen , das das kein wunder ist, dass ati ein paar fps vorne liegt kurz ausgedrückt :

wenn die ersten spielen mit sm 3.0 kommen wird ati ca. 20 % zurück iegen

danke fuer ihre aufmerksamkeit und auf wiedersehen

Endorphine
2004-05-27, 11:32:31
Original geschrieben von Leonidas
Wo sind diese "vielen", Herr Gast?



Ich sehe bis auf Spezialfälle wie Video jedenfalls nicht, daß PCI-E in den nächsten Jahren irgendwelche Vorteile für Grafikkarten bringen wird. Theorie ist die eine Seite, Praxis die andere.

Noch dazu wo PCI-E aufgrund des höheren Schnittverlusts weit davon entfernt ist, ein Dimmensionssprung zu sein. Praktisch kann man davon ausgehen, daß PCI-Ex16 3 GB/sec reale Daten übertragen kann, AGPx8 2 GB/sec. Welcher Spiele-Entwickler wird hier ein Spiel entwickeln, was unbedingt diese 3 GB/sec braucht, wenn er mit nur ein wenig Einschränkung auch alle AGPx8-User mitnehmen könnte? Unwahrscheinlich. Die Spiele-Entwickler werden aufgrund des geringen Unterschieds zwischen PCI-Ex16 und AGPx8 weiterhin bei AGPx8 als kleinsten gemeinsamen Nenner bleiben.

Einzige Ausnahme: Ein Entwickler will den hohen Upload von PCI-E nutzen. Mir fällt nur ehrlicherweise keine Anwendung dafür ein - außer außerhalb von Spielen. Hm naja, die potenziell deutlich niedrigeren Latenzzeiten könnten auch für Spiele Verbesserungen bringen, wenn die Programmierer dann keine Rücksicht mehr auf das I/O-Leistungsprofil von AGP nehmen müssen (hohe Latenz von mindestens 15 µs, hohe Bandbreite zur GPU, niedrige Bandbreite von der GPU zum Systemhauptspeicher). Inwiefern die Latenzen tatsächlich im Vergleich zu AGP sinken wird die Praxis zeigen. Welche Vorteile das für 3D-beschleunigte Spiele bringen kann könnte uns sicher Demirug verraten =)

Die restlichen Vorteile von PCIe sind für den Spieler zumindest bei Grafikkarten eher nicht relevant, da stimme ich dir voll zu.

Sphinx
2004-05-27, 11:32:32
Original geschrieben von Gast
wie man sieht habn wieder mal 100 % von euch keine ahnung . all die tollen spiele benchmarks die ihr bei den ganen tests gesehen habt basieren auf sm 2.0 technologie . jetzt wuerde ein inteligenter mensch feststellen , das nvidias karten fuer sm 3.0 gebaut sind . und er wuerde auch bemerken , das der x800 fuer sm 2.0 gebaut ist. somit wuerde er feststelllen , das das kein wunder ist, dass ati ein paar fps vorne liegt kurz ausgedrückt :

wenn die ersten spielen mit sm 3.0 kommen wird ati ca. 20 % zurück iegen

danke fuer ihre aufmerksamkeit und auf wiedersehen

Nja tschau bella ,=) - Aber eine Quelle hättest du ruhig hinterlassen können wo solch ein unfug stehen wird.

Mal kleine tips: Schon mal was von Ati´s Shader Compiler was gehört...

1x Darfst du raten was dieser machen wird...

Gast
2004-05-27, 11:34:33
wieso solch ein unfung ? das ist doch pure logik , oder seit ihr zu bloed dafuer ?
sm 2.0 grafikkarten sind logsicher weise schneller auf sm 2.0 spielen
sm 3.0 werden dan schneller sein auf sm 3.0 spielen


irgendwie muss man bloed sien , wenn man das nicht versteht

seahawk
2004-05-27, 11:37:22
Original geschrieben von Mr. Lolman
Siehst du, und auf ner 9200 läuft jedes Spiel min in 800x600 (mit reduzierten Details), dafür braucht man sich dann auch nicht ärgern, dass DX9 selbst in 320x240 ruckelt... ;)

Ja, aber nur im DX8 Fallback Modus.

Mein Gott beide sind doch in Realität zum ernsthaften Spielen ungeeignet. Ne FX5200 ist mir nur lieber, weil jede verkaufte 5200 die Anzahl an eingebauten DX9 Karten erhöht und damit dafür sorgt, dass immer mehr Spiele DX9 nutzen werden.

Das kommt den High-End-Käufern mehr entgegen, als ne schnelle DX8 Karte im Low-End. Wo es dem typischen Käufer sowieso egal ist welche der beiden schneller ist.

Warum baut ATI den jetzt diese komische 9550 oder doe tolle 9600SE, wenn DX9 in dem Makrtsegement keine Beduetung hat ?? Das sind beides auch keine wirklichen Kracher, wenn es um die Leistung geht.

Gast
2004-05-27, 11:42:29
Original geschrieben von Gast
wieso solch ein unfung ? das ist doch pure logik , oder seit ihr zu bloed dafuer ?
sm 2.0 grafikkarten sind logsicher weise schneller auf sm 2.0 spielen
sm 3.0 werden dan schneller sein auf sm 3.0 spielen


irgendwie muss man bloed sien , wenn man das nicht versteht

;-)
du bist suess!
klar wird nv6800 schneller sein mit sm3 ... da ati dieses feature nicht hat.
was fuer eine bloedsinnige aussage!
aber wayne? bis die ersten spiele mit sm3 kommen ist die x500 raus. nvidia hat z.z. feature die die welt nicht braucht (zumindest kein normaler gamer). fuer entwickler mag es ganz sinnvoll sein.
und so viele sm3 spiel wird es wohl nicht geben. zumal die spielentwickler bestimmt nicht nur fuer eine graka spiele entwickeln.